تمام جلسات درخواستی از اجلاس امنیت هوشمند را در اینجا بررسی کنید.
هنگامی که محققان به خطراتی که هوش مصنوعی برای تمدن بشری دارد فکر می کنند، ما اغلب به “مشکل کنترل” اشاره می کنیم. این به احتمال ظهور یک ابر هوش مصنوعی اشاره دارد که بسیار باهوش تر از انسان است که ما به سرعت کنترل آن را از دست می دهیم. ترس این است که یک هوش مصنوعی با هوش فوق بشری بتواند اهداف و منافعی را دنبال کند که با منافع ما در تضاد است و به رقیب خطرناکی برای بشریت تبدیل شود.
در حالی که این یک نگرانی معتبر است که ما باید سخت برای محافظت در برابر آن تلاش کنیم، آیا واقعاً این بزرگترین تهدیدی است که هوش مصنوعی برای جامعه ایجاد می کند؟ احتمالا نه. یک نظرسنجی اخیر از بیش از 700 کارشناس هوش مصنوعی نشان داد که اکثر آنها معتقدند که هوش ماشینی در سطح انسان (HLMI) حداقل 30 سال دیگر فاصله دارد.
از سوی دیگر، من عمیقاً نگران نوع دیگری از مشکل کنترل هستم که در حال حاضر در اختیار ما است و میتواند تهدیدی بزرگ برای جامعه باشد مگر اینکه سیاستگذاران اقدام سریعی انجام دهند. منظور من به افزایش احتمالی است که فناوریهای هوش مصنوعی موجود در حال حاضر میتوانند برای هدف قرار دادن و دستکاری کاربران با دقت و کارایی بسیار زیاد مورد استفاده قرار گیرند. حتی بدتر، این شکل جدید دستکاری شخصی می تواند در مقیاسی توسط منافع شرکت ها، بازیگران دولتی یا حتی مستبدان سرکش برای تأثیرگذاری بر جمعیت های گسترده به کار گرفته شود.
“مشکل دستکاری”
برای مقابله با این تهدید با مشکل کنترل سنتی که در بالا توضیح داده شد، من از این خطر در حال ظهور هوش مصنوعی به عنوان “مشکل دستکاری” یاد می کنم. این خطری است که من تقریباً دو دهه دنبال آن بودم، اما در 18 ماه گذشته، از یک ریسک بلندمدت نظری به یک تهدید کوتاه مدت فوری تبدیل شده است.
رویداد
اجلاس امنیت هوشمند بر حسب تقاضا
نقش حیاتی هوش مصنوعی و ML در امنیت سایبری و مطالعات موردی خاص صنعت را بیاموزید. امروز جلسات درخواستی را تماشا کنید.
اینجا را تماشا کنید
به این دلیل که کارآمدترین و مؤثرترین مکانیسم استقرار برای دستکاری انسان مبتنی بر هوش مصنوعی از طریق هوش مصنوعی مکالمه ای است. و در طول سال گذشته، یک فناوری هوش مصنوعی قابل توجه به نام مدلهای زبان بزرگ (LLM) به سرعت به سطح بلوغ رسیده است. این به طور ناگهانی تعاملات مکالمه طبیعی بین کاربران هدف و نرم افزار مبتنی بر هوش مصنوعی را به ابزاری مناسب برای متقاعد کردن، اجبار و دستکاری تبدیل کرده است.
البته، فناوریهای هوش مصنوعی در حال حاضر برای هدایت کمپینهای تأثیرگذاری بر روی پلتفرمهای رسانههای اجتماعی استفاده میشوند، اما این در مقایسه با جایی که این فناوری در آن قرار دارد، ابتدایی است. این به این دلیل است که کمپینهای فعلی، در حالی که به عنوان “هدفمند” توصیف میشوند، بیشتر شبیه به اسپری کردن گلههای پرندگان هستند. این تاکتیک رگباری از تبلیغات یا اطلاعات نادرست را به سمت گروه های تعریف شده هدایت می کند به این امید که چند قطعه از نفوذ در جامعه نفوذ کند، در بین اعضای آن طنین انداز شود و در سراسر شبکه های اجتماعی پخش شود.
این تاکتیک بسیار خطرناک است و آسیب واقعی به جامعه وارد کرده است، جوامع را قطبی می کند، دروغ پراکنی می کند و اعتماد به نهادهای قانونی را کاهش می دهد. اما در مقایسه با نسل بعدی روش های نفوذ مبتنی بر هوش مصنوعی که قرار است در جامعه راه اندازی شود، کند و ناکارآمد به نظر می رسد.
سیستم های هوش مصنوعی بلادرنگ
منظور من سیستمهای هوش مصنوعی بلادرنگ است که برای درگیر کردن کاربران هدفمند در تعاملات مکالمه و پیگیری ماهرانه اهداف تأثیرگذاری با دقت شخصی طراحی شدهاند. این سیستم ها با استفاده از اصطلاحات خوشایند مانند تبلیغات محاوره ای، بازاریابی تعاملی، سخنگوهای مجازی، انسان های دیجیتال یا به سادگی ربات های چت هوش مصنوعی.
اما هر چه آن ها را بنامیم، این سیستم ها حامل های وحشتناکی برای سوء استفاده و سوء استفاده دارند. من در مورد این خطر آشکار صحبت نمی کنم که مصرف کنندگان ناآگاه ممکن است به خروجی ربات های چت که بر روی داده های پر از خطا و سوگیری آموزش داده شده اند اعتماد کنند. نه، من در مورد چیزی بسیار شرورتر صحبت می کنم – دستکاری عمدی افراد از طریق استقرار هدفمند سیستم های هوش مصنوعی محاوره محور که کاربران را از طریق گفتگوهای تعاملی متقاعدکننده متقاعد می کند.
این روشهای هوش مصنوعی جدید به جای شلیک گلوله به جمعیتهای گسترده، بیشتر شبیه موشکهای جستجوگر گرما هستند که کاربران را بهعنوان اهداف فردی مشخص میکنند و تاکتیکهای مکالمهشان را در زمان واقعی تطبیق میدهند و با هر فردی که برای به حداکثر رساندن تأثیر متقاعدکنندهشان کار میکنند، شخصاً سازگار میشوند. .
هسته اصلی این تاکتیکها، فناوری نسبتاً جدید LLM است که میتواند گفتوگوی تعاملی انسانی را در زمان واقعی ایجاد کند و در عین حال جریان مکالمه و زمینه را نیز پیگیری کند. همانطور که با راه اندازی ChatGPT در سال 2022 رایج شد، این سیستم های هوش مصنوعی بر روی چنین مجموعه داده های عظیمی آموزش دیده اند که نه تنها در تقلید زبان انسان مهارت دارند، بلکه دارای ذخایر گسترده ای از دانش واقعی هستند، می توانند استنتاج های منطقی چشمگیر داشته باشند و می توانند توهم را ارائه دهند. عقل سلیم انسانی
هنگامی که این فناوریها با تولید صدای بلادرنگ ترکیب شوند، تعاملات گفتاری طبیعی بین انسانها و ماشینها را ممکن میسازد که بسیار متقاعدکننده، به ظاهر منطقی و بهطور شگفتانگیزی معتبر هستند.
ظهور انسان های دیجیتال
البته، ما با صداهای بیجسم تعامل نخواهیم کرد، بلکه با شخصیتهای تولیدشده توسط هوش مصنوعی که از نظر بصری واقعگرا هستند، تعامل خواهیم داشت. این من را به دومین فناوری در حال پیشرفت می رساند که به مشکل دستکاری هوش مصنوعی کمک می کند: انسان های دیجیتال. این شاخه ای از نرم افزارهای کامپیوتری است که با هدف به کارگیری افراد شبیه سازی شده فوتورئالیستی که به نظر، صدا، حرکت و بیان آنقدر معتبر هستند که می توانند به عنوان انسان واقعی عبور کنند، است.
این شبیهسازیها میتوانند بهعنوان سخنگویان تعاملی که مصرفکنندگان را از طریق محاسبات دوبعدی سنتی از طریق کنفرانس ویدیویی و دیگر طرحبندیهای مسطح هدف قرار میدهند، مستقر شوند. یا، آنها را می توان با استفاده از عینک واقعیت مختلط (MR) در جهان های غوطه ور سه بعدی مستقر کرد.
در حالی که چند سال پیش به نظر میرسید که تولید بیدرنگ انسانهای فوتورئالیست دور از دسترس باشد، پیشرفتهای سریع در قدرت محاسباتی، موتورهای گرافیکی و تکنیکهای مدلسازی هوش مصنوعی، انسانهای دیجیتال را به یک فناوری کوتاهمدت قابل دوام تبدیل کرده است. در واقع، فروشندگان بزرگ نرم افزار در حال حاضر ابزارهایی را برای تبدیل این قابلیت به یک قابلیت گسترده ارائه می کنند.
به عنوان مثال، Unreal اخیرا ابزاری با کاربری آسان به نام Metahuman Creator را راه اندازی کرده است. این به طور خاص برای ایجاد امکان ایجاد انسان های دیجیتال متقاعد کننده طراحی شده است که می توانند در زمان واقعی برای تعامل تعاملی با مصرف کنندگان متحرک شوند. سایر فروشندگان در حال توسعه ابزارهای مشابه هستند.
خود را به عنوان انسان های اصیل جلوه می دهند
وقتی انسانهای دیجیتال و LLM با هم ترکیب شوند، دنیایی را ایجاد میکنند که در آن ما به طور منظم با سخنگوهای مجازی (VSPs) که شبیه افراد معتبر به نظر میرسند، صدا میکنند و عمل میکنند، تعامل داریم.
در واقع، یک مطالعه در سال 2022 توسط محققان دانشگاه لنکستر و دانشگاه کالیفرنیا برکلی نشان داد که کاربران اکنون قادر به تشخیص چهرههای واقعی انسان و چهرههای تولید شده توسط هوش مصنوعی نیستند. حتی نگرانکنندهتر، آنها تشخیص دادند که کاربران چهرههای تولید شده توسط هوش مصنوعی را «معتمدتر» از افراد واقعی میدانند.
این نشان دهنده دو روند بسیار خطرناک برای آینده نزدیک است. اول، ما میتوانیم انتظار داشته باشیم که سیستمهای مبتنی بر هوش مصنوعی را بهعنوان انسانهای اصیل درگیر کنیم، و به زودی توانایی تشخیص تفاوت را نداریم. دوم، ما به احتمال زیاد به سیستم های مبدل مبتنی بر هوش مصنوعی بیشتر از نمایندگان واقعی انسانی اعتماد خواهیم کرد.
مکالمات شخصی شده با هوش مصنوعی
این بسیار خطرناک است، زیرا ما به زودی خود را در گفتگوهای شخصی با سخنگویان مبتنی بر هوش مصنوعی خواهیم دید که (الف) از انسان های واقعی قابل تشخیص نیستند، (ب) اعتماد بیشتری نسبت به افراد واقعی ایجاد می کنند، و (ج) می توانند توسط شرکت ها یا ایالت ها مستقر شوند. بازیگران برای دنبال کردن یک دستور کار گفتگوی خاص، خواه متقاعد کردن مردم برای خرید یک محصول خاص یا باور یک اطلاعات نادرست خاص باشد.
و اگر بهطور تهاجمی تنظیم نشود، این سیستمهای مبتنی بر هوش مصنوعی نیز احساسات را در زمان واقعی با استفاده از فیدهای وبکم برای پردازش حالات چهره، حرکات چشم و گشاد شدن مردمکها تجزیه و تحلیل میکنند – همه اینها میتوانند برای استنتاج واکنشهای احساسی در طول مکالمه استفاده شوند.
در عین حال، این سیستمهای هوش مصنوعی انحرافات صوتی را پردازش میکنند و احساسات در حال تغییر را در طول مکالمه استنباط میکنند. این به این معنی است که یک سخنگوی مجازی که برای مشارکت دادن افراد در یک مکالمه مبتنی بر نفوذ مستقر شده است، میتواند تاکتیکهای خود را بر اساس نحوه واکنش آنها به هر کلمهای که به زبان میآورد، تطبیق دهد و تشخیص دهد که کدام استراتژیهای تأثیرگذار کار میکنند و کدامها نه. پتانسیل دستکاری غارتگرانه از طریق هوش مصنوعی محاوره ای بسیار زیاد است.
هوش مصنوعی محاوره ای: ادراکی و تهاجمی
در طول سالها، من از مردم خواستهام که نگرانیهای من در مورد هوش مصنوعی محاورهای را کنار بگذارند و به من میگویند که فروشندگان انسانی با خواندن احساسات و تنظیم تاکتیکها همین کار را انجام میدهند – بنابراین این نباید یک تهدید جدید در نظر گرفته شود.
این به چند دلیل نادرست است. اول، این سیستمهای هوش مصنوعی واکنشهایی را شناسایی میکنند که هیچ فروشنده انسانی قادر به درک آن نیست. به عنوان مثال، سیستمهای هوش مصنوعی میتوانند نه تنها حالات چهره، بلکه «عبارات ریز» را که برای مشاهدهگر انسانی بسیار سریع یا بسیار ظریف هستند، اما نشاندهنده واکنشهای احساسی هستند، از جمله واکنشهایی که کاربر از ابراز یا حتی احساس آن بیاطلاع است. .
به طور مشابه، سیستمهای هوش مصنوعی میتوانند تغییرات ظریف در چهره را که به عنوان «الگوهای جریان خون» شناخته میشوند، روی چهرهها بخوانند که نشاندهنده تغییرات احساسی است که هیچ انسانی قادر به تشخیص آن نیست. و در نهایت، سیستمهای هوش مصنوعی میتوانند تغییرات ظریف در اندازه مردمک و حرکات چشم را ردیابی کنند و نشانههایی در مورد تعامل، هیجان و سایر احساسات داخلی خصوصی استخراج کنند. تعامل با هوش مصنوعی محاورهای، تا زمانی که توسط مقررات محافظت نشود، بسیار ادراکیتر و تهاجمیتر از تعامل با هر نماینده انسانی خواهد بود.
مکالمات تطبیقی و سفارشی
هوش مصنوعی محاورهای نیز در ایجاد یک طرح کلامی سفارشی استراتژیکتر خواهد بود. به این دلیل که این سیستمها احتمالاً توسط پلتفرمهای آنلاین بزرگی که دارای پروفایلهای دادهای گسترده در مورد علایق، دیدگاهها، پیشینه و هر جزئیات دیگری هستند که در طول زمان جمعآوری شدهاند، مستقر خواهند شد.
این بدان معناست که وقتی با یک سیستم هوش مصنوعی مکالمهای که به نظر میرسد، صدا میدهد و مانند نماینده انسان عمل میکند، درگیر میشوند، مردم با پلتفرمی تعامل دارند که آنها را بهتر از هر انسانی میشناسد. علاوه بر این، پایگاه داده ای از نحوه واکنش آنها در طول تعاملات مکالمه قبلی جمع آوری می کند، و ردیابی می کند که چه تاکتیک های متقاعد کننده ای بر آنها موثر بوده و چه تاکتیک هایی موثر نیستند.
به عبارت دیگر، سیستمهای هوش مصنوعی مکالمهای نه تنها با واکنشهای احساسی فوری، بلکه با ویژگیهای رفتاری در طول روزها، هفتهها و سالها سازگار میشوند. آنها می توانند یاد بگیرند که چگونه شما را به گفتگو بکشانند، شما را راهنمایی کنند تا ایده های جدید را بپذیرید، دکمه های خود را فشار دهید تا شما را عصبانی کنند و در نهایت شما را به سمت خرید محصولاتی که نیاز ندارید و خدماتی که نمی خواهید سوق دهند. آنها همچنین می توانند شما را تشویق کنند که اطلاعات نادرستی را که معمولاً می فهمید پوچ است، باور کنید. این به شدت خطرناک است.
دستکاری انسان، در مقیاس
در واقع، خطر تعاملی هوش مصنوعی محاوره ای می تواند بسیار بدتر از هر چیزی باشد که در دنیای تبلیغات، تبلیغات یا متقاعدسازی با استفاده از رسانه های سنتی یا اجتماعی با آن برخورد کرده ایم. به همین دلیل، من معتقدم که تنظیم کننده ها باید فوراً روی این موضوع تمرکز کنند، زیرا استقرار سیستم های خطرناک ممکن است به زودی اتفاق بیفتد.
این فقط در مورد انتشار محتوای خطرناک نیست – بلکه در مورد فعال کردن دستکاری شخصی انسانی در مقیاس است. ما به حمایت های قانونی نیاز داریم که از آزادی شناختی ما در برابر این تهدید دفاع کند.
از این گذشته، سیستم های هوش مصنوعی می توانند بهترین بازیکنان شطرنج و پوکر جهان را شکست دهند. یک فرد معمولی چه شانسی برای مقاومت در برابر دستکاری یک کمپین نفوذ مکالمه ای دارد که به تاریخچه شخصی آنها دسترسی دارد، احساسات خود را در زمان واقعی پردازش می کند و تاکتیک های خود را با دقت مبتنی بر هوش مصنوعی تنظیم می کند؟ اصلا شانسی نیست
لوئیس روزنبرگ بنیانگذار هوش مصنوعی Unanimous است و بیش از 300 حق ثبت اختراع برای فناوری های VR، AR و AI دریافت کرده است.
DataDecisionMakers
به انجمن VentureBeat خوش آمدید!
DataDecisionMakers جایی است که کارشناسان، از جمله افراد فنی که کار داده را انجام می دهند، می توانند بینش ها و نوآوری های مرتبط با داده را به اشتراک بگذارند.
اگر میخواهید درباره ایدههای پیشرفته و اطلاعات بهروز، بهترین شیوهها و آینده فناوری داده و داده مطالعه کنید، به ما در DataDecisionMakers بپیوندید.
شما حتی ممکن است در نظر داشته باشید که مقاله ای از خودتان ارائه دهید!
از DataDecisionMakers بیشتر بخوانید