خطر عمیق هوش مصنوعی محاوره ای


تمام جلسات درخواستی از اجلاس امنیت هوشمند را در اینجا بررسی کنید.


هنگامی که محققان به خطراتی که هوش مصنوعی برای تمدن بشری دارد فکر می کنند، ما اغلب به “مشکل کنترل” اشاره می کنیم. این به احتمال ظهور یک ابر هوش مصنوعی اشاره دارد که بسیار باهوش تر از انسان است که ما به سرعت کنترل آن را از دست می دهیم. ترس این است که یک هوش مصنوعی با هوش فوق بشری بتواند اهداف و منافعی را دنبال کند که با منافع ما در تضاد است و به رقیب خطرناکی برای بشریت تبدیل شود.

در حالی که این یک نگرانی معتبر است که ما باید سخت برای محافظت در برابر آن تلاش کنیم، آیا واقعاً این بزرگترین تهدیدی است که هوش مصنوعی برای جامعه ایجاد می کند؟ احتمالا نه. یک نظرسنجی اخیر از بیش از 700 کارشناس هوش مصنوعی نشان داد که اکثر آنها معتقدند که هوش ماشینی در سطح انسان (HLMI) حداقل 30 سال دیگر فاصله دارد.

از سوی دیگر، من عمیقاً نگران نوع دیگری از مشکل کنترل هستم که در حال حاضر در اختیار ما است و می‌تواند تهدیدی بزرگ برای جامعه باشد مگر اینکه سیاست‌گذاران اقدام سریعی انجام دهند. منظور من به افزایش احتمالی است که فناوری‌های هوش مصنوعی موجود در حال حاضر می‌توانند برای هدف قرار دادن و دستکاری کاربران با دقت و کارایی بسیار زیاد مورد استفاده قرار گیرند. حتی بدتر، این شکل جدید دستکاری شخصی می تواند در مقیاسی توسط منافع شرکت ها، بازیگران دولتی یا حتی مستبدان سرکش برای تأثیرگذاری بر جمعیت های گسترده به کار گرفته شود.

“مشکل دستکاری”

برای مقابله با این تهدید با مشکل کنترل سنتی که در بالا توضیح داده شد، من از این خطر در حال ظهور هوش مصنوعی به عنوان “مشکل دستکاری” یاد می کنم. این خطری است که من تقریباً دو دهه دنبال آن بودم، اما در 18 ماه گذشته، از یک ریسک بلندمدت نظری به یک تهدید کوتاه مدت فوری تبدیل شده است.

رویداد

اجلاس امنیت هوشمند بر حسب تقاضا

نقش حیاتی هوش مصنوعی و ML در امنیت سایبری و مطالعات موردی خاص صنعت را بیاموزید. امروز جلسات درخواستی را تماشا کنید.

اینجا را تماشا کنید

به این دلیل که کارآمدترین و مؤثرترین مکانیسم استقرار برای دستکاری انسان مبتنی بر هوش مصنوعی از طریق هوش مصنوعی مکالمه ای است. و در طول سال گذشته، یک فناوری هوش مصنوعی قابل توجه به نام مدل‌های زبان بزرگ (LLM) به سرعت به سطح بلوغ رسیده است. این به طور ناگهانی تعاملات مکالمه طبیعی بین کاربران هدف و نرم افزار مبتنی بر هوش مصنوعی را به ابزاری مناسب برای متقاعد کردن، اجبار و دستکاری تبدیل کرده است.

البته، فناوری‌های هوش مصنوعی در حال حاضر برای هدایت کمپین‌های تأثیرگذاری بر روی پلتفرم‌های رسانه‌های اجتماعی استفاده می‌شوند، اما این در مقایسه با جایی که این فناوری در آن قرار دارد، ابتدایی است. این به این دلیل است که کمپین‌های فعلی، در حالی که به عنوان “هدف‌مند” توصیف می‌شوند، بیشتر شبیه به اسپری کردن گله‌های پرندگان هستند. این تاکتیک رگباری از تبلیغات یا اطلاعات نادرست را به سمت گروه های تعریف شده هدایت می کند به این امید که چند قطعه از نفوذ در جامعه نفوذ کند، در بین اعضای آن طنین انداز شود و در سراسر شبکه های اجتماعی پخش شود.

این تاکتیک بسیار خطرناک است و آسیب واقعی به جامعه وارد کرده است، جوامع را قطبی می کند، دروغ پراکنی می کند و اعتماد به نهادهای قانونی را کاهش می دهد. اما در مقایسه با نسل بعدی روش های نفوذ مبتنی بر هوش مصنوعی که قرار است در جامعه راه اندازی شود، کند و ناکارآمد به نظر می رسد.

سیستم های هوش مصنوعی بلادرنگ

منظور من سیستم‌های هوش مصنوعی بلادرنگ است که برای درگیر کردن کاربران هدفمند در تعاملات مکالمه و پیگیری ماهرانه اهداف تأثیرگذاری با دقت شخصی طراحی شده‌اند. این سیستم ها با استفاده از اصطلاحات خوشایند مانند تبلیغات محاوره ای، بازاریابی تعاملی، سخنگوهای مجازی، انسان های دیجیتال یا به سادگی ربات های چت هوش مصنوعی.

اما هر چه آن ها را بنامیم، این سیستم ها حامل های وحشتناکی برای سوء استفاده و سوء استفاده دارند. من در مورد این خطر آشکار صحبت نمی کنم که مصرف کنندگان ناآگاه ممکن است به خروجی ربات های چت که بر روی داده های پر از خطا و سوگیری آموزش داده شده اند اعتماد کنند. نه، من در مورد چیزی بسیار شرورتر صحبت می کنم – دستکاری عمدی افراد از طریق استقرار هدفمند سیستم های هوش مصنوعی محاوره محور که کاربران را از طریق گفتگوهای تعاملی متقاعدکننده متقاعد می کند.

این روش‌های هوش مصنوعی جدید به جای شلیک گلوله به جمعیت‌های گسترده، بیشتر شبیه موشک‌های جستجوگر گرما هستند که کاربران را به‌عنوان اهداف فردی مشخص می‌کنند و تاکتیک‌های مکالمه‌شان را در زمان واقعی تطبیق می‌دهند و با هر فردی که برای به حداکثر رساندن تأثیر متقاعدکننده‌شان کار می‌کنند، شخصاً سازگار می‌شوند. .

هسته اصلی این تاکتیک‌ها، فناوری نسبتاً جدید LLM است که می‌تواند گفت‌وگوی تعاملی انسانی را در زمان واقعی ایجاد کند و در عین حال جریان مکالمه و زمینه را نیز پیگیری کند. همانطور که با راه اندازی ChatGPT در سال 2022 رایج شد، این سیستم های هوش مصنوعی بر روی چنین مجموعه داده های عظیمی آموزش دیده اند که نه تنها در تقلید زبان انسان مهارت دارند، بلکه دارای ذخایر گسترده ای از دانش واقعی هستند، می توانند استنتاج های منطقی چشمگیر داشته باشند و می توانند توهم را ارائه دهند. عقل سلیم انسانی

هنگامی که این فناوری‌ها با تولید صدای بلادرنگ ترکیب شوند، تعاملات گفتاری طبیعی بین انسان‌ها و ماشین‌ها را ممکن می‌سازد که بسیار متقاعدکننده، به ظاهر منطقی و به‌طور شگفت‌انگیزی معتبر هستند.

ظهور انسان های دیجیتال

البته، ما با صداهای بی‌جسم تعامل نخواهیم کرد، بلکه با شخصیت‌های تولیدشده توسط هوش مصنوعی که از نظر بصری واقع‌گرا هستند، تعامل خواهیم داشت. این من را به دومین فناوری در حال پیشرفت می رساند که به مشکل دستکاری هوش مصنوعی کمک می کند: انسان های دیجیتال. این شاخه ای از نرم افزارهای کامپیوتری است که با هدف به کارگیری افراد شبیه سازی شده فوتورئالیستی که به نظر، صدا، حرکت و بیان آنقدر معتبر هستند که می توانند به عنوان انسان واقعی عبور کنند، است.

این شبیه‌سازی‌ها می‌توانند به‌عنوان سخنگویان تعاملی که مصرف‌کنندگان را از طریق محاسبات دوبعدی سنتی از طریق کنفرانس ویدیویی و دیگر طرح‌بندی‌های مسطح هدف قرار می‌دهند، مستقر شوند. یا، آنها را می توان با استفاده از عینک واقعیت مختلط (MR) در جهان های غوطه ور سه بعدی مستقر کرد.

در حالی که چند سال پیش به نظر می‌رسید که تولید بی‌درنگ انسان‌های فوتورئالیست دور از دسترس باشد، پیشرفت‌های سریع در قدرت محاسباتی، موتورهای گرافیکی و تکنیک‌های مدل‌سازی هوش مصنوعی، انسان‌های دیجیتال را به یک فناوری کوتاه‌مدت قابل دوام تبدیل کرده است. در واقع، فروشندگان بزرگ نرم افزار در حال حاضر ابزارهایی را برای تبدیل این قابلیت به یک قابلیت گسترده ارائه می کنند.

به عنوان مثال، Unreal اخیرا ابزاری با کاربری آسان به نام Metahuman Creator را راه اندازی کرده است. این به طور خاص برای ایجاد امکان ایجاد انسان های دیجیتال متقاعد کننده طراحی شده است که می توانند در زمان واقعی برای تعامل تعاملی با مصرف کنندگان متحرک شوند. سایر فروشندگان در حال توسعه ابزارهای مشابه هستند.

خود را به عنوان انسان های اصیل جلوه می دهند

وقتی انسان‌های دیجیتال و LLM با هم ترکیب شوند، دنیایی را ایجاد می‌کنند که در آن ما به طور منظم با سخنگوهای مجازی (VSPs) که شبیه افراد معتبر به نظر می‌رسند، صدا می‌کنند و عمل می‌کنند، تعامل داریم.

در واقع، یک مطالعه در سال 2022 توسط محققان دانشگاه لنکستر و دانشگاه کالیفرنیا برکلی نشان داد که کاربران اکنون قادر به تشخیص چهره‌های واقعی انسان و چهره‌های تولید شده توسط هوش مصنوعی نیستند. حتی نگران‌کننده‌تر، آنها تشخیص دادند که کاربران چهره‌های تولید شده توسط هوش مصنوعی را «معتمدتر» از افراد واقعی می‌دانند.

این نشان دهنده دو روند بسیار خطرناک برای آینده نزدیک است. اول، ما می‌توانیم انتظار داشته باشیم که سیستم‌های مبتنی بر هوش مصنوعی را به‌عنوان انسان‌های اصیل درگیر کنیم، و به زودی توانایی تشخیص تفاوت را نداریم. دوم، ما به احتمال زیاد به سیستم های مبدل مبتنی بر هوش مصنوعی بیشتر از نمایندگان واقعی انسانی اعتماد خواهیم کرد.

مکالمات شخصی شده با هوش مصنوعی

این بسیار خطرناک است، زیرا ما به زودی خود را در گفتگوهای شخصی با سخنگویان مبتنی بر هوش مصنوعی خواهیم دید که (الف) از انسان های واقعی قابل تشخیص نیستند، (ب) اعتماد بیشتری نسبت به افراد واقعی ایجاد می کنند، و (ج) می توانند توسط شرکت ها یا ایالت ها مستقر شوند. بازیگران برای دنبال کردن یک دستور کار گفتگوی خاص، خواه متقاعد کردن مردم برای خرید یک محصول خاص یا باور یک اطلاعات نادرست خاص باشد.

و اگر به‌طور تهاجمی تنظیم نشود، این سیستم‌های مبتنی بر هوش مصنوعی نیز احساسات را در زمان واقعی با استفاده از فیدهای وب‌کم برای پردازش حالات چهره، حرکات چشم و گشاد شدن مردمک‌ها تجزیه و تحلیل می‌کنند – همه این‌ها می‌توانند برای استنتاج واکنش‌های احساسی در طول مکالمه استفاده شوند.

در عین حال، این سیستم‌های هوش مصنوعی انحرافات صوتی را پردازش می‌کنند و احساسات در حال تغییر را در طول مکالمه استنباط می‌کنند. این به این معنی است که یک سخنگوی مجازی که برای مشارکت دادن افراد در یک مکالمه مبتنی بر نفوذ مستقر شده است، می‌تواند تاکتیک‌های خود را بر اساس نحوه واکنش آنها به هر کلمه‌ای که به زبان می‌آورد، تطبیق دهد و تشخیص دهد که کدام استراتژی‌های تأثیرگذار کار می‌کنند و کدام‌ها نه. پتانسیل دستکاری غارتگرانه از طریق هوش مصنوعی محاوره ای بسیار زیاد است.

هوش مصنوعی محاوره ای: ادراکی و تهاجمی

در طول سال‌ها، من از مردم خواسته‌ام که نگرانی‌های من در مورد هوش مصنوعی محاوره‌ای را کنار بگذارند و به من می‌گویند که فروشندگان انسانی با خواندن احساسات و تنظیم تاکتیک‌ها همین کار را انجام می‌دهند – بنابراین این نباید یک تهدید جدید در نظر گرفته شود.

این به چند دلیل نادرست است. اول، این سیستم‌های هوش مصنوعی واکنش‌هایی را شناسایی می‌کنند که هیچ فروشنده انسانی قادر به درک آن نیست. به عنوان مثال، سیستم‌های هوش مصنوعی می‌توانند نه تنها حالات چهره، بلکه «عبارات ریز» را که برای مشاهده‌گر انسانی بسیار سریع یا بسیار ظریف هستند، اما نشان‌دهنده واکنش‌های احساسی هستند، از جمله واکنش‌هایی که کاربر از ابراز یا حتی احساس آن بی‌اطلاع است. .

به طور مشابه، سیستم‌های هوش مصنوعی می‌توانند تغییرات ظریف در چهره را که به عنوان «الگوهای جریان خون» شناخته می‌شوند، روی چهره‌ها بخوانند که نشان‌دهنده تغییرات احساسی است که هیچ انسانی قادر به تشخیص آن نیست. و در نهایت، سیستم‌های هوش مصنوعی می‌توانند تغییرات ظریف در اندازه مردمک و حرکات چشم را ردیابی کنند و نشانه‌هایی در مورد تعامل، هیجان و سایر احساسات داخلی خصوصی استخراج کنند. تعامل با هوش مصنوعی محاوره‌ای، تا زمانی که توسط مقررات محافظت نشود، بسیار ادراکی‌تر و تهاجمی‌تر از تعامل با هر نماینده انسانی خواهد بود.

مکالمات تطبیقی ​​و سفارشی

هوش مصنوعی محاوره‌ای نیز در ایجاد یک طرح کلامی سفارشی استراتژیک‌تر خواهد بود. به این دلیل که این سیستم‌ها احتمالاً توسط پلت‌فرم‌های آنلاین بزرگی که دارای پروفایل‌های داده‌ای گسترده در مورد علایق، دیدگاه‌ها، پیشینه و هر جزئیات دیگری هستند که در طول زمان جمع‌آوری شده‌اند، مستقر خواهند شد.

این بدان معناست که وقتی با یک سیستم هوش مصنوعی مکالمه‌ای که به نظر می‌رسد، صدا می‌دهد و مانند نماینده انسان عمل می‌کند، درگیر می‌شوند، مردم با پلتفرمی تعامل دارند که آنها را بهتر از هر انسانی می‌شناسد. علاوه بر این، پایگاه داده ای از نحوه واکنش آنها در طول تعاملات مکالمه قبلی جمع آوری می کند، و ردیابی می کند که چه تاکتیک های متقاعد کننده ای بر آنها موثر بوده و چه تاکتیک هایی موثر نیستند.

به عبارت دیگر، سیستم‌های هوش مصنوعی مکالمه‌ای نه تنها با واکنش‌های احساسی فوری، بلکه با ویژگی‌های رفتاری در طول روزها، هفته‌ها و سال‌ها سازگار می‌شوند. آنها می توانند یاد بگیرند که چگونه شما را به گفتگو بکشانند، شما را راهنمایی کنند تا ایده های جدید را بپذیرید، دکمه های خود را فشار دهید تا شما را عصبانی کنند و در نهایت شما را به سمت خرید محصولاتی که نیاز ندارید و خدماتی که نمی خواهید سوق دهند. آنها همچنین می توانند شما را تشویق کنند که اطلاعات نادرستی را که معمولاً می فهمید پوچ است، باور کنید. این به شدت خطرناک است.

دستکاری انسان، در مقیاس

در واقع، خطر تعاملی هوش مصنوعی محاوره ای می تواند بسیار بدتر از هر چیزی باشد که در دنیای تبلیغات، تبلیغات یا متقاعدسازی با استفاده از رسانه های سنتی یا اجتماعی با آن برخورد کرده ایم. به همین دلیل، من معتقدم که تنظیم کننده ها باید فوراً روی این موضوع تمرکز کنند، زیرا استقرار سیستم های خطرناک ممکن است به زودی اتفاق بیفتد.

این فقط در مورد انتشار محتوای خطرناک نیست – بلکه در مورد فعال کردن دستکاری شخصی انسانی در مقیاس است. ما به حمایت های قانونی نیاز داریم که از آزادی شناختی ما در برابر این تهدید دفاع کند.

از این گذشته، سیستم های هوش مصنوعی می توانند بهترین بازیکنان شطرنج و پوکر جهان را شکست دهند. یک فرد معمولی چه شانسی برای مقاومت در برابر دستکاری یک کمپین نفوذ مکالمه ای دارد که به تاریخچه شخصی آنها دسترسی دارد، احساسات خود را در زمان واقعی پردازش می کند و تاکتیک های خود را با دقت مبتنی بر هوش مصنوعی تنظیم می کند؟ اصلا شانسی نیست

لوئیس روزنبرگ بنیانگذار هوش مصنوعی Unanimous است و بیش از 300 حق ثبت اختراع برای فناوری های VR، AR و AI دریافت کرده است.

DataDecisionMakers

به انجمن VentureBeat خوش آمدید!

DataDecisionMakers جایی است که کارشناسان، از جمله افراد فنی که کار داده را انجام می دهند، می توانند بینش ها و نوآوری های مرتبط با داده را به اشتراک بگذارند.

اگر می‌خواهید درباره ایده‌های پیشرفته و اطلاعات به‌روز، بهترین شیوه‌ها و آینده فناوری داده و داده مطالعه کنید، به ما در DataDecisionMakers بپیوندید.

شما حتی ممکن است در نظر داشته باشید که مقاله ای از خودتان ارائه دهید!

از DataDecisionMakers بیشتر بخوانید