محقق برتر هوش مصنوعی ترس از “انقراض” هوش مصنوعی را رد می کند و روایت “دانشمند قهرمان” را به چالش می کشد


در تاریخ 11 تا 12 ژوئیه به مدیران ارشد در سانفرانسیسکو بپیوندید تا بشنوید که چگونه رهبران سرمایه‌گذاری‌های هوش مصنوعی را برای موفقیت ادغام و بهینه می‌کنند.. بیشتر بدانید


کیونگهیون چو، محقق برجسته هوش مصنوعی و دانشیار دانشگاه نیویورک، از گفتمان فعلی در مورد ریسک هوش مصنوعی ابراز ناامیدی کرده است. در حالی که افراد برجسته ای مانند جفری هینتون و یوشوا بنجیو اخیراً در مورد تهدیدات وجودی احتمالی ناشی از توسعه آینده هوش عمومی مصنوعی (AGI) هشدار داده اند و خواستار مقررات یا توقف تحقیقات شده اند، چو معتقد است که این روایت های “قطع کننده” توجه را از مسائل واقعی منحرف می کند. هم مثبت و هم منفی که توسط هوش مصنوعی امروزی مطرح شده است.

در مصاحبه اخیر با VentureBeat، چو – که به دلیل کار اساسی خود در زمینه ترجمه ماشین عصبی بسیار مورد توجه است، که به توسعه معماری Transformer که ChatGPT مبتنی بر آن است کمک کرد – از عدم ارائه پیشنهادهای ملموس در سنا اخیر ابراز ناامیدی کرد. جلسات استماع مربوط به تنظیم مضرات فعلی هوش مصنوعی و همچنین عدم بحث در مورد چگونگی افزایش استفاده مفید از هوش مصنوعی.

اگرچه او به محققانی مانند هینتون و ناظر سابقش بنجیو احترام می گذارد، اما چو همچنین نسبت به تجلیل از “دانشمندان قهرمان” یا انجیل در نظر گرفتن هشدارهای یک فرد هشدار داد و نگرانی های خود را در مورد جنبش نوع دوستی مؤثر که بودجه بسیاری از تلاش های AGI را تأمین می کند، ارائه کرد. (یادداشت سردبیر: این مصاحبه برای طولانی بودن و وضوح ویرایش شده است.)

VentureBeat: شما اخیراً از جلسات اخیر سنای هوش مصنوعی در توییتر ابراز ناامیدی کرده اید. آیا می توانید در مورد آن توضیح دهید و نظرات خود را در مورد “بیانیه خطر هوش مصنوعی” امضا شده توسط جفری هینتون، یوشوا بنجیو و دیگران به اشتراک بگذارید؟

رویداد

تبدیل 2023

در 11 تا 12 جولای در سانفرانسیسکو به ما بپیوندید، جایی که مدیران ارشد نحوه ادغام و بهینه سازی سرمایه گذاری های هوش مصنوعی برای موفقیت و اجتناب از دام های رایج را به اشتراک می گذارند.

اکنون ثبت نام کنید

کیونگهیون چو: اول از همه، من فکر می کنم که حروف خیلی زیاد است. به طور کلی، من هرگز هیچ یک از این طومارها را امضا نکرده ام. من همیشه تمایل دارم زمانی که نامم را روی چیزی امضا می کنم کمی مراقب باشم. نمی دانم چرا مردم اینقدر ساده اسمشان را امضا می کنند.

تا آنجا که جلسات سنا، متن کامل را خواندم و کمی غمگین شدم. بسیار واضح است که سلاح های هسته ای، تغییرات آب و هوایی، هوش مصنوعی سرکش بالقوه، البته می توانند خطرناک باشند. اما بسیاری از آسیب‌های دیگر وجود دارد که در واقع توسط هوش مصنوعی ایجاد می‌شود، و همچنین مزایای فوری که ما از هوش مصنوعی می‌بینیم، با این حال هیچ پیشنهاد یا بحثی در مورد اینکه چه کاری می‌توانیم در مورد مزایای فوری و همچنین مضرات فوری انجام دهیم وجود نداشت. از هوش مصنوعی

به عنوان مثال، من فکر می کنم لیندسی گراهام به استفاده نظامی از هوش مصنوعی اشاره کرد. این در واقع در حال حاضر اتفاق می افتد. اما سام آلتمن حتی نمی‌توانست حتی یک پیشنهاد درباره نحوه تنظیم استفاده نظامی فوری از هوش مصنوعی ارائه دهد. در عین حال، هوش مصنوعی پتانسیلی برای بهینه‌سازی مراقبت‌های بهداشتی دارد تا بتوانیم سیستم مراقبت‌های بهداشتی بهتر و عادلانه‌تری را پیاده‌سازی کنیم، اما هیچ‌کدام از آن‌ها واقعاً مورد بحث قرار نگرفت.

من از بسیاری از این بحث ها در مورد خطر وجودی ناامید هستم. اکنون حتی آن را به معنای واقعی کلمه “انقراض” می نامند. هوای اتاق را می مکد.

VB: به نظر شما چرا اینطور است؟ چرا بحث «خطر وجودی» هوای اتاق را به زیان مضرات و فواید فوری می مکد؟

کیونگهیون چو: به یک معنا، داستان فوق العاده ای است. اینکه این سیستم AGI که ​​ما ایجاد می‌کنیم، به همان خوبی که هستیم، یا بهتر از ما است. این دقیقاً همان شیفتگی است که بشر از همان ابتدا همیشه داشته است. اسب تروا [that appears harmless but is malicious] – این یک داستان مشابه است، درست است؟ این در مورد جنبه های اغراق آمیز است که با ما متفاوت هستند اما مانند ما باهوش هستند.

به نظر من، خوب است که عموم مردم مجذوب پیشرفت‌های علمی که در حال انجام آن هستیم، هیجان‌زده شده‌اند. نکته تاسف بار این است که دانشمندان و همچنین سیاست گذاران، افرادی که تصمیم می گیرند یا این پیشرفت ها را ایجاد می کنند، فقط به طور مثبت یا منفی از چنین پیشرفت هایی هیجان زده می شوند، نه انتقادی نسبت به آن. وظیفه ما به‌عنوان دانشمندان و همچنین سیاست‌گذاران این است که در مورد بسیاری از این پیشرفت‌های آشکار که ممکن است تأثیرات مثبت و منفی بر جامعه داشته باشند، انتقاد کنیم. اما در حال حاضر، AGI نوعی عصای جادویی است که آن‌ها فقط سعی می‌کنند آن‌ها را بچرخانند تا مردم را مسحور کنند تا مردم نتوانند نسبت به آنچه در حال وقوع است انتقاد کنند.

VB: اما در مورد پیشگامان یادگیری ماشین که بخشی از آن هستند، چطور؟ به عنوان مثال، جفری هینتون و یوشوا بنجیو، “بیانیه خطر هوش مصنوعی” را امضا کردند. بنژیو گفته است که احساس می کند “گم شده” و تا حدودی از کار زندگی خود پشیمان است. شما به آن چه می گویی؟

کیونگهیون چو: من برای یوشوا و جف و همچنین یان احترام زیادی قائلم [LeCun]، من همه آنها را به خوبی می شناسم و زیر نظر آنها تحصیل کردم، با آنها همکاری کردم. اما نحوه نگرش من این است: البته افراد – دانشمندان یا نه – می توانند ارزیابی خود را از اینکه چه نوع چیزهایی احتمال وقوع دارند، چه نوع چیزهایی کمتر اتفاق می افتد، چه نوع چیزهایی ویرانگرتر از دیگران هستند. . انتخاب توزیع در مورد آنچه قرار است در آینده اتفاق بیفتد، و انتخاب تابع سودمندی که به هر یک از آن رویدادها متصل است، اینها مانند علوم سخت نیستند. همیشه ذهنیت وجود دارد. این کاملاً خوب است.

اما چیزی که من به عنوان یک جنبه واقعا مشکل ساز می بینم [the repeated emphasis on] یوشوا و جف … به ویژه در رسانه های این روزها، این یک نمونه معمولی از نوعی قهرمانی در علم است. این دقیقاً برعکس چیزی است که در علم و به ویژه یادگیری ماشین اتفاق افتاده است.

هیچ دانشمندی وجود نداشته است که در آزمایشگاه آنها بماند و 20 سال بعد بیاید و بگوید “اینجا AGI است.” در طول دهه‌ها، هزاران، اگر نگوییم صدها هزار نفر در سراسر جهان، همیشه یک تلاش جمعی بوده است.

اما اکنون روایت دانشمند قهرمان بازگشته است. دلیلی وجود دارد که در این نامه ها، آنها همیشه جف و یوشوا را در راس قرار می دهند. من فکر می کنم این واقعاً مضر است به نحوی که هرگز به آن فکر نکرده بودم. هر زمان که مردم در مورد مسائل خود با این نوع روایت دانشمند قهرمان صحبت می کردند، اینگونه می گفتم: «اوه، این داستان سرگرم کننده ای است. چرا که نه؟”

اما با نگاهی به آنچه اکنون در حال رخ دادن است، فکر می کنم ما جنبه منفی دانشمند قهرمان را می بینیم. همه آنها فقط یک فرد هستند. آنها می توانند ایده های متفاوتی داشته باشند. البته من به آنها احترام می گذارم و فکر می کنم جامعه علمی همیشه این گونه کار می کند. ما همیشه نظرات مخالف داریم. اما اکنون این پرستش قهرمان، همراه با این نابودی AGI… نمی‌دانم، برای من بسیار زیاد است که آن را دنبال کنم.

VB: چیز دیگری که برای من عجیب به نظر می رسد این است که بسیاری از این طومارها، مانند بیانیه خطر هوش مصنوعی، در پشت صحنه توسط افراد موثر نوع دوستی تامین می شود. [the Statement on AI Risk was released by the Center for AI Safety, which says it gets over 90% of its funding from Open Philanthropy, which in turn is primarily funded by Cari Tuna and Dustin Moskovitz, prominent donors in the Effective Altruism movement]. چه حسی در مورد آن داری؟

کیونگهیون چو: من به طور کلی طرفدار نوع دوستی مؤثر (EA) نیستم. و من از این واقعیت بسیار آگاهم که جنبش EA حرکتی است که در واقع کل ماجرا را حول محور AGI و ریسک وجودی هدایت می کند. من فکر می کنم افراد زیادی در سیلیکون ولی با این نوع مجتمع ناجی وجود دارند. همه آنها می خواهند ما را از عذاب اجتناب ناپذیری که فقط آنها می بینند و فکر می کنند فقط آنها می توانند حل کنند نجات دهند.

در این راستا، من با آنچه سارا هوکر از Cohere for AI گفت موافقم [in your article]. این افراد پر سر و صدا هستند، اما آنها هنوز یک گروه حاشیه ای در کل جامعه هستند، نه اینکه به کل جامعه یادگیری ماشین اشاره کنیم.

VB: پس ضد روایت چیست؟ آیا شما نامه خود را می نویسید یا بیانیه خود را منتشر می کنید؟

کیونگهیون چو: چیزهایی هست که نمی توانید درباره آنها نامه بنویسید. مضحک خواهد بود که نامه ای بنویسید که “مطمقاً هیچ راهی وجود ندارد که یک هوش مصنوعی سرکش وجود داشته باشد که همه را به گیره کاغذ تبدیل کند.” مثل این است که ما چه کار می کنیم؟

من یک معلم حرفه ای هستم. من احساس می‌کنم چیزی که در حال حاضر از دست می‌رود، قرار گرفتن در معرض کارهای کوچکی است که انجام می‌شود تا هوش مصنوعی بتواند برای بشریت مفید باشد، پیروزی‌های کوچکی که به دست می‌آیند. ما باید عموم مردم را در معرض این جریان کوچک، اما مطمئن، موفقیت هایی قرار دهیم که در اینجا به دست می آید.

چون در حال حاضر متاسفانه داستان های پر شور بیشتر خوانده می شود. ایده این است که یا هوش مصنوعی همه ما را می کشد یا هوش مصنوعی همه چیز را درمان می کند – هر دوی این موارد نادرست هستند. و شاید حتی نقش رسانه ها هم نباشد [to address this]. در واقع، احتمالاً نقش آموزش هوش مصنوعی – فرض کنید K-12 – معرفی مفاهیم اساسی است که در واقع پیچیده نیستند.

VB: بنابراین اگر شما با همکاران محقق هوش مصنوعی خود صحبت می کردید، به چه چیزی در مورد خطرات هوش مصنوعی اعتقاد دارید؟ آیا همانطور که شما توضیح دادید بر روی ریسک های فعلی متمرکز می شود؟ آیا چیزی در مورد اینکه چگونه این قرار است تکامل یابد اضافه کنید؟

کیونگهیون چو: من واقعاً در مورد درک خودم از خطر هوش مصنوعی به مردم نمی گویم، زیرا می دانم که من فقط یک فرد هستم. اختیارات من به خوبی تنظیم نشده است. من می دانم که چون خودم یک محقق هستم، بنابراین در صحبت کردن در مورد چیزهایی که دارای عدم قطعیت بسیار نادرست هستند، بسیار محتاط هستم، به خصوص اگر در مورد نوعی پیش بینی باشد.

آنچه را که من به محققان هوش مصنوعی می گویم – نه آنهایی که ارشدتر هستند، آنها بهتر می دانند – اما به دانش آموزانم یا بیشتر محققان جوان تر، تمام تلاشم را می کنم تا به آنها نشان دهم روی چه چیزی کار می کنم، فکر می کنم باید روی چه چیزی کار کنیم تا به ما بدهیم. مزایای کوچک اما ملموس به همین دلیل است که من روی هوش مصنوعی برای مراقبت های بهداشتی و علم کار می کنم. به همین دلیل است که من 50 درصد از زمان خود را صرف آن می کنم [biotechnology company] Genentech، بخشی از تیم طراحی Prescient برای انجام طراحی محاسباتی آنتی بادی و دارو. فقط فکر می کنم این بهترین کاری است که می توانم انجام دهم. من قصد ندارم نامه بزرگی بنویسم. من در آن خیلی بد هستم.

ماموریت VentureBeat این است که یک میدان شهر دیجیتال برای تصمیم گیرندگان فنی باشد تا دانشی در مورد فناوری سازمانی متحول کننده کسب کنند و معامله کنند. جلسات توجیهی ما را کشف کنید.