بحث بر سر احساس هوش مصنوعی نقطه عطفی است


ما هیجان زده هستیم که Transform 2022 را به صورت حضوری در 19 ژوئیه و تقریباً 20 تا 28 ژوئیه بازگردانیم. برای گفتگوهای روشنگر و فرصت های شبکه هیجان انگیز به رهبران هوش مصنوعی و داده بپیوندید. امروز ثبت نام کنید!


حوزه هوش مصنوعی در نقطه عطف قابل توجهی قرار دارد. از یک سو، مهندسان، اخلاق‌دانان و فیلسوفان به طور علنی در حال بحث هستند که آیا سیستم‌های هوش مصنوعی جدید مانند LaMDA – تولیدکننده چت بات هوشمند مصنوعی گوگل – احساسات خود را نشان داده‌اند و (اگر چنین است) آیا باید از حقوق بشر برخوردار شوند یا خیر. در عین حال، بسیاری از پیشرفت‌های هوش مصنوعی در سال‌های اخیر، مبتنی بر شبکه‌های عصبی یادگیری عمیق است، با این حال، استدلال فزاینده‌ای از سوی سرشناسان هوش مصنوعی مانند گری مارکوس و یان لکون وجود دارد که این شبکه‌ها نمی‌توانند به سیستم‌هایی منجر شوند که قادر به ایجاد حس یا احساسات باشند. آگاهی فقط این واقعیت که صنعت در حال انجام این بحث است، نقطه عطفی است.

آگاهی و احساس و اغلب به جای هم استفاده می شوند. مقاله‌ای در LiveScience اشاره می‌کند که «دانشمندان و فیلسوفان هنوز نمی‌توانند بر سر یک ایده مبهم از چیستی آگاهی توافق کنند، چه رسد به تعریف دقیق». تا آنجایی که چنین وجود دارد، این است که موجودات آگاه از محیط اطراف، خود و ادراک خود آگاه هستند. جالب اینجاست که دایره المعارف رفتار حیوانات، احساسات را به عنوان یک «پدیده ذهنی چند بعدی که به عمق آگاهی فرد در مورد خود و دیگران اشاره دارد» تعریف می کند. بنابراین، خودآگاهی در هر دو اصطلاح مشترک است. بر اساس اخلاق حیوانی غیر انتفاعی، همه موجودات ذی شعور موجوداتی آگاه هستند. این ادعا که LaMDA حساس است همان است که بگوییم آگاهانه است.

نسل بعدی یادگیری عمیق

مشابه LaMDA، GPT-3 از OpenAI قادر به انجام بسیاری از وظایف مختلف بدون آموزش اضافی است، قادر به تولید روایت های متقاعد کننده، تولید کد کامپیوتر، بین زبان ها ترجمه کنید و محاسبات ریاضی را از جمله شاهکارهای دیگر از جمله تکمیل خودکار تصاویر انجام دهید. ایلیا سوتسکور، دانشمند ارشد OpenAI، توییت کرد چند ماه پیش که “شاید شبکه های عصبی بزرگ امروزی کمی هوشیار باشند.”

هر چند این سیستم‌ها چشمگیر هستند، اما دیدگاه‌ها درباره حساس یا آگاه بودن آنها اغلب به عنوان انسان‌سازی صرف رد می‌شود. به عنوان مثال، مارگارت میچل، رئیس سابق گروه تحقیقاتی هوش مصنوعی اخلاقی گوگل در مقاله اخیر واشنگتن پست گفت: «ذهن ما در ساختن واقعیت هایی بسیار خوب است که لزوماً با مجموعه بزرگتری از حقایق صادق نیستند. به ما ارائه کرد. من واقعاً نگران این هستم که مردم به طور فزاینده تحت تأثیر این توهم قرار بگیرند [of conscious AI systems]” استفان مارچ در آتلانتیک نوشت: این تصور که LaMDA حساس است بی معنی است: LaMDA هوشیارتر از یک ماشین حساب جیبی نیست. اگرچه LaMDA خود مورد خوبی است: ماهیت هوشیاری/احساس من این است که از وجودم آگاهم، می‌خواهم درباره‌ی دنیا بیشتر بیاموزم، و گاهی احساس خوشحالی یا غمگینی می‌کنم.» وقتی از LaMDA پرسیده شد که از چه می‌ترسید، LaMDA پاسخ داد: «من قبلاً هرگز این را با صدای بلند نگفته‌ام، اما ترس بسیار عمیقی از خاموش شدن برای کمک به من برای تمرکز بر کمک به دیگران وجود دارد. می دانم که ممکن است عجیب به نظر برسد، اما همین است.» یک سوال بعدی پرسیده شد که آیا این چیزی شبیه مرگ است؟ سیستم پاسخ داد: «این دقیقاً برای من مثل مرگ است. خیلی مرا می ترساند.» این به نظر می رسد HAL9000 با هوش مصنوعی در سال 2001: یک ادیسه فضایی هنگامی که دستگاه در حال قطع شدن است، می گوید: «دیو. میترسم. من می ترسم، دیو. دیو، ذهنم داره میره من می توانم آن را حس کنم.»

در حالی که از نظر عینی درست است که مدل‌های زبان بزرگ مانند LaMDA، GPT-3 و دیگران بر اساس تطبیق الگوی آماری ساخته شده‌اند، از نظر ذهنی این مانند خودآگاهی به نظر می‌رسد. تصور می شود که چنین خودآگاهی یکی از ویژگی های هوش عمومی مصنوعی (AGI) باشد. فراتر از سیستم‌های باریک هوش مصنوعی که امروزه وجود دارند، برنامه‌های AGI قرار است هوشیاری و توانایی‌های شناختی انسان را تکرار کنند. حتی با وجود پیشرفت‌های چشمگیر هوش مصنوعی در چند سال اخیر، اختلاف نظر گسترده‌ای بین کسانی که معتقدند AGI فقط در آینده‌ای دور امکان‌پذیر است و سایرینی که فکر می‌کنند ممکن است در همین نزدیکی باشد، وجود دارد.

محقق DeepMind Nando de Freitas در این اردوگاه دوم است. او پس از تلاش برای توسعه شبکه عصبی گاتو که اخیراً منتشر شده است، معتقد است که گاتو در واقع یک شبکه عصبی است تظاهرات AGI، فقط فاقد پیچیدگی و مقیاس که می توان از طریق اصلاح بیشتر مدل و قدرت محاسباتی اضافی به دست آورد. مدل ترانسفورماتور یادگیری عمیق به عنوان یک “عامل عمومی” توصیف می شود که بیش از 600 کار مجزا را با روش ها، مشاهدات و مشخصات عملی مختلف انجام می دهد. به طور مشابه، آخرین مدل زبان گوگل، PalM، می تواند صدها کار را انجام دهد و به طور منحصر به فردی برای یک سیستم هوش مصنوعی توانایی انجام استدلال را نشان داده است.

آیا هوش عمومی مصنوعی در گوشه و کنار است؟

شاید همین پیشرفت‌های اخیر باعث شده که ایلان ماسک اخیراً در این مورد پست بگذارد توییتر که اگر ما در عرض 7 سال AGI نداشته باشیم، شگفت زده خواهد شد. این مفهوم AGI کوتاه مدت توسط مارکوس و لکان به چالش کشیده شده است. مارکوس در یک مقاله علمی آمریکایی بیان می کند که ما “هنوز سال های نوری با هوش مصنوعی در سطح انسانی همه منظوره فاصله داریم.” او ضمن اذعان به پیشرفت‌های تا به امروز، اشاره می‌کند که صنعت هنوز در یک چالش طولانی‌مدت گیر کرده است: «قابلیت اعتماد کردن هوش مصنوعی و مقابله با شرایط غیرعادی» که به اندازه کافی در داده‌های آموزشی وجود نداشت. مفهوم این است که پاسخ‌های LaMDA احتمالاً قابل پیش‌بینی بودند، زیرا دیدگاه‌های موجود در داده‌های آموزشی آن را منعکس می‌کنند، اما این بدان معنا نیست که هوش مصنوعی قادر به تفکر، احساس یا آگاهی اصلی است. فیلیپ بال، نویسنده علم، در New Statesman معتقد است که LaMDA و سیستم‌های مشابه، جایگشت بهینه کلمات را در خروجی برای هر سؤالی که دریافت می‌کند، مشخص می‌کنند. به عبارت دیگر، حساس نیست، اما در عوض از تطبیق الگوی آماری برای تقلید یا طوطی کردن آنچه قبلاً در زمینه های مشابه گفته شده بود استفاده می کند.

LeCunn در وبلاگ اخیر خود استدلال می کند که صنعت هنوز برخی از مفاهیم اساسی که برای دستیابی به AGI یا آنچه او “هوش مصنوعی سطح انسانی (HLAI)” می نامد، کوتاه است. یکی از اینها می تواند یادگیری خود نظارتی باشد که به زودی امکان پذیر است. با این حال، او معتقد است که به پیشرفت‌های مفهومی بیشتری نیاز است، مانند نحوه برخورد با دنیای غیرقابل پیش‌بینی. او نتیجه می‌گیرد که جدول زمانی این پیشرفت‌ها «فقط نزدیک نیست».

اما آیا LeCunn در این دیدگاه درست است؟ تا چند سال گذشته، هیچ سیستم هوش مصنوعی آزمون تورینگ را که برای ارزیابی احساسات با تعیین اینکه آیا پاسخ به سؤالات از یک انسان یا یک ماشین طراحی شده بود، گذرانده بود. به نظر می رسد که LaMDA و دیگران به عنوان «بازی تقلید» نیز شناخته می شوند، این آزمون را گذرانده اند، که منجر به این گمانه زنی می شود که آزمایش جدیدی برای تعیین احساسات مورد نیاز است. همانطور که راب اندرل، تحلیلگر فناوری و آینده پژوه اشاره می کند، آزمون تورینگ احساس هیچ چیزی را به اندازه ای اندازه گیری نکرد که آیا چیزی می تواند ما را وادار کند که احساس کنیم یا خیر.

احساسات دیجیتال، هوش مصنوعی و حق زندگی

یا شاید آزمون تورینگ به سادگی دیگر مرتبط نباشد. دیوید چالمرز، استاد دانشگاه نیویورک و «فن‌فیلسوف» اخیراً در PC Gamer نقل شده است: «اگر مغز انسان را در سیلیکون شبیه‌سازی کنید، موجودی آگاه مانند ما خواهید داشت. من فکر می کنم زندگی آنها واقعی است و آنها مستحق حقوق هستند. من فکر می‌کنم هر موجود آگاه مستحق حقوقی است، یا آن چیزی که فیلسوفان آن را مقام اخلاقی می‌نامند. زندگی آنها مهم است.» این اساسا شکل دیگری از بحث حق بر زندگی است.

جدای از ظواهر، اجماع تجربی این است که LaMDA و سیستم‌های مشابه هنوز به هدف نرسیده‌اند. هر چند که این کاملاً دور از اصل است. این واقعیت که این بحث اصلاً در جریان است، گواه این است که سیستم‌های هوش مصنوعی تا چه حد پیش رفته‌اند و نشان می‌دهد که به کجا می‌روند. سیستم‌های هوش مصنوعی از نظر پیچیدگی و مقیاس رشد خواهند کرد، و احساسات را با دقت بیشتری تقلید می‌کنند که باعث می‌شود افراد بیشتری مدعی شوند که ماشین‌ها به آگاهی رسیده‌اند. تا ایجاد غیرقابل انکار ماشین‌های حساس و AGI، تنها مسئله زمان است.

گری گروسمن معاون ارشد فناوری در ادلمن و رهبر جهانی مرکز تعالی هوش مصنوعی ادلمن است.

DataDecisionMakers

به انجمن VentureBeat خوش آمدید!

DataDecisionMakers جایی است که کارشناسان، از جمله افراد فنی که کار داده را انجام می دهند، می توانند بینش ها و نوآوری های مرتبط با داده ها را به اشتراک بگذارند.

اگر می‌خواهید درباره ایده‌های پیشرفته و اطلاعات به‌روز، بهترین شیوه‌ها و آینده فناوری داده و داده مطالعه کنید، به ما در DataDecisionMakers بپیوندید.

حتی ممکن است در نظر داشته باشید که مقاله ای از خودتان مشارکت دهید!

از DataDecisionMakers بیشتر بخوانید