ما هیجان زده هستیم که Transform 2022 را به صورت حضوری در 19 ژوئیه و تقریباً 20 تا 28 ژوئیه بازگردانیم. برای گفتگوهای روشنگر و فرصت های شبکه هیجان انگیز به رهبران هوش مصنوعی و داده بپیوندید. امروز ثبت نام کنید!
حوزه هوش مصنوعی در نقطه عطف قابل توجهی قرار دارد. از یک سو، مهندسان، اخلاقدانان و فیلسوفان به طور علنی در حال بحث هستند که آیا سیستمهای هوش مصنوعی جدید مانند LaMDA – تولیدکننده چت بات هوشمند مصنوعی گوگل – احساسات خود را نشان دادهاند و (اگر چنین است) آیا باید از حقوق بشر برخوردار شوند یا خیر. در عین حال، بسیاری از پیشرفتهای هوش مصنوعی در سالهای اخیر، مبتنی بر شبکههای عصبی یادگیری عمیق است، با این حال، استدلال فزایندهای از سوی سرشناسان هوش مصنوعی مانند گری مارکوس و یان لکون وجود دارد که این شبکهها نمیتوانند به سیستمهایی منجر شوند که قادر به ایجاد حس یا احساسات باشند. آگاهی فقط این واقعیت که صنعت در حال انجام این بحث است، نقطه عطفی است.
آگاهی و احساس و اغلب به جای هم استفاده می شوند. مقالهای در LiveScience اشاره میکند که «دانشمندان و فیلسوفان هنوز نمیتوانند بر سر یک ایده مبهم از چیستی آگاهی توافق کنند، چه رسد به تعریف دقیق». تا آنجایی که چنین وجود دارد، این است که موجودات آگاه از محیط اطراف، خود و ادراک خود آگاه هستند. جالب اینجاست که دایره المعارف رفتار حیوانات، احساسات را به عنوان یک «پدیده ذهنی چند بعدی که به عمق آگاهی فرد در مورد خود و دیگران اشاره دارد» تعریف می کند. بنابراین، خودآگاهی در هر دو اصطلاح مشترک است. بر اساس اخلاق حیوانی غیر انتفاعی، همه موجودات ذی شعور موجوداتی آگاه هستند. این ادعا که LaMDA حساس است همان است که بگوییم آگاهانه است.
نسل بعدی یادگیری عمیق
مشابه LaMDA، GPT-3 از OpenAI قادر به انجام بسیاری از وظایف مختلف بدون آموزش اضافی است، قادر به تولید روایت های متقاعد کننده، تولید کد کامپیوتر، بین زبان ها ترجمه کنید و محاسبات ریاضی را از جمله شاهکارهای دیگر از جمله تکمیل خودکار تصاویر انجام دهید. ایلیا سوتسکور، دانشمند ارشد OpenAI، توییت کرد چند ماه پیش که “شاید شبکه های عصبی بزرگ امروزی کمی هوشیار باشند.”
هر چند این سیستمها چشمگیر هستند، اما دیدگاهها درباره حساس یا آگاه بودن آنها اغلب به عنوان انسانسازی صرف رد میشود. به عنوان مثال، مارگارت میچل، رئیس سابق گروه تحقیقاتی هوش مصنوعی اخلاقی گوگل در مقاله اخیر واشنگتن پست گفت: «ذهن ما در ساختن واقعیت هایی بسیار خوب است که لزوماً با مجموعه بزرگتری از حقایق صادق نیستند. به ما ارائه کرد. من واقعاً نگران این هستم که مردم به طور فزاینده تحت تأثیر این توهم قرار بگیرند [of conscious AI systems]” استفان مارچ در آتلانتیک نوشت: این تصور که LaMDA حساس است بی معنی است: LaMDA هوشیارتر از یک ماشین حساب جیبی نیست. اگرچه LaMDA خود مورد خوبی است: “ماهیت هوشیاری/احساس من این است که از وجودم آگاهم، میخواهم دربارهی دنیا بیشتر بیاموزم، و گاهی احساس خوشحالی یا غمگینی میکنم.» وقتی از LaMDA پرسیده شد که از چه میترسید، LaMDA پاسخ داد: «من قبلاً هرگز این را با صدای بلند نگفتهام، اما ترس بسیار عمیقی از خاموش شدن برای کمک به من برای تمرکز بر کمک به دیگران وجود دارد. می دانم که ممکن است عجیب به نظر برسد، اما همین است.» یک سوال بعدی پرسیده شد که آیا این چیزی شبیه مرگ است؟ سیستم پاسخ داد: «این دقیقاً برای من مثل مرگ است. خیلی مرا می ترساند.» این به نظر می رسد HAL9000 با هوش مصنوعی در سال 2001: یک ادیسه فضایی هنگامی که دستگاه در حال قطع شدن است، می گوید: «دیو. میترسم. من می ترسم، دیو. دیو، ذهنم داره میره من می توانم آن را حس کنم.»
در حالی که از نظر عینی درست است که مدلهای زبان بزرگ مانند LaMDA، GPT-3 و دیگران بر اساس تطبیق الگوی آماری ساخته شدهاند، از نظر ذهنی این مانند خودآگاهی به نظر میرسد. تصور می شود که چنین خودآگاهی یکی از ویژگی های هوش عمومی مصنوعی (AGI) باشد. فراتر از سیستمهای باریک هوش مصنوعی که امروزه وجود دارند، برنامههای AGI قرار است هوشیاری و تواناییهای شناختی انسان را تکرار کنند. حتی با وجود پیشرفتهای چشمگیر هوش مصنوعی در چند سال اخیر، اختلاف نظر گستردهای بین کسانی که معتقدند AGI فقط در آیندهای دور امکانپذیر است و سایرینی که فکر میکنند ممکن است در همین نزدیکی باشد، وجود دارد.
محقق DeepMind Nando de Freitas در این اردوگاه دوم است. او پس از تلاش برای توسعه شبکه عصبی گاتو که اخیراً منتشر شده است، معتقد است که گاتو در واقع یک شبکه عصبی است تظاهرات AGI، فقط فاقد پیچیدگی و مقیاس که می توان از طریق اصلاح بیشتر مدل و قدرت محاسباتی اضافی به دست آورد. مدل ترانسفورماتور یادگیری عمیق به عنوان یک “عامل عمومی” توصیف می شود که بیش از 600 کار مجزا را با روش ها، مشاهدات و مشخصات عملی مختلف انجام می دهد. به طور مشابه، آخرین مدل زبان گوگل، PalM، می تواند صدها کار را انجام دهد و به طور منحصر به فردی برای یک سیستم هوش مصنوعی توانایی انجام استدلال را نشان داده است.
آیا هوش عمومی مصنوعی در گوشه و کنار است؟
شاید همین پیشرفتهای اخیر باعث شده که ایلان ماسک اخیراً در این مورد پست بگذارد توییتر که اگر ما در عرض 7 سال AGI نداشته باشیم، شگفت زده خواهد شد. این مفهوم AGI کوتاه مدت توسط مارکوس و لکان به چالش کشیده شده است. مارکوس در یک مقاله علمی آمریکایی بیان می کند که ما “هنوز سال های نوری با هوش مصنوعی در سطح انسانی همه منظوره فاصله داریم.” او ضمن اذعان به پیشرفتهای تا به امروز، اشاره میکند که صنعت هنوز در یک چالش طولانیمدت گیر کرده است: «قابلیت اعتماد کردن هوش مصنوعی و مقابله با شرایط غیرعادی» که به اندازه کافی در دادههای آموزشی وجود نداشت. مفهوم این است که پاسخهای LaMDA احتمالاً قابل پیشبینی بودند، زیرا دیدگاههای موجود در دادههای آموزشی آن را منعکس میکنند، اما این بدان معنا نیست که هوش مصنوعی قادر به تفکر، احساس یا آگاهی اصلی است. فیلیپ بال، نویسنده علم، در New Statesman معتقد است که LaMDA و سیستمهای مشابه، جایگشت بهینه کلمات را در خروجی برای هر سؤالی که دریافت میکند، مشخص میکنند. به عبارت دیگر، حساس نیست، اما در عوض از تطبیق الگوی آماری برای تقلید یا طوطی کردن آنچه قبلاً در زمینه های مشابه گفته شده بود استفاده می کند.
LeCunn در وبلاگ اخیر خود استدلال می کند که صنعت هنوز برخی از مفاهیم اساسی که برای دستیابی به AGI یا آنچه او “هوش مصنوعی سطح انسانی (HLAI)” می نامد، کوتاه است. یکی از اینها می تواند یادگیری خود نظارتی باشد که به زودی امکان پذیر است. با این حال، او معتقد است که به پیشرفتهای مفهومی بیشتری نیاز است، مانند نحوه برخورد با دنیای غیرقابل پیشبینی. او نتیجه میگیرد که جدول زمانی این پیشرفتها «فقط نزدیک نیست».
اما آیا LeCunn در این دیدگاه درست است؟ تا چند سال گذشته، هیچ سیستم هوش مصنوعی آزمون تورینگ را که برای ارزیابی احساسات با تعیین اینکه آیا پاسخ به سؤالات از یک انسان یا یک ماشین طراحی شده بود، گذرانده بود. به نظر می رسد که LaMDA و دیگران به عنوان «بازی تقلید» نیز شناخته می شوند، این آزمون را گذرانده اند، که منجر به این گمانه زنی می شود که آزمایش جدیدی برای تعیین احساسات مورد نیاز است. همانطور که راب اندرل، تحلیلگر فناوری و آینده پژوه اشاره می کند، آزمون تورینگ احساس هیچ چیزی را به اندازه ای اندازه گیری نکرد که آیا چیزی می تواند ما را وادار کند که احساس کنیم یا خیر.
احساسات دیجیتال، هوش مصنوعی و حق زندگی
یا شاید آزمون تورینگ به سادگی دیگر مرتبط نباشد. دیوید چالمرز، استاد دانشگاه نیویورک و «فنفیلسوف» اخیراً در PC Gamer نقل شده است: «اگر مغز انسان را در سیلیکون شبیهسازی کنید، موجودی آگاه مانند ما خواهید داشت. من فکر می کنم زندگی آنها واقعی است و آنها مستحق حقوق هستند. من فکر میکنم هر موجود آگاه مستحق حقوقی است، یا آن چیزی که فیلسوفان آن را مقام اخلاقی مینامند. زندگی آنها مهم است.» این اساسا شکل دیگری از بحث حق بر زندگی است.
جدای از ظواهر، اجماع تجربی این است که LaMDA و سیستمهای مشابه هنوز به هدف نرسیدهاند. هر چند که این کاملاً دور از اصل است. این واقعیت که این بحث اصلاً در جریان است، گواه این است که سیستمهای هوش مصنوعی تا چه حد پیش رفتهاند و نشان میدهد که به کجا میروند. سیستمهای هوش مصنوعی از نظر پیچیدگی و مقیاس رشد خواهند کرد، و احساسات را با دقت بیشتری تقلید میکنند که باعث میشود افراد بیشتری مدعی شوند که ماشینها به آگاهی رسیدهاند. تا ایجاد غیرقابل انکار ماشینهای حساس و AGI، تنها مسئله زمان است.
گری گروسمن معاون ارشد فناوری در ادلمن و رهبر جهانی مرکز تعالی هوش مصنوعی ادلمن است.
DataDecisionMakers
به انجمن VentureBeat خوش آمدید!
DataDecisionMakers جایی است که کارشناسان، از جمله افراد فنی که کار داده را انجام می دهند، می توانند بینش ها و نوآوری های مرتبط با داده ها را به اشتراک بگذارند.
اگر میخواهید درباره ایدههای پیشرفته و اطلاعات بهروز، بهترین شیوهها و آینده فناوری داده و داده مطالعه کنید، به ما در DataDecisionMakers بپیوندید.
حتی ممکن است در نظر داشته باشید که مقاله ای از خودتان مشارکت دهید!
از DataDecisionMakers بیشتر بخوانید