ما هیجان زده هستیم که Transform 2022 را به صورت حضوری در 19 ژوئیه و تقریباً 20 تا 28 ژوئیه بازگردانیم. برای گفتگوهای روشنگر و فرصت های شبکه هیجان انگیز به رهبران هوش مصنوعی و داده بپیوندید. امروز ثبت نام کنید!
هفتگی هوش مصنوعی را هر پنجشنبه به صورت رایگان در صندوق ورودی خود می خواهید؟ اینجا ثبت نام کنید.
ممکن است از چند روز اول تابستان لذت ببریم، اما اخبار هوش مصنوعی هرگز برای نشستن در ساحل، راه رفتن زیر آفتاب یا روشن کردن BBQ استراحت نمیکند.
در واقع، ادامه دادن آن می تواند سخت باشد. به عنوان مثال، در چند روز گذشته، همه اینها اتفاق افتاد:
- اعلامیههای re:MARS آمازون به نگرانیهای احتمالی اخلاقی و امنیتی (و عجیب و غریب بودن کلی) در مورد توانایی جدید الکسا برای تکرار صدای افراد مرده منجر شد.
- بیش از 300 محقق با امضای نامه ای سرگشاده استقرار GPT-4chan را محکوم کردند.
- گوگل یک مدل متن به تصویر دیگر به نام Parti را منتشر کرد.
- من پرواز خود را به سانفرانسیسکو رزرو کردم تا در نشست حضوری VentureBeat در Transform در 19 ژوئیه شرکت کنم. (بسیار خوب، این واقعاً خبری نیست، اما من مشتاقانه منتظر هستم تا جامعه هوش مصنوعی و داده را در نهایت IRL ببینم. شما را آنجا می بینم. ؟)
اما این هفته، من بر روی انتشار نسخه جدیدی از استاندارد هوش مصنوعی مسئولیت پذیر مایکروسافت متمرکز شده ام – و همچنین اعلامیه این هفته مبنی بر اینکه قصد دارد فروش ابزارهای تحلیل چهره در Azure را متوقف کند.
بیایید حفاری کنیم.
– شارون گلدمن، سردبیر و نویسنده ارشد
ضربان هوش مصنوعی این هفته
هوش مصنوعی مسئولیت پذیر در قلب بسیاری از اعلامیه های بیلد مایکروسافت در سال جاری قرار داشت. و شکی نیست که مایکروسافت حداقل از سال 2018 با مسائل مربوط به هوش مصنوعی مسئول برخورد کرده است و قوانینی را برای تنظیم فناوری تشخیص چهره تحت فشار قرار داده است.
کارشناسان هوش مصنوعی می گویند که انتشار نسخه 2 استاندارد هوش مصنوعی مسئولیت پذیر مایکروسافت در این هفته گام بعدی خوبی است، اگرچه کارهای بیشتری باید انجام شود. و در حالی که به سختی در استاندارد ذکر شده بود، اعلامیه گسترده مایکروسافت مبنی بر اینکه دسترسی عمومی به ابزارهای تشخیص چهره در Azure را بازنشسته می کند – به دلیل نگرانی در مورد سوگیری، تهاجم و قابلیت اطمینان – به عنوان بخشی از بازنگری گسترده تر سیاست های اخلاقی هوش مصنوعی مایکروسافت در نظر گرفته شد. .
“گام بزرگ رو به جلو” مایکروسافت در هوش مصنوعی مسئول خاص استانداردها
به گفته بن اشنایدرمن، دانشمند کامپیوتر، نویسنده هوش مصنوعی انسان محور، استاندارد جدید هوش مصنوعی مسئولیت پذیر مایکروسافت یک گام بزرگ به جلو از 18 دستورالعمل مایکروسافت برای تعامل انسان و هوش مصنوعی است.
او گفت: «استانداردهای جدید بسیار خاصتر هستند و از نگرانیهای اخلاقی به شیوههای مدیریتی، جریانهای کاری مهندسی نرمافزار و الزامات مستندسازی تغییر میکنند.
آبیشک گوپتا، رهبر ارشد هوش مصنوعی در گروه مشاوره بوستون و محقق اصلی در موسسه اخلاق هوش مصنوعی مونترال، موافق است و استاندارد جدید را «نفس هوای تازه بسیار ضروری» مینامد، زیرا این استاندارد یک گام فراتر از اصول سطح بالا است. تا اینجا عادی بوده است.» او گفت.
او توضیح داد که نگاشت اصول بیان شده قبلی برای اهداف فرعی خاص و کاربرد آنها در انواع سیستمهای هوش مصنوعی و مراحل چرخه حیات هوش مصنوعی، آن را به یک سند قابل اجرا تبدیل میکند، در حالی که به این معنی است که پزشکان و اپراتورها «میتوانند از درجه ابهام بسیار زیادی عبور کنند. زمانی که سعی میکنند اصول را عملی کنند، تجربه میکنند.»
سوگیری حل نشده و خطرات حفظ حریم خصوصی
گوپتا افزود، با توجه به سوگیری حلنشده و خطرات حفظ حریم خصوصی در فناوری تشخیص چهره، تصمیم مایکروسافت برای توقف فروش ابزار Azure خود «بسیار مسئولانه» است. “این اولین پله در اعتقاد من است که به جای طرز فکر “سریع حرکت کن و چیزها را بشکن”، باید طرز فکر “مسئولانه سریع تکامل و اصلاح کنیم” را اتخاذ کنیم.
اما آنت زیمرمن، معاون تحلیلگر گارتنر، میگوید که معتقد است مایکروسافت تشخیص جمعیتشناسی و احساسات چهره را کنار میگذارد، زیرا ممکن است شرکت کنترلی بر نحوه استفاده از آن نداشته باشد.
او ادامه میدهد: «این موضوع بحثبرانگیز ادامهدار تشخیص جمعیتشناختی، مانند جنسیت و سن، احتمالاً جفت کردن آن با احساسات و استفاده از آن برای تصمیمگیری است که بر روی فرد مورد ارزیابی تأثیر میگذارد، مانند تصمیم استخدام یا فروش وام». توضیح داد. از آنجایی که مسئله اصلی این است که این تصمیمات ممکن است جانبدارانه باشد، مایکروسافت در حال حذف این فناوری است شامل تشخیص احساسات.»
او اضافه کرد که محصولاتی مانند مایکروسافت که SDK یا APIهایی هستند که میتوانند در برنامهای که مایکروسافت هیچ کنترلی روی آنها ندارد ادغام شود، متفاوت از راهحلهای انتها به انتها و محصولات اختصاصی است که در آن شفافیت کامل وجود دارد.
او گفت: «محصولاتی که احساسات را برای اهداف تحقیقات بازار، داستان سرایی یا تجربه مشتری تشخیص میدهند – همه مواردی که تصمیمی جز بهبود خدمات نمیگیرید – همچنان در این بازار فناوری رشد خواهند کرد.
آنچه در استاندارد هوش مصنوعی مسئول مایکروسافت وجود ندارد
کارشناسان می گویند که هنوز کارهای بیشتری باید توسط مایکروسافت انجام شود که نوبت به هوش مصنوعی مسئول می رسد.
اشنایدرمن گفت، آنچه گم شده است، الزامات مواردی مانند مسیرهای حسابرسی یا ثبت گزارش است. نظارت مستقل؛ وب سایت های گزارش حوادث عمومی؛ در دسترس بودن اسناد و گزارش ها برای ذینفعان، از جمله روزنامه نگاران، گروه های منافع عمومی، متخصصان صنعت؛ گزارش باز مشکلات پیش آمده؛ و شفافیت در مورد فرآیند مایکروسافت برای بررسی داخلی پروژه ها.
گوپتا گفت، یکی از عواملی که سزاوار توجه بیشتر است، در نظر گرفتن اثرات زیست محیطی سیستم های هوش مصنوعی است، “به خصوص با توجه به کاری که مایکروسافت در مورد مدل های بزرگ انجام می دهد.” او گفت: “توصیه من این است که به عنوان یک شهروند درجه یک در کنار ملاحظات تجاری و عملکردی در طراحی، توسعه و استقرار سیستم های هوش مصنوعی، به ملاحظات زیست محیطی فکر کنید.”
آینده هوش مصنوعی مسئول
گوپتا پیشبینی کرد که اعلامیههای مایکروسافت باید اقدامات مشابهی را از سایر شرکتها در 12 ماه آینده آغاز کند.
همچنین ممکن است شاهد انتشار ابزارها و قابلیتهای بیشتری در پلتفرم Azure باشیم که باعث میشود برخی از استانداردهای ذکر شده در استاندارد هوش مصنوعی پاسخگوی آنها به طور گستردهتری برای مشتریان پلتفرم Azure در دسترس قرار گیرد، بنابراین قابلیتهای RAI نسبت به افرادی که لزوماً این کار را نمیکنند دموکراتیک میکند. منابع لازم برای انجام این کار را دارند.»
اشنایدرمن با اشاره به AI Fairness 360 IBM و رویکردهای مرتبط و همچنین راهنمای Google’s People and AI Research (PAIR) گفت که امیدوار است سایر شرکتها بازی خود را در این مسیر ارتقا دهند.
او گفت: «خبر خوب این است که شرکتهای بزرگ و شرکتهای کوچکتر از اصول اخلاقی مبهم به رویههای تجاری خاص با نیاز به برخی از اشکال اسناد، گزارش مشکلات و به اشتراک گذاشتن اطلاعات با سهامداران/مشتریان خاص، در حال حرکت هستند.» برای باز کردن این سیستمها برای بازبینی عمومی: «من فکر میکنم به رسمیت شناختن رو به رشدی وجود دارد که سیستمهای هوش مصنوعی شکست خورده توجه عمومی منفی قابل توجهی را ایجاد میکنند و سیستمهای هوش مصنوعی قابل اعتماد، ایمن و قابل اعتماد را به یک مزیت رقابتی تبدیل میکنند.»