هفتگی هوش مصنوعی: حرکات جدید مایکروسافت در هوش مصنوعی مسئول


ما هیجان زده هستیم که Transform 2022 را به صورت حضوری در 19 ژوئیه و تقریباً 20 تا 28 ژوئیه بازگردانیم. برای گفتگوهای روشنگر و فرصت های شبکه هیجان انگیز به رهبران هوش مصنوعی و داده بپیوندید. امروز ثبت نام کنید!


هفتگی هوش مصنوعی را هر پنجشنبه به صورت رایگان در صندوق ورودی خود می خواهید؟ اینجا ثبت نام کنید.


ممکن است از چند روز اول تابستان لذت ببریم، اما اخبار هوش مصنوعی هرگز برای نشستن در ساحل، راه رفتن زیر آفتاب یا روشن کردن BBQ استراحت نمی‌کند.

در واقع، ادامه دادن آن می تواند سخت باشد. به عنوان مثال، در چند روز گذشته، همه اینها اتفاق افتاد:

  • اعلامیه‌های re:MARS آمازون به نگرانی‌های احتمالی اخلاقی و امنیتی (و عجیب و غریب بودن کلی) در مورد توانایی جدید الکسا برای تکرار صدای افراد مرده منجر شد.
  • بیش از 300 محقق با امضای نامه ای سرگشاده استقرار GPT-4chan را محکوم کردند.
  • گوگل یک مدل متن به تصویر دیگر به نام Parti را منتشر کرد.
  • من پرواز خود را به سانفرانسیسکو رزرو کردم تا در نشست حضوری VentureBeat در Transform در 19 ژوئیه شرکت کنم. (بسیار خوب، این واقعاً خبری نیست، اما من مشتاقانه منتظر هستم تا جامعه هوش مصنوعی و داده را در نهایت IRL ببینم. شما را آنجا می بینم. ؟)

اما این هفته، من بر روی انتشار نسخه جدیدی از استاندارد هوش مصنوعی مسئولیت پذیر مایکروسافت متمرکز شده ام – و همچنین اعلامیه این هفته مبنی بر اینکه قصد دارد فروش ابزارهای تحلیل چهره در Azure را متوقف کند.

بیایید حفاری کنیم.

شارون گلدمن، سردبیر و نویسنده ارشد

ضربان هوش مصنوعی این هفته

هوش مصنوعی مسئولیت پذیر در قلب بسیاری از اعلامیه های بیلد مایکروسافت در سال جاری قرار داشت. و شکی نیست که مایکروسافت حداقل از سال 2018 با مسائل مربوط به هوش مصنوعی مسئول برخورد کرده است و قوانینی را برای تنظیم فناوری تشخیص چهره تحت فشار قرار داده است.

کارشناسان هوش مصنوعی می گویند که انتشار نسخه 2 استاندارد هوش مصنوعی مسئولیت پذیر مایکروسافت در این هفته گام بعدی خوبی است، اگرچه کارهای بیشتری باید انجام شود. و در حالی که به سختی در استاندارد ذکر شده بود، اعلامیه گسترده مایکروسافت مبنی بر اینکه دسترسی عمومی به ابزارهای تشخیص چهره در Azure را بازنشسته می کند – به دلیل نگرانی در مورد سوگیری، تهاجم و قابلیت اطمینان – به عنوان بخشی از بازنگری گسترده تر سیاست های اخلاقی هوش مصنوعی مایکروسافت در نظر گرفته شد. .

“گام بزرگ رو به جلو” مایکروسافت در هوش مصنوعی مسئول خاص استانداردها

به گفته بن اشنایدرمن، دانشمند کامپیوتر، نویسنده هوش مصنوعی انسان محور، استاندارد جدید هوش مصنوعی مسئولیت پذیر مایکروسافت یک گام بزرگ به جلو از 18 دستورالعمل مایکروسافت برای تعامل انسان و هوش مصنوعی است.

او گفت: «استانداردهای جدید بسیار خاص‌تر هستند و از نگرانی‌های اخلاقی به شیوه‌های مدیریتی، جریان‌های کاری مهندسی نرم‌افزار و الزامات مستندسازی تغییر می‌کنند.

آبیشک گوپتا، رهبر ارشد هوش مصنوعی در گروه مشاوره بوستون و محقق اصلی در موسسه اخلاق هوش مصنوعی مونترال، موافق است و استاندارد جدید را «نفس هوای تازه بسیار ضروری» می‌نامد، زیرا این استاندارد یک گام فراتر از اصول سطح بالا است. تا اینجا عادی بوده است.» او گفت.

او توضیح داد که نگاشت اصول بیان شده قبلی برای اهداف فرعی خاص و کاربرد آنها در انواع سیستم‌های هوش مصنوعی و مراحل چرخه حیات هوش مصنوعی، آن را به یک سند قابل اجرا تبدیل می‌کند، در حالی که به این معنی است که پزشکان و اپراتورها «می‌توانند از درجه ابهام بسیار زیادی عبور کنند. زمانی که سعی می‌کنند اصول را عملی کنند، تجربه می‌کنند.»

سوگیری حل نشده و خطرات حفظ حریم خصوصی

گوپتا افزود، با توجه به سوگیری حل‌نشده و خطرات حفظ حریم خصوصی در فناوری تشخیص چهره، تصمیم مایکروسافت برای توقف فروش ابزار Azure خود «بسیار مسئولانه» است. “این اولین پله در اعتقاد من است که به جای طرز فکر “سریع حرکت کن و چیزها را بشکن”، باید طرز فکر “مسئولانه سریع تکامل و اصلاح کنیم” را اتخاذ کنیم.

اما آنت زیمرمن، معاون تحلیلگر گارتنر، می‌گوید که معتقد است مایکروسافت تشخیص جمعیت‌شناسی و احساسات چهره را کنار می‌گذارد، زیرا ممکن است شرکت کنترلی بر نحوه استفاده از آن نداشته باشد.

او ادامه می‌دهد: «این موضوع بحث‌برانگیز ادامه‌دار تشخیص جمعیت‌شناختی، مانند جنسیت و سن، احتمالاً جفت کردن آن با احساسات و استفاده از آن برای تصمیم‌گیری است که بر روی فرد مورد ارزیابی تأثیر می‌گذارد، مانند تصمیم استخدام یا فروش وام». توضیح داد. از آنجایی که مسئله اصلی این است که این تصمیمات ممکن است جانبدارانه باشد، مایکروسافت در حال حذف این فناوری است شامل تشخیص احساسات.»

او اضافه کرد که محصولاتی مانند مایکروسافت که SDK یا APIهایی هستند که می‌توانند در برنامه‌ای که مایکروسافت هیچ کنترلی روی آن‌ها ندارد ادغام شود، متفاوت از راه‌حل‌های انتها به انتها و محصولات اختصاصی است که در آن شفافیت کامل وجود دارد.

او گفت: «محصولاتی که احساسات را برای اهداف تحقیقات بازار، داستان سرایی یا تجربه مشتری تشخیص می‌دهند – همه مواردی که تصمیمی جز بهبود خدمات نمی‌گیرید – همچنان در این بازار فناوری رشد خواهند کرد.

آنچه در استاندارد هوش مصنوعی مسئول مایکروسافت وجود ندارد

کارشناسان می گویند که هنوز کارهای بیشتری باید توسط مایکروسافت انجام شود که نوبت به هوش مصنوعی مسئول می رسد.

اشنایدرمن گفت، آنچه گم شده است، الزامات مواردی مانند مسیرهای حسابرسی یا ثبت گزارش است. نظارت مستقل؛ وب سایت های گزارش حوادث عمومی؛ در دسترس بودن اسناد و گزارش ها برای ذینفعان، از جمله روزنامه نگاران، گروه های منافع عمومی، متخصصان صنعت؛ گزارش باز مشکلات پیش آمده؛ و شفافیت در مورد فرآیند مایکروسافت برای بررسی داخلی پروژه ها.

گوپتا گفت، یکی از عواملی که سزاوار توجه بیشتر است، در نظر گرفتن اثرات زیست محیطی سیستم های هوش مصنوعی است، “به خصوص با توجه به کاری که مایکروسافت در مورد مدل های بزرگ انجام می دهد.” او گفت: “توصیه من این است که به عنوان یک شهروند درجه یک در کنار ملاحظات تجاری و عملکردی در طراحی، توسعه و استقرار سیستم های هوش مصنوعی، به ملاحظات زیست محیطی فکر کنید.”

آینده هوش مصنوعی مسئول

گوپتا پیش‌بینی کرد که اعلامیه‌های مایکروسافت باید اقدامات مشابهی را از سایر شرکت‌ها در 12 ماه آینده آغاز کند.

همچنین ممکن است شاهد انتشار ابزارها و قابلیت‌های بیشتری در پلتفرم Azure باشیم که باعث می‌شود برخی از استانداردهای ذکر شده در استاندارد هوش مصنوعی پاسخگوی آن‌ها به طور گسترده‌تری برای مشتریان پلتفرم Azure در دسترس قرار گیرد، بنابراین قابلیت‌های RAI نسبت به افرادی که لزوماً این کار را نمی‌کنند دموکراتیک می‌کند. منابع لازم برای انجام این کار را دارند.»

اشنایدرمن با اشاره به AI Fairness 360 IBM و رویکردهای مرتبط و همچنین راهنمای Google’s People and AI Research (PAIR) گفت که امیدوار است سایر شرکت‌ها بازی خود را در این مسیر ارتقا دهند.

او گفت: «خبر خوب این است که شرکت‌های بزرگ و شرکت‌های کوچک‌تر از اصول اخلاقی مبهم به رویه‌های تجاری خاص با نیاز به برخی از اشکال اسناد، گزارش مشکلات و به اشتراک گذاشتن اطلاعات با سهامداران/مشتریان خاص، در حال حرکت هستند.» برای باز کردن این سیستم‌ها برای بازبینی عمومی: «من فکر می‌کنم به رسمیت شناختن رو به رشدی وجود دارد که سیستم‌های هوش مصنوعی شکست خورده توجه عمومی منفی قابل توجهی را ایجاد می‌کنند و سیستم‌های هوش مصنوعی قابل اعتماد، ایمن و قابل اعتماد را به یک مزیت رقابتی تبدیل می‌کنند.»