مقررات آینده هوش مصنوعی ممکن است از ما در برابر هوش مصنوعی خطرناک محافظت نکند


تمام جلسات درخواستی از اجلاس امنیت هوشمند را در اینجا بررسی کنید.


اکثر سیستم های هوش مصنوعی امروزه شبکه های عصبی هستند. شبکه های عصبی الگوریتم هایی هستند که از مغز بیولوژیکی تقلید می کنند تا حجم وسیعی از داده ها را پردازش کنند. آنها به سرعت معروف هستند، اما غیرقابل درک هستند. شبکه های عصبی برای یادگیری نحوه تصمیم گیری به حجم عظیمی از داده ها نیاز دارند. با این حال، دلایل تصمیمات آنها در لایه های بی شماری از نورون های مصنوعی پنهان شده است که همه به طور جداگانه با پارامترهای مختلف تنظیم شده اند.

به عبارت دیگر، شبکه های عصبی «جعبه سیاه» هستند. و توسعه دهندگان یک شبکه عصبی نه تنها کارهایی که هوش مصنوعی انجام می دهد را کنترل نمی کنند، بلکه حتی نمی دانند چرا آن کاری را که انجام می دهد انجام می دهد.

این یک واقعیت هولناک است اما بدتر می شود.

علیرغم خطر ذاتی فناوری، شبکه‌های عصبی شروع به اجرای زیرساخت‌های کلیدی کارکردهای مهم تجاری و دولتی کرده‌اند. با گسترش سیستم های هوش مصنوعی، فهرست نمونه هایی از شبکه های عصبی خطرناک هر روز بیشتر می شود. مثلا:

رویداد

اجلاس امنیت هوشمند بر حسب تقاضا

نقش حیاتی هوش مصنوعی و ML در امنیت سایبری و مطالعات موردی خاص صنعت را بیاموزید. امروز جلسات درخواستی را تماشا کنید.

اینجا را تماشا کنید

این نتایج از مرگبار تا خنده دار تا به شدت توهین آمیز متغیر است. و تا زمانی که شبکه های عصبی در حال استفاده هستند، از طرق مختلف در معرض خطر آسیب قرار داریم. شرکت ها و مصرف کنندگان به درستی نگران هستند که تا زمانی که هوش مصنوعی باقی بماند مات، باقی می ماند خطرناک.

یک پاسخ نظارتی در راه است

در پاسخ به چنین نگرانی‌هایی، اتحادیه اروپا قانون هوش مصنوعی را پیشنهاد کرده است – که قرار است تا ژانویه به قانون تبدیل شود – و ایالات متحده پیش‌نویس منشور حقوق هوش مصنوعی را تهیه کرده است. هر دو به طور مستقیم با مشکل کدورت مقابله می کنند.

قانون هوش مصنوعی اتحادیه اروپا بیان می‌کند که سیستم‌های هوش مصنوعی «پرخطر» باید با شفافیت ساخته شوند و به سازمان اجازه می‌دهد داده‌های بالقوه مغرضانه را مشخص و تجزیه و تحلیل کند و آن‌ها را از تمام تحلیل‌های آینده حذف کند. جعبه سیاه را به طور کامل حذف می کند. قانون هوش مصنوعی اتحادیه اروپا سیستم‌های پرخطر را شامل زیرساخت‌های حیاتی، منابع انسانی، خدمات ضروری، اجرای قانون، کنترل مرزها، رویه قضایی و نظارت تعریف می‌کند. در واقع، تقریباً هر برنامه اصلی هوش مصنوعی که برای استفاده دولتی و سازمانی توسعه می‌یابد، به عنوان یک سیستم هوش مصنوعی پرخطر واجد شرایط است و بنابراین مشمول قانون هوش مصنوعی اتحادیه اروپا خواهد بود.

به طور مشابه، منشور حقوق هوش مصنوعی ایالات متحده تأکید می کند که کاربران باید بتوانند سیستم های خودکاری را که بر زندگی آنها تأثیر می گذارد، درک کنند. این قانون همان هدف قانون هوش مصنوعی اتحادیه اروپا را دارد: محافظت از مردم در برابر خطر واقعی خطرناک شدن هوش مصنوعی غیرشفاف. هوش مصنوعی Blueprint در حال حاضر یک کاغذ سفید غیر الزام آور و بدون دندان است. با این حال، ماهیت موقت آن ممکن است یک فضیلت باشد، زیرا به دانشمندان و حامیان هوش مصنوعی زمان می‌دهد تا با قانون‌گذاران برای شکل‌دهی مناسب قانون کار کنند.

در هر صورت، به نظر می‌رسد که هم اتحادیه اروپا و هم ایالات متحده سازمان‌ها را ملزم خواهند کرد تا سیستم‌های هوش مصنوعی را که خروجی قابل تفسیری برای کاربرانشان ارائه می‌دهند، اتخاذ کنند. به طور خلاصه، هوش مصنوعی آینده ممکن است نیاز به شفافیت داشته باشد، نه غیر شفاف.

اما آیا به اندازه کافی دور می شود؟

ایجاد رژیم های نظارتی جدید همیشه چالش برانگیز است. تاریخ، نمونه هایی از قوانین نادرست را که به طور تصادفی صنایع نویدبخش جدید را از بین می برد، به ما ارائه نمی دهد. اما نمونه‌های متقابلی را نیز ارائه می‌کند که در آن قوانین به‌خوبی تدوین شده هم به نفع شرکت‌های خصوصی و هم به نفع رفاه عمومی بوده است.

به عنوان مثال، زمانی که انقلاب دات‌کام آغاز شد، قانون کپی رایت به خوبی پشت فناوری‌هایی بود که قرار بود بر آن حاکم شود. در نتیجه، سال‌های اولیه عصر اینترنت با دعوای قضایی شدیدی که شرکت‌ها و مصرف‌کنندگان را هدف قرار می‌داد، خدشه‌دار شد. در نهایت، قانون جامع حق چاپ هزاره دیجیتال (DMCA) تصویب شد. زمانی که شرکت‌ها و مصرف‌کنندگان با قوانین جدید سازگار شدند، کسب‌وکارهای اینترنتی شروع به رونق کردند و نوآوری‌هایی مانند رسانه‌های اجتماعی که طبق قوانین قدیمی غیرممکن بود، توانستند شکوفا شوند.

رهبران آینده‌نگر صنعت هوش مصنوعی مدت‌هاست فهمیده‌اند که یک چارچوب قانونی مشابه برای فناوری هوش مصنوعی برای دستیابی به پتانسیل کامل خود ضروری است. یک طرح نظارتی به خوبی ساخته شده به مصرف کنندگان امنیت حفاظت قانونی برای داده ها، حریم خصوصی و ایمنی آنها را ارائه می دهد، در حالی که به شرکت ها مقررات واضح و عینی ارائه می دهد که تحت آن می توانند با اطمینان منابع را در سیستم های نوآورانه سرمایه گذاری کنند.

متأسفانه، نه قانون هوش مصنوعی و نه منشور حقوق هوش مصنوعی این اهداف را برآورده نمی کنند. هیچ یک از این چارچوب ها شفافیت کافی را از سیستم های هوش مصنوعی نمی طلبد. هیچ یک از این چارچوب ها محافظت کافی برای عموم یا مقررات کافی برای تجارت ارائه نمی کنند.

مجموعه ای از تحلیل های ارائه شده به اتحادیه اروپا به ایرادات قانون هوش مصنوعی اشاره کرده است. (نقدهای مشابهی را می توان در منشور حقوق هوش مصنوعی مطرح کرد، با این شرط که چارچوب آمریکایی حتی در نظر گرفته نشده است که یک سیاست الزام آور باشد.) این نقص ها عبارتند از:

  • ارائه هیچ معیاری برای تعریف ریسک غیرقابل قبول برای سیستم‌های هوش مصنوعی و هیچ روشی برای افزودن برنامه‌های پرخطر جدید به قانون، در صورتی که چنین برنامه‌هایی کشف شوند که خطر جدی ایجاد می‌کنند. این امر به ویژه مشکل ساز است زیرا سیستم های هوش مصنوعی در کاربردشان گسترده تر می شوند.
  • فقط الزام شرکت ها به حساب آسیب به افراد، به استثنای ملاحظات آسیب های غیرمستقیم و کلی برای جامعه. یک سیستم هوش مصنوعی که تأثیر بسیار کمی بر روی الگوهای رأی دادن هر فرد دارد، ممکن است در مجموع تأثیر اجتماعی زیادی داشته باشد.
  • اجازه عملاً هیچ نظارت عمومی بر ارزیابی اینکه آیا هوش مصنوعی الزامات قانون را برآورده می کند یا خیر. بر اساس قانون هوش مصنوعی، شرکت‌ها بدون دخالت هیچ مقام دولتی، سیستم‌های هوش مصنوعی خود را برای انطباق ارزیابی می‌کنند. این معادل درخواست از شرکت‌های داروسازی است که خودشان تصمیم بگیرند که آیا داروها بی‌خطر هستند یا خیر – رویه‌ای که هم ایالات متحده و هم اتحادیه اروپا آن را برای عموم مضر تشخیص داده‌اند.
  • تعریف درستی از طرف مسئول برای ارزیابی هوش مصنوعی همه منظوره وجود ندارد. اگر بتوان از هوش مصنوعی همه منظوره برای اهداف پرخطر استفاده کرد، آیا این قانون در مورد آن اعمال می شود؟ اگر چنین است، آیا خالق هوش مصنوعی همه منظوره مسئول رعایت آن است یا شرکتی است که از هوش مصنوعی در معرض خطر استفاده می کند؟ این ابهام روزنه‌ای ایجاد می‌کند که انگیزه‌ای برای انتقال سرزنش می‌کند. هر دو شرکت می توانند ادعا کنند که این مسئولیت شریک آنها بود که خود ارزیابی کند، نه آنها.

برای اینکه هوش مصنوعی به طور ایمن در آمریکا و اروپا تکثیر شود، این نقص ها باید برطرف شوند.

تا آن زمان در مورد هوش مصنوعی خطرناک چه باید کرد؟

تا زمانی که مقررات مناسب وضع نشود، شبکه‌های عصبی جعبه سیاه به استفاده از داده‌های شخصی و حرفه‌ای به روش‌هایی که برای ما کاملاً مبهم است ادامه خواهند داد. برای محافظت از خود در برابر هوش مصنوعی غیرشفاف چه کاری می تواند انجام دهد؟ حداقل:

  • سوال بپرس. اگر به نوعی مورد تبعیض قرار گرفتید یا توسط یک الگوریتم رد شدید، از شرکت یا فروشنده بپرسید: “چرا؟” اگر آنها نمی توانند به این سوال پاسخ دهند، مجدداً فکر کنید که آیا باید با آنها تجارت کنید یا خیر. شما نمی توانید به یک سیستم هوش مصنوعی اعتماد کنید که کار درست را انجام دهد، اگر حتی ندانید چرا آن کار را انجام می دهد.
  • در مورد داده هایی که به اشتراک می گذارید فکر کنید. آیا همه برنامه های موجود در گوشی هوشمند شما باید مکان شما را بدانند؟ آیا هر پلتفرمی که استفاده می‌کنید باید از طریق آدرس ایمیل اصلی شما عبور کند؟ سطحی از حداقل گرایی در به اشتراک گذاری داده ها می تواند راه طولانی را برای محافظت از حریم خصوصی شما انجام دهد.
  • در صورت امکان، فقط با شرکت هایی تجارت کنید که از بهترین شیوه ها برای حفاظت از داده ها پیروی می کنند و از سیستم های هوش مصنوعی شفاف استفاده می کنند.
  • مهم‌تر از همه، حمایت از مقرراتی که تفسیرپذیری و شفافیت را ارتقا می‌دهد. همه سزاوار درک این موضوع هستند که چرا هوش مصنوعی بر زندگی آن‌ها تأثیر می‌گذارد.

خطرات هوش مصنوعی واقعی است، اما مزایای آن نیز واقعی است. در مقابله با خطر هوش مصنوعی غیرشفاف که منجر به نتایج خطرناک می شود، منشور حقوق هوش مصنوعی و قانون هوش مصنوعی مسیر درستی را برای آینده ترسیم می کنند. اما سطح مقررات هنوز به اندازه کافی قوی نیست.

مایکل کپس مدیرعامل Diveplane است.

DataDecisionMakers

به انجمن VentureBeat خوش آمدید!

DataDecisionMakers جایی است که کارشناسان، از جمله افراد فنی که کار داده را انجام می دهند، می توانند بینش ها و نوآوری های مرتبط با داده را به اشتراک بگذارند.

اگر می‌خواهید درباره ایده‌های پیشرفته و اطلاعات به‌روز، بهترین شیوه‌ها و آینده فناوری داده و داده مطالعه کنید، به ما در DataDecisionMakers بپیوندید.

شما حتی ممکن است در نظر داشته باشید که مقاله ای از خودتان ارائه دهید!

از DataDecisionMakers بیشتر بخوانید