4 اصل برای هوش مصنوعی مسئول


آیا جلسه ای از نشست Future of Work را از دست داده اید؟ برای پخش جریانی به کتابخانه بر اساس تقاضای Future of Work Summit بروید.


آلخاندرو ساوسدو، مدیر مهندسی سلدون، و دانشمند ارشد مؤسسه هوش مصنوعی اخلاقی و یادگیری ماشین، و همچنین رئیس کمیته شتاب GPU بنیاد لینوکس است.

هوش مصنوعی (AI) قرار است در دهه آینده در همه جا حاضر شود – با این پتانسیل که جامعه ما را در این فرآیند متحول کند. چه بهبود بهره وری، کاهش هزینه ها و یا حتی ایجاد صنایع جدید، مزایای اقتصادی این فناوری بسیار بزرگ خواهد بود. در مجموع، مک کینزی تخمین می زند که هوش مصنوعی تا سال 2030 بیش از 13 تریلیون دلار به اقتصاد جهانی کمک خواهد کرد.

مانند هر فناوری دیگری، هوش مصنوعی خطرات شخصی، اجتماعی و اقتصادی دارد. می‌تواند توسط بازیگران مخرب در بازار به روش‌های مختلفی مورد سوء استفاده قرار گیرد که می‌تواند به طور قابل‌توجهی بر افراد و سازمان‌ها تأثیر بگذارد، حریم خصوصی ما را نقض کند، منجر به خطاهای فاجعه‌بار شود یا سوگیری‌های غیراخلاقی را در امتداد ویژگی‌های محافظت‌شده مانند سن، جنس، تداوم بخشد. یا نژاد ایجاد اصول و شیوه های هوش مصنوعی مسئول بسیار مهم است.

بنابراین، صنعت برای جلوگیری از این امر و اطمینان از استفاده مسئولانه از هوش مصنوعی چه قوانینی می تواند اتخاذ کند؟ تیم مؤسسه برای هوش مصنوعی و ML اخلاقی هشت اصل را جمع آوری کرده است که می تواند برای راهنمایی تیم ها استفاده شود تا اطمینان حاصل شود که آنها از هوش مصنوعی مسئولانه استفاده می کنند. من می خواهم چهار مورد را بررسی کنم: تقویت انسانی، ارزیابی سوگیری، توضیح پذیری و تکرارپذیری.

اصول هوش مصنوعی مسئول

1. افزایش انسان

هنگامی که یک تیم به استفاده مسئولانه از هوش مصنوعی برای خودکارسازی گردش‌های کار دستی موجود نگاه می‌کند، مهم است که با ارزیابی نیازمندی‌های موجود فرآیند غیر خودکار اولیه شروع شود. این شامل شناسایی خطرات پیامدهای بالقوه نامطلوب است که ممکن است در سطح اجتماعی، قانونی یا اخلاقی ایجاد شود. به نوبه خود، این امکان را برای درک عمیق تری از فرآیندها و نقاط تماسی که ممکن است نیاز به مداخله انسانی باشد، فراهم می کند، زیرا سطح مشارکت انسان در فرآیندها باید متناسب با خطر باشد.

به عنوان مثال، هوش مصنوعی که توصیه‌های فیلم را ارائه می‌کند، در مقایسه با هوش مصنوعی که فرآیندهای تأیید وام را خودکار می‌کند، خطرات بسیار کمتری را برای پیامدهای تأثیرگذار برای افراد به همراه دارد. اولی نسبت به دومی به دامنه کمتری برای فرآیند و مداخله نیاز دارد. هنگامی که یک تیم خطرات موجود در جریان کاری هوش مصنوعی را شناسایی کرد، می‌توان نقاط تماس مربوطه را در زمانی که یک انسان برای بازبینی به داخل کشیده شود، ارزیابی کرد. ما چنین پارادایمی را فرآیند بررسی “انسان در حلقه” می نامیم – که به اختصار “HITL” شناخته می شود.

HITL تضمین می‌کند که وقتی یک فرآیند از طریق هوش مصنوعی خودکار می‌شود، نقاط تماس مختلف به وضوح مشخص می‌شوند که در آن انسان‌ها در بررسی یا اعتبارسنجی پیش‌بینی‌های مربوطه از هوش مصنوعی درگیر هستند – و در صورت لزوم، اصلاح یا انجام یک عمل را به صورت دستی انجام می‌دهند. این می‌تواند شامل تیم‌هایی متشکل از فن‌آوران و کارشناسان موضوع (به عنوان مثال، در مثال سناریوی وام بالا، یک بیمه‌گر) باشد تا تصمیمات مدل‌های هوش مصنوعی را بررسی کنند تا از درستی آنها اطمینان حاصل کنند، در حالی که با موارد استفاده مرتبط نیز هماهنگ می‌شوند. یا سیاست های خاص صنعت.

2. ارزیابی سوگیری

هنگام پرداختن به «سوگیری» در هوش مصنوعی، باید روشی را که هوش مصنوعی در آن کار می‌کند، به خاطر داشته باشیم – که یادگیری روش بهینه برای تبعیض نسبت به پاسخ «صحیح» است. از این نظر، ایده حذف کامل سوگیری از هوش مصنوعی غیرممکن خواهد بود.

بنابراین، چالش پیش روی ما در این زمینه، عدم اطمینان از بی طرفی هوش مصنوعی است. در عوض، باید اطمینان حاصل شود که سوگیری‌های ناخواسته و در نتیجه نتایج نامطلوب از طریق فرآیندهای مربوطه، مداخله انسانی مرتبط، استفاده از بهترین عملکرد و اصول هوش مصنوعی مسئول، و استفاده از ابزارهای مناسب در هر مرحله از چرخه زندگی یادگیری ماشین کاهش می‌یابد.

برای انجام این کار، ما همیشه باید با داده هایی که یک مدل هوش مصنوعی از آنها یاد می گیرد شروع کنیم. اگر یک مدل فقط داده‌هایی را دریافت کند که حاوی توزیع‌هایی است که سوگیری‌های نامطلوب موجود را منعکس می‌کند، خود مدل زیربنایی آن سوگیری‌های نامطلوب را یاد می‌گیرد.

با این حال، این خطر به مرحله داده های آموزشی یک مدل هوش مصنوعی محدود نمی شود. تیم‌ها همچنین باید فرآیندها و روش‌هایی را برای شناسایی هرگونه سوگیری نامطلوب در مورد داده‌های آموزشی هوش مصنوعی، آموزش و ارزیابی مدل، و چرخه عمر عملیاتی‌سازی مدل توسعه دهند. یکی از نمونه‌هایی از چنین چارچوبی که می‌توان از آن پیروی کرد، چارچوب هوش مصنوعی قابل توضیح از مؤسسه برای هوش مصنوعی اخلاقی و یادگیری ماشین است.

3. قابل توضیح

برای اطمینان از اینکه یک مدل هوش مصنوعی برای هدف مورد استفاده آن مناسب است، ما همچنین باید متخصصان حوزه مربوطه را درگیر کنیم. چنین کارشناسانی می توانند به تیم ها کمک کنند مطمئن شوند که یک مدل از معیارهای عملکرد مربوطه استفاده می کند که فراتر از معیارهای عملکرد آماری ساده مانند دقت است.

با این حال، برای این کار، اطمینان از اینکه پیش‌بینی‌های مدل می‌تواند توسط کارشناسان حوزه مربوطه تفسیر شود نیز مهم است. با این حال، مدل‌های پیشرفته هوش مصنوعی اغلب از تکنیک‌های پیشرفته یادگیری عمیق استفاده می‌کنند که ممکن است توضیح اینکه چرا یک پیش‌بینی خاص انجام شده است، ساده نباشد.

برای رسیدگی به این موضوع و کمک به متخصصان حوزه در درک تصمیمات یک مدل هوش مصنوعی، سازمان‌ها می‌توانند از طیف وسیعی از ابزارها و تکنیک‌ها برای توضیح‌پذیری یادگیری ماشین استفاده کنند که می‌توانند برای تفسیر پیش‌بینی‌های مدل‌های هوش مصنوعی معرفی شوند – فهرست جامع و سرپرستی این ابزارها برای مرجع مفید است

مرحله بعدی عملیاتی کردن مدل مسئول هوش مصنوعی است که استفاده از مدل را توسط ذینفعان مربوطه نظارت می کند. چرخه عمر یک مدل هوش مصنوعی تنها زمانی شروع می‌شود که تولید شود، و مدل‌های هوش مصنوعی می‌توانند با تغییر محیط از واگرایی در عملکرد رنج ببرند. چه تغییر مفهومی باشد و چه تغییرات در محیطی که هوش مصنوعی در آن کار می کند، یک هوش مصنوعی موفق زمانی که در محیط تولید خود قرار می گیرد نیاز به نظارت مداوم دارد. اگر مایلید بیشتر بدانید، یک مطالعه موردی عمیق به تفصیل در این ارائه کنفرانس فنی پوشش داده شده است.

4. تکرارپذیری

تکرارپذیری در هوش مصنوعی به توانایی تیم ها برای اجرای مکرر یک الگوریتم بر روی یک نقطه داده و به دست آوردن همان نتیجه اشاره دارد. تکرارپذیری یک کیفیت کلیدی برای هوش مصنوعی است، زیرا مهم است که اطمینان حاصل شود که پیش‌بینی‌های قبلی یک مدل در صورت اجرا مجدد در مرحله بعد، صادر می‌شود.

اما تکرارپذیری نیز به دلیل ماهیت پیچیده سیستم های هوش مصنوعی یک مشکل چالش برانگیز است. تکرارپذیری مستلزم سازگاری در همه موارد زیر است:

  1. کد برای محاسبه استنتاج AI.
  2. وزن های بدست آمده از داده های مورد استفاده.
  3. محیط/پیکربندی که برای اجرای کد استفاده شد و
  4. ورودی ها و ساختار ورودی به مدل ارائه شده است.

تغییر هر یک از این مؤلفه‌ها می‌تواند خروجی‌های متفاوتی را به همراه داشته باشد، به این معنی که برای اینکه سیستم‌های هوش مصنوعی به طور کامل تکرار شوند، تیم‌ها باید اطمینان حاصل کنند که هر یک از این مؤلفه‌ها به گونه‌ای قوی اجرا می‌شوند که به هر یک از این مؤلفه‌ها اجازه می‌دهد تا به اجزای اتمی تبدیل شوند که رفتار مناسبی دارند. دقیقاً به همین ترتیب صرف نظر از اینکه مدل مجدداً چه زمانی اجرا می شود.

این یک مشکل چالش برانگیز است، به ویژه هنگامی که در مقیاس با اکوسیستم گسترده و ناهمگون ابزارها و چارچوب‌های درگیر در فضای یادگیری ماشینی حل شود. خوشبختانه برای متخصصان هوش مصنوعی، طیف گسترده‌ای از ابزارها وجود دارد که اتخاذ بهترین شیوه‌ها را برای اطمینان از تکرارپذیری در طول چرخه عمر هوش مصنوعی ساده‌تر می‌کند – بسیاری از آنها را می‌توان در این فهرست یافت.

اصول هوش مصنوعی مسئول بالا فقط برای تیم هایی است که باید از طراحی، توسعه و عملکرد سیستم های هوش مصنوعی پیروی کنند. از طریق اصول سطح بالایی مانند این، می‌توانیم اطمینان حاصل کنیم که از بهترین شیوه‌ها برای کاهش نتایج نامطلوب سیستم‌های هوش مصنوعی استفاده می‌شود و این فناوری به ابزاری تبدیل نمی‌شود که آسیب‌پذیرها را از بین ببرد، سوگیری‌های غیراخلاقی را تداوم بخشد، و مسئولیت‌پذیری را از بین ببرد. در عوض، ما می‌توانیم اطمینان حاصل کنیم که هوش مصنوعی به عنوان ابزاری استفاده می‌شود که بهره‌وری، رشد و منافع مشترک را هدایت می‌کند.

آلخاندرو ساوسدو، مدیر مهندسی سلدون، و دانشمند ارشد مؤسسه هوش مصنوعی اخلاقی و یادگیری ماشین، و همچنین رئیس کمیته شتاب GPU بنیاد لینوکس است.

DataDecisionMakers

به انجمن VentureBeat خوش آمدید!

DataDecisionMakers جایی است که کارشناسان، از جمله افراد فنی که کار داده را انجام می دهند، می توانند بینش ها و نوآوری های مرتبط با داده ها را به اشتراک بگذارند.

اگر می‌خواهید درباره ایده‌های پیشرفته و اطلاعات به‌روز، بهترین شیوه‌ها و آینده فناوری داده و داده مطالعه کنید، به ما در DataDecisionMakers بپیوندید.

حتی ممکن است در نظر داشته باشید که مقاله ای از خودتان مشارکت دهید!

از DataDecisionMakers بیشتر بخوانید