NIST چارچوب مدیریت ریسک هوش مصنوعی جدیدی را برای هوش مصنوعی «قابل اعتماد» منتشر کرد


تمام جلسات درخواستی از اجلاس امنیت هوشمند را در اینجا بررسی کنید.


امروز مؤسسه ملی استانداردها و فناوری وزارت بازرگانی ایالات متحده (NIST) اولین نسخه از چارچوب مدیریت ریسک هوش مصنوعی جدید خود (AI RMF 1.0) را منتشر کرد، “سند راهنمایی برای استفاده داوطلبانه توسط سازمان هایی که در حال طراحی، توسعه، استقرار یا استفاده از سیستم های هوش مصنوعی هستند. برای کمک به مدیریت بسیاری از خطرات فناوری‌های هوش مصنوعی.»

چارچوب مدیریت ریسک هوش مصنوعی NIST با یک کتاب راهنما همراه است که راه‌هایی را برای پیمایش و استفاده از این چارچوب برای «ادغام ملاحظات قابل اعتماد در طراحی، توسعه، استقرار و استفاده از سیستم‌های هوش مصنوعی» پیشنهاد می‌کند.

کنگره به NIST دستور داد تا چارچوب مدیریت ریسک هوش مصنوعی را در سال 2020 توسعه دهد

کنگره به NIST دستور داد تا چارچوب را از طریق قانون ملی هوش مصنوعی 2020 توسعه دهد، و NIST از ژوئیه 2021 این چارچوب را توسعه داده است و از طریق کارگاه ها و نظرات عمومی بازخورد را درخواست می کند. جدیدترین پیش نویس در آگوست 2022 منتشر شده بود.

یک بیانیه مطبوعاتی توضیح داد که AI RMF به دو بخش تقسیم می شود. اولین مورد به این موضوع می‌پردازد که چگونه سازمان‌ها می‌توانند ریسک‌های مرتبط با هوش مصنوعی را چارچوب‌بندی کنند و ویژگی‌های سیستم‌های هوش مصنوعی قابل اعتماد را تشریح می‌کند. بخش دوم، هسته چارچوب، چهار عملکرد خاص – حکومت، نقشه، اندازه‌گیری و مدیریت – را برای کمک به سازمان‌ها برای مقابله با خطرات سیستم‌های هوش مصنوعی در عمل توصیف می‌کند.

رویداد

اجلاس امنیت هوشمند بر حسب تقاضا

نقش حیاتی هوش مصنوعی و ML در امنیت سایبری و مطالعات موردی خاص صنعت را بیاموزید. امروز جلسات درخواستی را تماشا کنید.

اینجا را تماشا کنید

در یک ویدیوی زنده که راه اندازی RMF را اعلام کرد، معاون وزیر بازرگانی در فناوری و مدیر NIST، Laurie Locascio گفت: “کنگره به وضوح نیاز به این راهنمایی داوطلبانه را تشخیص داد و آن را به عنوان یک اولویت بالا به NIST اختصاص داد.” او افزود که NIST روی جامعه گسترده حساب می کند تا “به ما در اصلاح این اولویت های نقشه راه کمک کند.”

دان گریوز، معاون وزیر بازرگانی خاطرنشان کرد که AI RMF یک لحظه خیلی زود نمی آید. او گفت: «من از سرعت و گستردگی نوآوری‌های هوش مصنوعی در فاصله زمانی کوتاه بین شروع و ارائه این چارچوب شگفت‌زده هستم. مانند بسیاری از شما، من نیز از تأثیرات بالقوه اعم از مثبت و منفی که با پیشرفت‌های علمی، فناوری و تجاری همراه است، شگفت‌زده شدم.»

با این حال، او افزود: “من به اندازه کافی در تجارت بودم تا بدانم ارزش واقعی این چارچوب به استفاده واقعی آن بستگی دارد و اینکه آیا فرآیندها، فرهنگ ها، شیوه های ما را تغییر می دهد.”

روشی جامع برای تفکر و رویکرد مدیریت ریسک هوش مصنوعی

کورتنی لانگ، مدیر ارشد سیاست، اعتماد، داده‌ها و فناوری شورای صنعت فناوری اطلاعات در بیانیه‌ای به VentureBeat گفت که AI RMF یک روش جامع برای تفکر و رویکرد مدیریت ریسک هوش مصنوعی ارائه می‌کند و Playbook مرتبط با آن ادغام می‌شود. در یک مکان مراجع آموزنده، که به کاربران کمک می کند تا اصول کلیدی قابلیت اعتماد را عملیاتی کنند.”

او گفت که سازمان‌ها در هر اندازه قادر خواهند بود از چارچوب انعطاف‌پذیر و مبتنی بر نتایج برای مدیریت ریسک‌ها استفاده کنند و در عین حال از فرصت‌های ارائه‌شده توسط هوش مصنوعی نیز استفاده کنند. اما با توجه به این واقعیت که تلاش‌های استانداردسازی ادامه دارد، او افزود که این چارچوب همچنین باید تکامل یابد “به منظور منعکس کردن چشم‌انداز در حال تغییر و ایجاد همسویی بیشتر.”

برخی از ماهیت “سطح بالا” و “عمومی” RMF انتقاد می کنند

بردلی مریل تامپسون، وکیل متخصص بر مقررات هوش مصنوعی در شرکت حقوقی اپستین بکر گرین، در ایمیلی به VentureBeat گفت: در حالی که NIST AI RMF یک نقطه شروع است، “از لحاظ عملی، معنای زیادی ندارد”.

او گفت: «این آنقدر سطح بالا و عمومی است که واقعاً تنها به عنوان نقطه شروعی برای حتی فکر کردن در مورد چارچوب مدیریت ریسک برای اعمال یک محصول خاص عمل می کند.» این مشکل در تلاش برای شبه تنظیم تمام هوش مصنوعی است. برنامه های کاربردی بسیار متفاوت با خطرات بسیار متفاوت است.”

Gaurav Kapoor، یکی از مدیران اجرایی حاکمیت، ریسک و انطباق برای ارائه دهنده راه حل MetricStream، موافقت کرد که این چارچوب تنها یک نقطه شروع است. اما او اضافه کرد که این چارچوب به «فرایندهای پایدار در حول مدیریت عملکرد مداوم، نظارت بر ریسک، خطر سوگیری ناشی از هوش مصنوعی و حتی اقداماتی برای اطمینان از ایمن بودن PII کمک می‌کند». وی افزود، واضح است که «همه ذینفعان باید در مورد بهترین شیوه ها در مدیریت ریسک مشارکت داشته باشند».

آیا NIST AI RMF حس امنیت کاذب را تقویت می کند؟

کیل کارلسون، رئیس استراتژی علم داده و تبشیر در آزمایشگاه داده Domino، به VentureBeat گفت که سازمان‌ها با توانمندسازی تیم‌های علم داده خود برای توسعه، پیاده‌سازی و بهبود مستمر بهترین شیوه‌ها و پلتفرم‌های خود، احتمال بیشتری دارد که با موفقیت ریسک‌های هوش مصنوعی خود را مدیریت کنند.

او گفت: «امیدواریم این چارچوب بتواند راهنمایی‌هایی برای این تلاش‌ها ارائه کند، اما او افزود که بسیاری از سازمان‌ها وسوسه می‌شوند تا چارچوبی مانند این را از بالا به پایین، در ابتکاراتی که توسط متخصصان مدیریت ریسک اجرا می‌شود که تجربه ندارند، اعمال کنند. با فناوری های هوش مصنوعی.”

به گفته او، چنین تلاش‌هایی «احتمالاً منجر به بدترین جهان‌ها می‌شود – احساس امنیت کاذب، کاهش خطر واقعی، و تلاش‌های بیهوده اضافی که پذیرش و نوآوری را خفه می‌کند».

NIST “به طور منحصر به فرد” برای پر کردن جای خالی قرار گرفته است

اندرو برت، شریک مدیریت شرکت حقوقی BNH.AI، به VentureBeat گفت، با این حال، بهترین شیوه های پذیرفته شده در مورد مدیریت ریسک هوش مصنوعی وجود ندارد، و شاغلین در هر دو جنبه فنی و حقوقی به راهنمایی روشن نیاز دارند.

او گفت: «وقتی نوبت به مدیریت ریسک هوش مصنوعی می‌رسد، پزشکان اغلب احساس می‌کنند که در غرب وحشی فعالیت می‌کنند. NIST به طور منحصربه‌فردی برای پر کردن این خلأ قرار گرفته است و چارچوب مدیریت ریسک هوش مصنوعی شامل راهنمایی‌های واضح و مؤثر در مورد اینکه چگونه سازمان‌ها می‌توانند به‌طور انعطاف‌پذیر اما مؤثر ریسک‌های هوش مصنوعی را مدیریت کنند، است. من انتظار دارم RMF استانداردی را برای نحوه مدیریت خطرات هوش مصنوعی در آینده توسط سازمان‌ها تعیین کند، نه فقط در ایالات متحده، بلکه در سطح جهانی.

ماموریت VentureBeat این است که یک میدان شهر دیجیتال برای تصمیم گیرندگان فنی باشد تا دانشی در مورد فناوری سازمانی متحول کننده کسب کنند و معامله کنند. جلسات توجیهی ما را کشف کنید.