تمام جلسات درخواستی از اجلاس امنیت هوشمند را در اینجا بررسی کنید.
امروز مؤسسه ملی استانداردها و فناوری وزارت بازرگانی ایالات متحده (NIST) اولین نسخه از چارچوب مدیریت ریسک هوش مصنوعی جدید خود (AI RMF 1.0) را منتشر کرد، “سند راهنمایی برای استفاده داوطلبانه توسط سازمان هایی که در حال طراحی، توسعه، استقرار یا استفاده از سیستم های هوش مصنوعی هستند. برای کمک به مدیریت بسیاری از خطرات فناوریهای هوش مصنوعی.»
چارچوب مدیریت ریسک هوش مصنوعی NIST با یک کتاب راهنما همراه است که راههایی را برای پیمایش و استفاده از این چارچوب برای «ادغام ملاحظات قابل اعتماد در طراحی، توسعه، استقرار و استفاده از سیستمهای هوش مصنوعی» پیشنهاد میکند.
کنگره به NIST دستور داد تا چارچوب مدیریت ریسک هوش مصنوعی را در سال 2020 توسعه دهد
کنگره به NIST دستور داد تا چارچوب را از طریق قانون ملی هوش مصنوعی 2020 توسعه دهد، و NIST از ژوئیه 2021 این چارچوب را توسعه داده است و از طریق کارگاه ها و نظرات عمومی بازخورد را درخواست می کند. جدیدترین پیش نویس در آگوست 2022 منتشر شده بود.
یک بیانیه مطبوعاتی توضیح داد که AI RMF به دو بخش تقسیم می شود. اولین مورد به این موضوع میپردازد که چگونه سازمانها میتوانند ریسکهای مرتبط با هوش مصنوعی را چارچوببندی کنند و ویژگیهای سیستمهای هوش مصنوعی قابل اعتماد را تشریح میکند. بخش دوم، هسته چارچوب، چهار عملکرد خاص – حکومت، نقشه، اندازهگیری و مدیریت – را برای کمک به سازمانها برای مقابله با خطرات سیستمهای هوش مصنوعی در عمل توصیف میکند.
رویداد
اجلاس امنیت هوشمند بر حسب تقاضا
نقش حیاتی هوش مصنوعی و ML در امنیت سایبری و مطالعات موردی خاص صنعت را بیاموزید. امروز جلسات درخواستی را تماشا کنید.
اینجا را تماشا کنید
در یک ویدیوی زنده که راه اندازی RMF را اعلام کرد، معاون وزیر بازرگانی در فناوری و مدیر NIST، Laurie Locascio گفت: “کنگره به وضوح نیاز به این راهنمایی داوطلبانه را تشخیص داد و آن را به عنوان یک اولویت بالا به NIST اختصاص داد.” او افزود که NIST روی جامعه گسترده حساب می کند تا “به ما در اصلاح این اولویت های نقشه راه کمک کند.”
دان گریوز، معاون وزیر بازرگانی خاطرنشان کرد که AI RMF یک لحظه خیلی زود نمی آید. او گفت: «من از سرعت و گستردگی نوآوریهای هوش مصنوعی در فاصله زمانی کوتاه بین شروع و ارائه این چارچوب شگفتزده هستم. مانند بسیاری از شما، من نیز از تأثیرات بالقوه اعم از مثبت و منفی که با پیشرفتهای علمی، فناوری و تجاری همراه است، شگفتزده شدم.»
با این حال، او افزود: “من به اندازه کافی در تجارت بودم تا بدانم ارزش واقعی این چارچوب به استفاده واقعی آن بستگی دارد و اینکه آیا فرآیندها، فرهنگ ها، شیوه های ما را تغییر می دهد.”
روشی جامع برای تفکر و رویکرد مدیریت ریسک هوش مصنوعی
کورتنی لانگ، مدیر ارشد سیاست، اعتماد، دادهها و فناوری شورای صنعت فناوری اطلاعات در بیانیهای به VentureBeat گفت که AI RMF یک روش جامع برای تفکر و رویکرد مدیریت ریسک هوش مصنوعی ارائه میکند و Playbook مرتبط با آن ادغام میشود. در یک مکان مراجع آموزنده، که به کاربران کمک می کند تا اصول کلیدی قابلیت اعتماد را عملیاتی کنند.”
او گفت که سازمانها در هر اندازه قادر خواهند بود از چارچوب انعطافپذیر و مبتنی بر نتایج برای مدیریت ریسکها استفاده کنند و در عین حال از فرصتهای ارائهشده توسط هوش مصنوعی نیز استفاده کنند. اما با توجه به این واقعیت که تلاشهای استانداردسازی ادامه دارد، او افزود که این چارچوب همچنین باید تکامل یابد “به منظور منعکس کردن چشمانداز در حال تغییر و ایجاد همسویی بیشتر.”
برخی از ماهیت “سطح بالا” و “عمومی” RMF انتقاد می کنند
بردلی مریل تامپسون، وکیل متخصص بر مقررات هوش مصنوعی در شرکت حقوقی اپستین بکر گرین، در ایمیلی به VentureBeat گفت: در حالی که NIST AI RMF یک نقطه شروع است، “از لحاظ عملی، معنای زیادی ندارد”.
او گفت: «این آنقدر سطح بالا و عمومی است که واقعاً تنها به عنوان نقطه شروعی برای حتی فکر کردن در مورد چارچوب مدیریت ریسک برای اعمال یک محصول خاص عمل می کند.» این مشکل در تلاش برای شبه تنظیم تمام هوش مصنوعی است. برنامه های کاربردی بسیار متفاوت با خطرات بسیار متفاوت است.”
Gaurav Kapoor، یکی از مدیران اجرایی حاکمیت، ریسک و انطباق برای ارائه دهنده راه حل MetricStream، موافقت کرد که این چارچوب تنها یک نقطه شروع است. اما او اضافه کرد که این چارچوب به «فرایندهای پایدار در حول مدیریت عملکرد مداوم، نظارت بر ریسک، خطر سوگیری ناشی از هوش مصنوعی و حتی اقداماتی برای اطمینان از ایمن بودن PII کمک میکند». وی افزود، واضح است که «همه ذینفعان باید در مورد بهترین شیوه ها در مدیریت ریسک مشارکت داشته باشند».
آیا NIST AI RMF حس امنیت کاذب را تقویت می کند؟
کیل کارلسون، رئیس استراتژی علم داده و تبشیر در آزمایشگاه داده Domino، به VentureBeat گفت که سازمانها با توانمندسازی تیمهای علم داده خود برای توسعه، پیادهسازی و بهبود مستمر بهترین شیوهها و پلتفرمهای خود، احتمال بیشتری دارد که با موفقیت ریسکهای هوش مصنوعی خود را مدیریت کنند.
او گفت: «امیدواریم این چارچوب بتواند راهنماییهایی برای این تلاشها ارائه کند، اما او افزود که بسیاری از سازمانها وسوسه میشوند تا چارچوبی مانند این را از بالا به پایین، در ابتکاراتی که توسط متخصصان مدیریت ریسک اجرا میشود که تجربه ندارند، اعمال کنند. با فناوری های هوش مصنوعی.”
به گفته او، چنین تلاشهایی «احتمالاً منجر به بدترین جهانها میشود – احساس امنیت کاذب، کاهش خطر واقعی، و تلاشهای بیهوده اضافی که پذیرش و نوآوری را خفه میکند».
NIST “به طور منحصر به فرد” برای پر کردن جای خالی قرار گرفته است
اندرو برت، شریک مدیریت شرکت حقوقی BNH.AI، به VentureBeat گفت، با این حال، بهترین شیوه های پذیرفته شده در مورد مدیریت ریسک هوش مصنوعی وجود ندارد، و شاغلین در هر دو جنبه فنی و حقوقی به راهنمایی روشن نیاز دارند.
او گفت: «وقتی نوبت به مدیریت ریسک هوش مصنوعی میرسد، پزشکان اغلب احساس میکنند که در غرب وحشی فعالیت میکنند. NIST به طور منحصربهفردی برای پر کردن این خلأ قرار گرفته است و چارچوب مدیریت ریسک هوش مصنوعی شامل راهنماییهای واضح و مؤثر در مورد اینکه چگونه سازمانها میتوانند بهطور انعطافپذیر اما مؤثر ریسکهای هوش مصنوعی را مدیریت کنند، است. من انتظار دارم RMF استانداردی را برای نحوه مدیریت خطرات هوش مصنوعی در آینده توسط سازمانها تعیین کند، نه فقط در ایالات متحده، بلکه در سطح جهانی.
ماموریت VentureBeat این است که یک میدان شهر دیجیتال برای تصمیم گیرندگان فنی باشد تا دانشی در مورد فناوری سازمانی متحول کننده کسب کنند و معامله کنند. جلسات توجیهی ما را کشف کنید.