نحوه استفاده از هوش مصنوعی مسئول برای مدیریت ریسک


ما هیجان زده هستیم که Transform 2022 را به صورت حضوری در 19 ژوئیه و تقریباً 20 تا 28 ژوئیه بازگردانیم. برای گفتگوهای روشنگر و فرصت های شبکه هیجان انگیز به رهبران هوش مصنوعی و داده بپیوندید. امروز ثبت نام کنید!


در حالی که راه حل های مبتنی بر هوش مصنوعی به سرعت در حال تبدیل شدن به یک فناوری اصلی در سراسر صنایع هستند، همچنین مشخص شده است که استقرار به مدیریت دقیق برای جلوگیری از آسیب های غیرعمدی نیاز دارد. همانطور که در مورد بیشتر ابزارها وجود دارد، هوش مصنوعی این پتانسیل را دارد که افراد و شرکت‌ها را در معرض مجموعه‌ای از خطرات قرار دهد، خطراتی که در غیر این صورت می‌توانستند از طریق ارزیابی دقیق پیامدهای احتمالی در اوایل فرآیند کاهش داده شوند.

اینجاست که «هوش مصنوعی مسئول» به میان می‌آید – یعنی یک چارچوب حاکمیتی که نحوه رسیدگی یک سازمان خاص به چالش‌های اخلاقی و قانونی پیرامون هوش مصنوعی را مستند می‌کند. یکی از انگیزه‌های کلیدی برای تلاش‌های مسئولانه هوش مصنوعی، رفع ابهام در مورد اینکه اگر مشکلی پیش بیاید چه کسی پاسخگو است.

طبق آخرین گزارش Tech Vision Accenture، تنها 35 درصد از مصرف کنندگان جهانی به نحوه پیاده سازی هوش مصنوعی اعتماد دارند. و 77 درصد فکر می کنند که شرکت ها باید مسئول سوء استفاده از هوش مصنوعی باشند.

اما توسعه استانداردهای اخلاقی و قابل اعتماد هوش مصنوعی تا حد زیادی به صلاحدید کسانی است که مدل های الگوریتمی هوش مصنوعی یک شرکت را می نویسند و به کار می برند. این بدان معنی است که مراحل مورد نیاز برای تنظیم هوش مصنوعی و اطمینان از شفافیت از کسب و کار به کسب و کار متفاوت است.

و بدون هیچ گونه خط مشی و فرآیند تعریف شده ای، هیچ راهی برای ایجاد پاسخگویی و تصمیم گیری آگاهانه در مورد نحوه سازگار نگه داشتن برنامه های کاربردی هوش مصنوعی و سودآوری برندها وجود ندارد.

یکی دیگر از چالش های اصلی یادگیری ماشینی، شکاف عظیم تخصص هوش مصنوعی است که بین سیاست گذاران و دانشمندان داده و توسعه دهندگان وجود دارد. ذینفعانی که مدیریت ریسک را درک می‌کنند، لزوماً ابزار لازم برای به کارگیری مجموعه مهارت‌ها در عملیات یادگیری ماشین و اعمال حاکمیت و کنترل‌های مناسب را ندارند.

این مشکلات به عنوان الهام بخش Credo AI مستقر در پالو آلتو بود که در سال 2020 برای پر کردن شکاف بین دانش فنی سیاستگذاران و دانش اخلاقی دانشمندان داده، به منظور اطمینان از توسعه پایدار هوش مصنوعی، تأسیس شد.

عملی کردن هوش مصنوعی مسئول

ناورینا سینگ، بنیانگذار و مدیر عامل این شرکت، به VentureBeat گفت: «ما اولین پلتفرم مدیریت هوش مصنوعی مسئولانه را ایجاد کردیم زیرا فرصتی را دیدیم تا به شرکت‌ها کمک کنیم تا سیستم‌های هوش مصنوعی و مدل‌های یادگیری ماشین خود را با ارزش‌های انسانی هماهنگ کنند.

سینگ پس از پایان دور مالی 12.8 میلیون دلاری سری A به رهبری سندز کپیتال، امیدوار است که بتواند مدیریت مسئول هوش مصنوعی را به شرکت های بیشتری در سراسر جهان برساند. این بودجه برای تسریع توسعه محصول، ایجاد یک تیم قوی برای عرضه به بازار برای پیشبرد رهبری مسئولیت‌پذیر در بخش هوش مصنوعی Credo AI و تقویت عملکرد سیاست فناوری برای پشتیبانی از استانداردها و مقررات در حال ظهور استفاده می‌شود.

سینگ و تیمش با داشتن مشتریان Fortune 500 در خدمات مالی، بانکداری، خرده فروشی، بیمه و دفاع، می خواهند شرکت ها را برای اندازه گیری، نظارت و مدیریت ریسک های معرفی شده توسط هوش مصنوعی در مقیاس توانمند کنند.

آینده حکمرانی هوش مصنوعی

علیرغم اینکه غول‌های فناوری مانند گوگل و مایکروسافت به آرامی پرده را کنار می‌کشند تا نحوه نزدیک شدنشان به هوش مصنوعی در محل کارشان را به اشتراک بگذارند، هوش مصنوعی مسئول حوزه نسبتا جدیدی است که هنوز در حال تکامل است.

سینگ خاطرنشان می‌کند که آینده‌ای را متصور است که در آن شرکت‌ها هوش مصنوعی مسئول را همانطور که امنیت سایبری انجام می‌دهند، در اولویت قرار می‌دهند. او می‌گوید: «همانند آنچه که در زمینه تغییرات آب و هوا و امنیت سایبری می‌بینیم، ما شاهد افشای اطلاعات بیشتر در مورد داده‌ها و سیستم‌های هوش مصنوعی خواهیم بود».

اگرچه تغییرات قانونی در نظارت بر هوش مصنوعی در آینده نزدیک بعید به نظر می رسد، اما یک چیز قطعی است – سیاست گذاران و شرکت های خصوصی باید با هم کار کنند تا همه سهامداران را در یک صفحه قرار دهند – هم از نظر انطباق و هم مسئولیت پذیری.

ماموریت VentureBeat این است که یک میدان شهر دیجیتال برای تصمیم گیرندگان فنی باشد تا دانشی در مورد فناوری سازمانی متحول کننده کسب کنند و معامله کنند. کسب اطلاعات بیشتر در مورد عضویت.