هوش مصنوعی برای امنیت اینجاست. اکنون ما به امنیت برای هوش مصنوعی نیاز داریم


در تاریخ 11 تا 12 ژوئیه به مدیران ارشد در سانفرانسیسکو بپیوندید تا بشنوید که چگونه رهبران سرمایه‌گذاری‌های هوش مصنوعی را برای موفقیت ادغام و بهینه می‌کنند.. بیشتر بدانید


پس از انتشار ChatGPT، هوش مصنوعی (AI)، یادگیری ماشین (ML) و مدل‌های زبان بزرگ (LLM) به موضوع شماره یک بحث برای متخصصان امنیت سایبری، فروشندگان و سرمایه‌گذاران تبدیل شده‌اند. این تعجبی ندارد. همانطور که مارک آندرسن یک دهه پیش اشاره کرد، نرم افزار در حال خوردن جهان است و هوش مصنوعی شروع به خوردن نرم افزار کرده است.

علیرغم تمام توجهی که هوش مصنوعی در این صنعت به خود جلب کرده است، اکثریت قریب به اتفاق بحث ها بر این موضوع متمرکز شده است که چگونه پیشرفت های هوش مصنوعی بر قابلیت های امنیتی دفاعی و تهاجمی تأثیر می گذارد. چیزی که زیاد مورد بحث قرار نمی گیرد این است که چگونه بار کاری هوش مصنوعی را ایمن می کنیم.

در طی چند ماه گذشته، شاهد هستیم که بسیاری از فروشندگان امنیت سایبری محصولاتی را با هوش مصنوعی راه اندازی کرده اند، مانند Microsoft Security Copilot، ChatGPT را به پیشنهادات موجود القا کرده اند یا حتی موقعیت یابی را به طور کلی تغییر داده اند، مانند نحوه تبدیل شدن ShiftLeft به هوش مصنوعی Qwiet. من پیش بینی می کنم که همچنان شاهد سیل انتشارات مطبوعاتی از سوی ده ها و حتی صدها فروشنده امنیتی باشیم که محصولات جدید هوش مصنوعی را راه اندازی می کنند. واضح است که هوش مصنوعی برای امنیت اینجاست.

نگاهی کوتاه به بردارهای حمله سیستم های هوش مصنوعی

ایمن‌سازی سیستم‌های هوش مصنوعی و ML دشوار است، زیرا آنها دو نوع آسیب‌پذیری دارند: آسیب‌پذیری‌هایی که در انواع دیگر برنامه‌های نرم‌افزاری رایج هستند و آسیب‌پذیری‌هایی که منحصر به AI/ML هستند.

رویداد

تبدیل 2023

در 11 تا 12 جولای در سانفرانسیسکو به ما بپیوندید، جایی که مدیران ارشد نحوه ادغام و بهینه سازی سرمایه گذاری های هوش مصنوعی برای موفقیت و اجتناب از دام های رایج را به اشتراک می گذارند.

اکنون ثبت نام کنید

ابتدا، بیایید بدیهیات را از سر راه برداریم: کدی که هوش مصنوعی و ML را تقویت می کند، به اندازه کدهایی که هر نرم افزار دیگری را اجرا می کند، دارای آسیب پذیری است. برای چندین دهه، شاهد بوده ایم که مهاجمان کاملاً قادر به یافتن و سوء استفاده از شکاف های کد برای رسیدن به اهداف خود هستند. این موضوع یک موضوع گسترده از امنیت کد را مطرح می کند، که تمام بحث های مربوط به تست امنیت نرم افزار، تغییر به چپ، امنیت زنجیره تامین و موارد مشابه را در بر می گیرد.

از آنجایی که سیستم‌های هوش مصنوعی و ML برای تولید خروجی‌ها پس از دریافت و تجزیه و تحلیل مقادیر زیادی از داده‌ها طراحی شده‌اند، چندین چالش منحصر به فرد در ایمن سازی آنها در انواع دیگر سیستم‌ها دیده نمی‌شود. MIT Sloan این چالش‌ها را با سازماندهی آسیب‌پذیری‌های مرتبط در پنج دسته خلاصه کرد: ریسک‌های داده، ریسک‌های نرم‌افزاری، خطرات ارتباطات، ریسک‌های عامل انسانی و ریسک‌های سیستم.

برخی از خطراتی که ارزش برجسته کردن دارند عبارتند از:

  • حملات مسمومیت و دستکاری داده ها. مسمومیت داده زمانی اتفاق می افتد که مهاجمان داده های خام مورد استفاده توسط مدل AI/ML را دستکاری کنند. یکی از مهم‌ترین مسائل مربوط به دستکاری داده‌ها این است که مدل‌های AI/ML را نمی‌توان به راحتی پس از شناسایی ورودی‌های اشتباه تغییر داد.
  • حملات افشای مدل زمانی اتفاق می‌افتد که یک مهاجم ورودی‌های طراحی‌شده با دقت ارائه می‌دهد و خروجی‌های حاصل از الگوریتم را مشاهده می‌کند.
  • دزدیدن مدل ها پس از آموزش. انجام این کار می تواند مهاجمان را قادر می سازد تا داده های حساسی را که برای آموزش مدل استفاده شده است، به دست آورند، از خود مدل برای سود مالی استفاده کنند یا بر تصمیمات آن تأثیر بگذارند. برای مثال، اگر یک بازیگر بد بداند وقتی چیزی به عنوان رفتار مخرب پرچم‌گذاری می‌شود، چه عواملی در نظر گرفته می‌شود، می‌تواند راهی برای اجتناب از این نشانگرها و دور زدن یک ابزار امنیتی که از مدل استفاده می‌کند، بیابد.
  • مدل حملات مسمومیت دستکاری در الگوریتم های زیربنایی می تواند این امکان را برای مهاجمان ایجاد کند که بر تصمیمات الگوریتم تأثیر بگذارند.

در دنیایی که تصمیمات در زمان واقعی اتخاذ و اجرا می‌شوند، تأثیر حملات بر روی الگوریتم می‌تواند منجر به عواقب فاجعه‌باری شود. نمونه‌ای از آن داستان Knight Capital است که به دلیل اشکال در الگوریتم معاملات فرکانس بالا این شرکت، 460 میلیون دلار در 45 دقیقه از دست داد. این شرکت در آستانه ورشکستگی قرار گرفت و مدت کوتاهی پس از آن توسط رقیب خود خریداری شد. اگرچه در این مورد خاص، این موضوع به هیچ رفتار خصمانه ای مربوط نمی شد، این یک تصویر عالی از تأثیر بالقوه یک خطا در یک الگوریتم است.

چشم انداز امنیتی هوش مصنوعی

از آنجایی که پذیرش و کاربرد انبوه هوش مصنوعی هنوز نسبتاً جدید است، امنیت هوش مصنوعی هنوز به خوبی درک نشده است. در مارس 2023، آژانس امنیت سایبری اتحادیه اروپا (ENISA) سندی را با عنوان امنیت سایبری هوش مصنوعی و استانداردسازی با هدف ارائه یک نمای کلی از استانداردهای (موجود، در حال تهیه، در دست بررسی و برنامه ریزی) مرتبط با امنیت سایبری هوش مصنوعی منتشر کرد. پوشش آنها را ارزیابی کرده و شکاف ها را در استانداردسازی شناسایی کنید. از آنجایی که اتحادیه اروپا انطباق را دوست دارد، تمرکز این سند بر روی استانداردها و مقررات است، نه توصیه های عملی برای رهبران و دست اندرکاران امنیتی.

در مورد مشکل امنیت هوش مصنوعی آنلاین مطالب زیادی وجود دارد، اگرچه در مقایسه با موضوع استفاده از هوش مصنوعی برای دفاع و حمله سایبری به طور قابل توجهی کمتر به نظر می رسد. بسیاری ممکن است استدلال کنند که امنیت هوش مصنوعی را می توان با همکاری افراد و ابزارها از چندین رشته از جمله داده ها، نرم افزارها و امنیت ابری با یکدیگر حل کرد، اما دلیل محکمی برای یک تخصص متمایز وجود دارد.

وقتی صحبت از چشم انداز فروشنده به میان می آید، من امنیت AI/ML را به عنوان یک زمینه در حال ظهور دسته بندی می کنم. خلاصه ای که در ادامه می آید مروری کوتاه بر فروشندگان در این فضا دارد. توجه داشته باشید که:

  • نمودار فقط شامل فروشندگان در امنیت مدل AI/ML می شود. سایر بازیگران مهم در زمینه هایی که به امنیت هوش مصنوعی کمک می کنند مانند رمزگذاری، داده ها یا امنیت ابری را شامل نمی شود.
  • این نمودار شرکت ها را در دو محور ترسیم می کند: سرمایه جذب شده و پیروان لینکدین. قابل درک است که فالوورهای لینکدین بهترین معیار برای مقایسه نیستند، اما هر معیار دیگری نیز ایده آل نیست.

اگرچه به طور قطع بنیانگذاران بیشتری وجود دارند که با این مشکل در حالت مخفی کاری مقابله می کنند، همچنین آشکار است که فضای امنیتی مدل AI/ML از اشباع دور است. از آنجایی که این فناوری‌های نوآورانه مورد استقبال گسترده قرار می‌گیرند، ناگزیر شاهد حملات و با آن تعداد فزاینده‌ای از کارآفرینانی خواهیم بود که به دنبال مقابله با این چالش دشوار هستند.

یادداشت های پایانی

در سال‌های آینده، شاهد تغییر شکل هوش مصنوعی و ML در نحوه عملکرد افراد، سازمان‌ها و کل صنایع خواهیم بود. هر بخش از زندگی ما – از قانون، تولید محتوا، بازاریابی، مراقبت های بهداشتی، مهندسی و عملیات فضایی – دستخوش تغییرات قابل توجهی خواهد شد. با این حال، تأثیر واقعی و میزان بهره مندی ما از پیشرفت‌های AI/ML به این بستگی دارد که ما به عنوان یک جامعه چگونه جنبه‌هایی را که مستقیماً تحت تأثیر این فناوری قرار می‌گیرند، از جمله اخلاق، قانون، مالکیت معنوی و موارد مشابه انتخاب می‌کنیم. با این حال، مسلماً یکی از مهم‌ترین بخش‌ها، توانایی ما برای محافظت از داده‌ها، الگوریتم‌ها و نرم‌افزارهایی است که هوش مصنوعی و ML روی آن‌ها اجرا می‌شوند.

در دنیایی که از هوش مصنوعی بهره می‌برد، هر رفتار غیرمنتظره‌ای از الگوریتم که داده‌های زیربنایی یا سیستم‌هایی را که روی آن‌ها اجرا می‌شوند به خطر بیاندازد، پیامدهای واقعی خواهد داشت. تأثیر دنیای واقعی سیستم‌های هوش مصنوعی به خطر افتاده می‌تواند فاجعه‌بار باشد: بیماری‌های اشتباه تشخیص داده شده منجر به تصمیم‌گیری‌های پزشکی که نمی‌توان آنها را لغو کرد، سقوط بازارهای مالی و تصادفات اتومبیل، به نام چند مورد.

اگرچه بسیاری از ما تخیلات عالی داریم، اما هنوز نمی‌توانیم طیف وسیعی از راه‌هایی را که می‌توانیم تحت تأثیر قرار بگیریم، به طور کامل درک کنیم. از امروز، به نظر نمی رسد که هیچ خبری در مورد هک AI/ML پیدا کنید. ممکن است به این دلیل باشد که هیچ موردی وجود ندارد، یا به احتمال زیاد به این دلیل است که هنوز شناسایی نشده است. این به زودی تغییر خواهد کرد.

با وجود خطر، من معتقدم آینده می تواند روشن باشد. هنگامی که زیرساخت اینترنت ساخته شد، امنیت یک فکر بعدی بود، زیرا در آن زمان، ما هیچ تجربه ای در طراحی سیستم های دیجیتال در مقیاس سیاره ای نداشتیم یا هیچ ایده ای در مورد اینکه آینده ممکن است چگونه باشد، نداشتیم.

امروز، ما در مکان بسیار متفاوتی هستیم. اگرچه استعداد امنیتی کافی وجود ندارد، اما درک محکمی وجود دارد که امنیت بسیار مهم است و ایده مناسبی از اینکه اصول اساسی امنیت چگونه به نظر می رسد وجود دارد. این، همراه با این واقعیت که بسیاری از نوآوران باهوش صنعت برای ایمن سازی هوش مصنوعی تلاش می کنند، به ما فرصتی می دهد تا اشتباهات گذشته را تکرار نکنیم و این فناوری جدید را بر پایه ای محکم و مطمئن بسازیم.

آیا از این فرصت استفاده خواهیم کرد؟ فقط زمان می تواند بگوید. در حال حاضر، من کنجکاو هستم که چه نوع جدیدی از مشکلات امنیتی را هوش مصنوعی و ML به ارمغان خواهد آورد و در نتیجه چه نوع راه حل های جدیدی در صنعت پدیدار خواهد شد.

راس هالیوک یک رهبر محصولات امنیت سایبری، رئیس محصولات LimaCharlie و نویسنده Venture است. در امنیت.

DataDecisionMakers

به انجمن VentureBeat خوش آمدید!

DataDecisionMakers جایی است که کارشناسان، از جمله افراد فنی که کار داده را انجام می دهند، می توانند بینش ها و نوآوری های مرتبط با داده را به اشتراک بگذارند.

اگر می‌خواهید درباره ایده‌های پیشرفته و اطلاعات به‌روز، بهترین شیوه‌ها و آینده فناوری داده و داده مطالعه کنید، به ما در DataDecisionMakers بپیوندید.

شما حتی ممکن است در نظر داشته باشید که مقاله ای از خودتان ارائه دهید!

از DataDecisionMakers بیشتر بخوانید