در تاریخ 11 تا 12 ژوئیه به مدیران ارشد در سانفرانسیسکو بپیوندید تا بشنوید که چگونه رهبران سرمایهگذاریهای هوش مصنوعی را برای موفقیت ادغام و بهینه میکنند.. بیشتر بدانید
Skyflow مستقر در پالو آلتو در کالیفرنیا، شرکتی که تعبیه حریم خصوصی دادهها را در برنامههای خود برای توسعهدهندگان آسانتر میکند، امروز از راهاندازی «حفظ حریم خصوصی» برای مدلهای زبان بزرگ خبر داد.
این راه حل، همانطور که از نام آن پیداست، لایه ای از حریم خصوصی و امنیت داده ها را در طول چرخه عمر LLM به شرکت ها ارائه می دهد، که با جمع آوری داده ها شروع می شود و از طریق آموزش و استقرار مدل ادامه می یابد.
این امر زمانی اتفاق میافتد که شرکتها در سراسر بخشها به رقابت برای تعبیه LLMها، مانند سری مدلهای GPT، در جریان کار خود برای سادهسازی فرآیندها و افزایش بهرهوری ادامه میدهند.
چرا یک خزانه حریم خصوصی برای مدل های GPT؟
امروزه LLM ها بسیار محبوب هستند و به مواردی مانند تولید متن، تولید تصویر و خلاصه سازی کمک می کنند. با این حال، اکثر مدلهایی که در آنجا وجود دارند، بر روی دادههای در دسترس عموم آموزش دیدهاند. این باعث میشود که آنها برای استفاده عمومی گستردهتر مناسب باشند، اما نه چندان برای جنبههای سازمانی.
رویداد
تبدیل 2023
در 11 تا 12 جولای در سانفرانسیسکو به ما بپیوندید، جایی که مدیران ارشد نحوه ادغام و بهینه سازی سرمایه گذاری های هوش مصنوعی برای موفقیت و اجتناب از دام های رایج را به اشتراک می گذارند.
اکنون ثبت نام کنید
برای اینکه LLM ها در تنظیمات خاص سازمانی کار کنند، شرکت ها باید آنها را بر اساس دانش داخلی خود آموزش دهند. تعداد کمی قبلاً این کار را انجام دادهاند یا در حال انجام آن هستند، اما این کار آسان نیست، زیرا باید اطمینان حاصل کنید که دادههای داخلی و حیاتی تجاری مورد استفاده برای آموزش مدل در تمام مراحل فرآیند محافظت میشوند.
این دقیقاً همان جایی است که مخزن حریم خصوصی GPT Skyflow وارد می شود.
ارائه شده از طریق API، این راه حل یک محیط امن ایجاد می کند و به کاربران امکان می دهد فرهنگ لغت داده های حساس خود را تعریف کنند و از آن اطلاعات در تمام مراحل چرخه عمر مدل محافظت شوند: جمع آوری داده، آماده سازی، آموزش مدل، تعامل و استقرار. پس از ادغام کامل، خزانه از فرهنگ لغت استفاده می کند و به طور خودکار اطلاعات انتخاب شده را در جریان GPT ویرایش یا توکن می کند – بدون اینکه به هیچ وجه ارزش خروجی را کاهش دهد.
آنشو شارما، بنیانگذار و مدیر عامل Skyflow، به VentureBeat گفت: «تکنیک رمزگذاری چند شکلی اختصاصی Skyflow به مدل این امکان را میدهد تا دادههای محافظتشده را بهطور یکپارچه مدیریت کند که گویی متن ساده هستند. از تمام دادههای حساسی که به مدلهای GPT سرازیر میشوند محافظت میکند و تنها زمانی که توسط مدل پردازش شده و بازگردانده شده است، اطلاعات حساس را به اشخاص مجاز نشان میدهد.»
به عنوان مثال، شارما توضیح داد، عناصر داده حساس به متن ساده مانند آدرسهای ایمیل و شمارههای امنیت اجتماعی قبل از ارائه ورودیها به GPT با توکنهای مدیریتشده توسط Skyflow مبادله میشوند. این اطلاعات توسط چندین لایه رمزگذاری و کنترل دسترسی دقیق در طول آموزش مدل محافظت می شود و در نهایت پس از بازگرداندن خروجی مدل GPT از توکن خارج می شود. در نتیجه، کاربران نهایی مجاز یک تجربه خروجی یکپارچه را با دادههای حساس به متن ساده که مدل GPT را دور میزنند، دریافت میکنند.
این کار به این دلیل کار میکند که GPT LLM از قبل ورودیها را تجزیه میکند تا الگوها و روابط بین آنها را تجزیه و تحلیل کند و سپس پیشبینیهایی در مورد آنچه در ادامه میآید انجام دهد. بنابراین، توکنسازی یا ویرایش دادههای حساس با Skyflow قبل از ارائه ورودیها به LLM بر کیفیت خروجی GPT LLM تأثیر نمیگذارد – الگوها و روابط مانند قبل از رمزگذاری دادههای حساس متن ساده توسط Skyflow باقی میمانند.

این پیشنهاد می تواند در زیرساخت داده موجود یک شرکت ادغام شود. همچنین از آموزش چند جانبه پشتیبانی میکند، جایی که دو یا چند نهاد میتوانند مجموعه دادههای ناشناس و مدلهای آموزش را برای باز کردن اطلاعات به اشتراک بگذارند.
موارد استفاده چندگانه
در حالی که مدیرعامل Skyflow تعداد شرکتهایی را که از خزانه حریم خصوصی GPT استفاده میکنند به اشتراک نمیگذارد، او خاطرنشان کرد که این پیشنهاد، که توسعه راهحلهای متمرکز بر حریم خصوصی موجود در شرکت است، به محافظت از دادههای حساس کارآزمایی بالینی در چرخه توسعه دارو کمک میکند. و همچنین داده های مشتری که توسط پلتفرم های سفر برای بهبود تجربیات مشتری استفاده می شود.
IBM نیز مشتری Skyflow است و از محصولات این شرکت برای شناسایی اطلاعات حساس در مجموعه داده های بزرگ قبل از تجزیه و تحلیل آنها از طریق AI/ML استفاده کرده است.
قابل ذکر است، همچنین رویکردهای جایگزینی برای مشکل حفظ حریم خصوصی وجود دارد، مانند ایجاد یک محیط ابری خصوصی برای اجرای مدلهای فردی یا یک نمونه خصوصی از ChatGPT. اما آنها می توانند بسیار گرانتر از راه حل Skyflow باشند.
در حال حاضر، در فضای حریم خصوصی و رمزگذاری داده ها، این شرکت با بازیکنانی مانند Immuta، Securiti، Vaultree، Privitar و Basis Theory رقابت می کند.
ماموریت VentureBeat این است که یک میدان شهر دیجیتال برای تصمیم گیرندگان فنی باشد تا دانشی در مورد فناوری سازمانی متحول کننده کسب کنند و معامله کنند. جلسات توجیهی ما را کشف کنید.