اینتل از آشکارساز دیپ فیک بلادرنگ رونمایی کرد که میزان دقت آن 96 درصد است


جلسات درخواستی از اجلاس Low-Code/No-Code را بررسی کنید تا بیاموزید چگونه با ارتقاء مهارت و مقیاس‌بندی توسعه‌دهندگان شهروند، نوآوری موفقیت‌آمیز و دستیابی به کارایی داشته باشید. الان ببین.


روز دوشنبه، اینتل FakeCatcher را معرفی کرد، که می‌گوید اولین آشکارساز بی‌درنگ دیپ‌فیک است – یعنی رسانه مصنوعی که در آن شخص در یک تصویر یا ویدیوی موجود با شباهت شخص دیگری جایگزین می‌شود.

اینتل ادعا می کند که این محصول دارای نرخ دقت 96 درصدی است و با تجزیه و تحلیل “جریان خون” ظریف در پیکسل های ویدئویی کار می کند تا نتایج را در میلی ثانیه برگرداند.

ایلکه دمیر، دانشمند ارشد تحقیقاتی کارکنان در آزمایشگاه های اینتل، FakeCatcher را با همکاری Umur Ciftci از دانشگاه ایالتی نیویورک در Binghamton طراحی کرد. این محصول از سخت‌افزار و نرم‌افزار اینتل استفاده می‌کند، روی سرور اجرا می‌شود و از طریق یک پلتفرم مبتنی بر وب رابط کاربری دارد.

آشکارساز دیپ فیک اینتل بر اساس سیگنال های PPG است

برخلاف بسیاری از آشکارسازهای دیپ‌فیک مبتنی بر یادگیری عمیق، که به داده‌های خام نگاه می‌کنند تا عدم اصالت را مشخص کنند، FakeCatcher بر سرنخ‌های درون ویدیوهای واقعی متمرکز است. این روش مبتنی بر فوتوپلتیسموگرافی یا PPG است، روشی برای اندازه گیری میزان نوری که توسط عروق خونی در بافت زنده جذب یا منعکس می شود. وقتی قلب خون را پمپاژ می کند به سمت سیاهرگ ها می رود که رنگ آنها تغییر می کند.

رویداد

اجلاس امنیت هوشمند

نقش حیاتی AI و ML در امنیت سایبری و مطالعات موردی خاص صنعت را در 8 دسامبر بیاموزید. امروز برای پاس رایگان خود ثبت نام کنید.

اکنون ثبت نام کنید

دمیر به VentureBeat گفت: “شما نمی توانید آن را با چشمان خود ببینید، اما از نظر محاسباتی قابل مشاهده است.” سیگنال‌های PPG شناخته شده‌اند، اما قبلاً برای مشکل دیپ‌فیک استفاده نشده‌اند.

او توضیح داد که با FakeCatcher، سیگنال‌های PPG از 32 مکان روی صورت جمع‌آوری می‌شوند و سپس نقشه‌های PPG از اجزای زمانی و طیفی ایجاد می‌شوند.

دمیر گفت: «ما آن نقشه‌ها را می‌گیریم و یک شبکه عصبی کانولوشنال را در بالای نقشه‌های PPG آموزش می‌دهیم تا آنها را به عنوان جعلی و واقعی طبقه‌بندی کنیم. سپس، به لطف فناوری‌های اینتل مانند [the] چارچوب تقویت یادگیری عمیق برای استنتاج و افزونه‌های برداری پیشرفته 512، ما می‌توانیم آن را در زمان واقعی و حداکثر 72 جریان تشخیص همزمان اجرا کنیم.

تشخیص در مواجهه با تهدیدات فزاینده اهمیت دارد

بر اساس مقاله تحقیقاتی اخیر اریک هورویتز، مدیر ارشد علمی مایکروسافت، با ظهور تهدیدات دیپ فیک، تشخیص دیپ فیک اهمیت فزاینده ای پیدا کرده است. اینها شامل دیپ‌فیک‌های تعاملی است که توهم صحبت کردن با یک شخص واقعی را ارائه می‌دهد، و دیپ‌فیک‌های ترکیبی، که در آن بازیگران بد، دیپ‌فیک‌های زیادی برای جمع‌آوری یک «تاریخ مصنوعی» ایجاد می‌کنند.

و در سال 2020، Forrester Research پیش بینی کرد که هزینه های مرتبط با کلاهبرداری های عمیق از 250 میلیون دلار فراتر خواهد رفت.

اخیراً اخبار مربوط به دیپ فیک سلبریتی ها زیاد شده است. پوشش وال استریت ژورنال از تام کروز، ایلان ماسک و لئوناردو دی کاپریو که در تبلیغات غیرمجاز ظاهر می شوند، و همچنین شایعاتی در مورد اینکه بروس ویلیس حقوق شباهت دیپ فیک خود را از دست داده است (صحت ندارد).

از طرف دیگر، موارد استفاده مسئول و مجاز زیادی برای دیپ فیک وجود دارد. شرکت‌هایی مانند Hour One و Synthesia برای تنظیمات کسب‌وکار سازمانی – برای مثال برای آموزش کارمندان، آموزش و تجارت الکترونیک، دیپ‌فیک ارائه می‌کنند. یا، دیپ فیک ممکن است توسط کاربرانی مانند افراد مشهور و رهبران شرکت ایجاد شود که می خواهند از رسانه های مصنوعی برای “برون سپاری” به یک دوقلو مجازی استفاده کنند. در این موارد، این امید وجود دارد که راهی برای شفافیت کامل و منشأ رسانه های مصنوعی پدیدار شود.

دمیر گفت که اینتل در حال انجام تحقیقات است اما در مراحل اولیه است. او گفت: “FakeCatcher بخشی از یک تیم تحقیقاتی بزرگتر در اینتل به نام Trusted Media است که بر روی تشخیص محتوای دستکاری شده – دیپ فیک ها – تولید مسئول و منشأ رسانه ای کار می کند.” در کوتاه‌مدت، تشخیص در واقع راه‌حلی برای دیپ‌فیک است – و ما در حال توسعه آشکارسازهای مختلف بر اساس سرنخ‌های اصالت مختلف، مانند تشخیص نگاه، هستیم.

گام بعدی پس از آن، شناسایی منبع، یا یافتن مدل GAN است که در پشت هر دیپ‌فیک قرار دارد، او گفت: «نقطه طلایی آنچه ما تصور می‌کنیم، داشتن مجموعه‌ای از همه این مدل‌های هوش مصنوعی است، بنابراین می‌توانیم یک اجماع الگوریتمی ارائه کنیم. در مورد اینکه چه چیزی جعلی است و چه چیزی واقعی است.»

تاریخچه چالش ها با تشخیص دیپ فیک

متأسفانه، شناسایی دیپ فیک در چندین جبهه چالش برانگیز بوده است. بر اساس تحقیقات سال 2021 از دانشگاه کالیفرنیای جنوبی، برخی از مجموعه داده‌های مورد استفاده برای آموزش سیستم‌های تشخیص عمیق دروغین ممکن است نشان‌دهنده افراد از یک جنسیت خاص یا با رنگ پوست خاص نباشد. به گفته نویسندگان همکار، این سوگیری را می توان در آشکارسازهای دیپ فیک تقویت کرد، با برخی از آشکارسازها تا 10.7 درصد تفاوت در میزان خطا بسته به گروه نژادی نشان می دهد.

و در سال 2020، محققان گوگل و دانشگاه کالیفرنیا در برکلی نشان دادند که حتی بهترین سیستم‌های هوش مصنوعی که برای تمایز بین محتوای واقعی و مصنوعی آموزش دیده‌اند، در معرض حملات خصمانه قرار دارند که آنها را به طبقه‌بندی تصاویر جعلی به عنوان واقعی سوق می‌دهد.

علاوه بر این، ادامه بازی موش و گربه بین سازندگان دیپ فیک و آشکارسازها وجود دارد. اما دمیر گفت که در حال حاضر نمی توان FakeCatcher اینتل را فریب داد.

او گفت: «از آنجایی که استخراج PPG که ما استفاده می‌کنیم قابل تمایز نیست، شما نمی‌توانید آن را فقط به عملکرد از دست دادن یک شبکه متخاصم متصل کنید، زیرا کار نمی‌کند و اگر متمایز نباشد، نمی‌توانید پس‌پخش کنید. اگر نمی‌خواهید استخراج دقیق PPG را یاد بگیرید، اما می‌خواهید آن را تقریبی کنید، به مجموعه داده‌های PPG عظیمی نیاز دارید که در حال حاضر وجود ندارند. [datasets of] 30-40 نفر که قابل تعمیم به کل نیستند.»

اما روآن کوران، تحلیلگر AI/ML در تحقیقات Forrester، از طریق ایمیل به VentureBeat گفت که “ما در یک مسابقه تسلیحاتی تکاملی طولانی هستیم” در مورد توانایی تعیین اینکه آیا یک قطعه متن، صدا یا ویدیو توسط انسان تولید شده است یا خیر.

“در حالی که ما هنوز در مراحل اولیه این کار هستیم، آشکارساز دیپ فیک اینتل می تواند گام مهمی به جلو باشد اگر به همان اندازه که ادعا می شود دقیق باشد، و به طور خاص اگر این دقت به انسان موجود در ویدئو بستگی نداشته باشد که ویژگی خاصی داشته باشد ( به عنوان مثال، رنگ پوست، شرایط نور، میزان پوستی که در ویدیو قابل مشاهده است.» او گفت.

ماموریت VentureBeat این است که یک میدان شهر دیجیتال برای تصمیم گیرندگان فنی باشد تا دانشی در مورد فناوری سازمانی متحول کننده کسب کنند و معامله کنند. جلسات توجیهی ما را کشف کنید.