آیا Big Tech می تواند مسئول خروجی AI مولد باشد؟ قاضی دیوان عالی می گوید که فرضاً بله


تمام جلسات درخواستی از اجلاس امنیت هوشمند را در اینجا بررسی کنید.


به گفته ویل اورموس در واشنگتن پست، در یک لحظه غافلگیرکننده در جریان جلسه امروز دادگاه عالی درباره پرونده گوگل که می‌تواند بر آزادی بیان آنلاین تأثیر بگذارد، قاضی نیل ام. گورسچ به مسئولیت بالقوه برای خروجی هوش مصنوعی مولد اشاره کرد.

در پرونده گونزالس علیه گوگل در مقابل دادگاه، خانواده آمریکایی کشته شده در حمله تروریستی داعش در پاریس در سال 2015 استدلال می کنند که گوگل و شرکت تابعه آن یوتیوب به اندازه کافی برای حذف یا توقف تبلیغ ویدئوهای تروریستی داعش که به دنبال عضوگیری از اعضا هستند، انجام نداده اند. . به گفته وکلای مدافع خانواده، این اقدام قانون ضد تروریسم را نقض می کند.

در احکام دادگاه‌های پایین‌تر، گوگل با این استدلال که بخش 230 قانون نجابت ارتباطات، آن را در برابر مسئولیت مطالبی که کاربرانش در پلتفرم خود پست می‌کنند محافظت می‌کند، پیروز شد.

آیا هوش مصنوعی مولد توسط بخش 230 محافظت می شود؟

با توجه به پوشش زنده واشنگتن پست، موتورهای جستجو از لحاظ تاریخی «به سؤالات کاربران با پیوندهایی به وب‌سایت‌های شخص ثالث پاسخ می‌دهند، و بر اساس بخش 230 دفاعی نسبتاً واضح ایجاد می‌کنند که آنها نباید در قبال محتوای آن سایت‌ها مسئولیتی داشته باشند. . اما از آنجایی که موتورهای جستجو شروع به پاسخگویی مستقیم به برخی از سوالات کاربران با استفاده از نرم‌افزار هوش مصنوعی خود می‌کنند، این سوال باز است که آیا می‌توان از آنها به عنوان ناشر یا گوینده آنچه چت‌بات‌هایشان می‌گویند شکایت کرد.

رویداد

اجلاس امنیت هوشمند بر حسب تقاضا

نقش حیاتی هوش مصنوعی و ML در امنیت سایبری و مطالعات موردی خاص صنعت را بیاموزید. امروز جلسات درخواستی را تماشا کنید.

اینجا را تماشا کنید

در جریان پرسش روز سه‌شنبه، گورسوچ از هوش مصنوعی مولد به‌عنوان نمونه‌ای فرضی از زمانی که یک پلتفرم فناوری توسط بخش 230 محافظت نمی‌شود، استفاده کرد.

او گفت: «هوش مصنوعی شعر تولید می کند. «امروزه بحث‌هایی ایجاد می‌کند که محتوایی فراتر از انتخاب، انتخاب، تجزیه و تحلیل یا هضم محتوا است. و این محافظت نمی شود. بیایید فرض کنیم که درست است. سپس این سؤال پیش می‌آید که در مورد توصیه‌ها چه کار کنیم؟»

از آنجایی که ابزارهای مولد هوش مصنوعی مانند ChatGPT و DALL-E 2 در یک سال گذشته در آگاهی عمومی منفجر شدند، در طول مسیر نبردهای قانونی در جریان بوده است.

به عنوان مثال، در ماه نوامبر یک شکایت پیشنهادی علیه GitHub، مایکروسافت و OpenAI به اتهام نقض کد نرم افزار محافظت شده از طریق GitHub Copilot، یک ابزار هوش مصنوعی مولد که برای کمک به برنامه نویسان نرم افزار است، اعلام شد.

و در اواسط ژانویه، اولین شکایت طبقه‌بندی نقض حق چاپ در مورد هنر هوش مصنوعی علیه دو شرکت متمرکز بر هنر AI مولد منبع باز – Stability AI (که Stable Diffusion را توسعه داد) و Midjourney – و همچنین DeviantArt، یک هنر آنلاین تنظیم شد. انجمن.

اما اکنون، به نظر می‌رسد که سؤالات مربوط به سؤالات مربوط به مسئولیت ممکن است وقتی صحبت از مسائل حقوقی در مورد فناوری بزرگ و هوش مصنوعی مولد به میان می‌آید، در مرکز توجه قرار گیرد. گوش به زنگ باشید.

ماموریت VentureBeat این است که یک میدان شهر دیجیتال برای تصمیم گیرندگان فنی باشد تا دانشی در مورد فناوری سازمانی متحول کننده کسب کنند و معامله کنند. جلسات توجیهی ما را کشف کنید.