قدرت و مشکلات هوش مصنوعی برای اطلاعات ایالات متحده


در یکی از نمونه‌های استفاده موفقیت‌آمیز IC از هوش مصنوعی، پس از اتمام همه راه‌های دیگر – از جاسوسان انسانی گرفته تا اطلاعات سیگنال‌ها – ایالات متحده توانست با یافتن اتوبوسی که بین آن‌ها حرکت می‌کرد، یک مرکز تحقیقات و توسعه سلاح‌های کشتار جمعی ناشناس در یک کشور بزرگ آسیایی پیدا کند. و سایر امکانات شناخته شده به گفته یک مقام ارشد اطلاعاتی ایالات متحده که در پس زمینه صحبت می کرد، تحلیلگران برای انجام این کار، از الگوریتم هایی برای جستجو و ارزیابی تصاویر تقریباً هر اینچ مربع از کشور استفاده کردند.

در حالی که هوش مصنوعی می‌تواند برنامه‌ریزی‌هایی را محاسبه، بازیابی و استفاده کند که تحلیل‌های منطقی محدودی را انجام می‌دهد، اما فاقد محاسبات برای تشریح صحیح اجزای احساسی یا ناخودآگاه هوش انسانی است که توسط روانشناسان به عنوان تفکر سیستم 1 توصیف می‌شود.

برای مثال، هوش مصنوعی می‌تواند گزارش‌های اطلاعاتی مشابه مقالات روزنامه‌ای درباره بیسبال را تهیه کند که حاوی جریان غیرمنطقی ساختاریافته و عناصر محتوای تکراری است. با این حال، زمانی که خلاصه‌ها نیازمند پیچیدگی استدلال یا استدلال‌های منطقی هستند که نتیجه‌گیری را توجیه یا نشان می‌دهند، هوش مصنوعی فاقد آن است. این مقام اطلاعاتی می‌گوید زمانی که جامعه اطلاعاتی این قابلیت را آزمایش کرد، این محصول شبیه یک خلاصه اطلاعاتی به نظر می‌رسید، اما در غیر این صورت بی‌معنی بود.

چنین فرآیندهای الگوریتمی می‌توانند همپوشانی داشته باشند و لایه‌هایی از پیچیدگی را به استدلال محاسباتی اضافه کنند، اما حتی در آن صورت هم آن الگوریتم‌ها نمی‌توانند زمینه را به خوبی انسان تفسیر کنند، به خصوص وقتی صحبت از زبان می‌شود، مانند سخنان نفرت.

اریک کوروین، مدیر ارشد فناوری Pyrra Technologies، که تهدیدات مجازی برای مشتریان را از خشونت گرفته تا اطلاعات نادرست شناسایی می‌کند، می‌گوید درک هوش مصنوعی ممکن است بیشتر شبیه درک یک کودک نوپا انسان باشد. کوروین می‌گوید: «برای مثال، هوش مصنوعی می‌تواند اصول زبان انسان را درک کند، اما مدل‌های بنیادی دانش نهفته یا زمینه‌ای برای انجام وظایف خاص ندارند.

کوروین می افزاید: «از دیدگاه تحلیلی، هوش مصنوعی در تفسیر مقصود مشکل دارد. “علوم کامپیوتر یک رشته ارزشمند و مهم است، اما این دانشمندان محاسبات اجتماعی هستند که جهش های بزرگی را در توانمند ساختن ماشین ها برای تفسیر، درک و پیش بینی رفتار انجام می دهند.”

کوروین توضیح می‌دهد که برای «ساخت مدل‌هایی که می‌توانند جایگزین شهود یا شناخت انسان شوند، محققان ابتدا باید بفهمند که چگونه رفتار را تفسیر کنند و آن رفتار را به چیزی که هوش مصنوعی می‌تواند یاد بگیرد، ترجمه کند».

اگرچه یادگیری ماشین و تجزیه و تحلیل کلان داده، تجزیه و تحلیل پیش‌بینی‌کننده‌ای در مورد آنچه ممکن است اتفاق بیفتد یا احتمالاً رخ خواهد داد، ارائه می‌کند، اما نمی‌تواند به تحلیل‌گران توضیح دهد که چگونه یا چرا به این نتایج رسیده است. عدم شفافیت در استدلال هوش مصنوعی و منابع بررسی مشکل، که از مجموعه داده های بسیار بزرگ تشکیل شده است، می تواند بر صحت و شفافیت واقعی یا درک شده آن نتایج تأثیر بگذارد.

شفافیت در استدلال و منبع یابی الزامات استانداردهای تحلیلی صنایع دستی محصولات تولید شده توسط و برای جامعه اطلاعاتی است. عینیت تحلیلی نیز از نظر قانونی مورد نیاز است، که جرقه درخواست‌هایی را در داخل دولت ایالات متحده برای به‌روزرسانی چنین استانداردها و قوانینی با توجه به شیوع روزافزون هوش مصنوعی برانگیخت.

یادگیری ماشین و الگوریتم‌ها زمانی که برای قضاوت‌های پیش‌بینی‌کننده به کار می‌روند نیز توسط برخی از متخصصان هوش بیشتر به عنوان هنر در نظر گرفته می‌شوند تا علم. به این معنا که آنها مستعد سوگیری، سر و صدا هستند و می توانند با روش هایی همراه شوند که صحیح نیستند و منجر به خطاهایی مشابه آنچه در علوم و هنرهای پزشکی قانونی جنایی یافت می شود.