در یکی از نمونههای استفاده موفقیتآمیز IC از هوش مصنوعی، پس از اتمام همه راههای دیگر – از جاسوسان انسانی گرفته تا اطلاعات سیگنالها – ایالات متحده توانست با یافتن اتوبوسی که بین آنها حرکت میکرد، یک مرکز تحقیقات و توسعه سلاحهای کشتار جمعی ناشناس در یک کشور بزرگ آسیایی پیدا کند. و سایر امکانات شناخته شده به گفته یک مقام ارشد اطلاعاتی ایالات متحده که در پس زمینه صحبت می کرد، تحلیلگران برای انجام این کار، از الگوریتم هایی برای جستجو و ارزیابی تصاویر تقریباً هر اینچ مربع از کشور استفاده کردند.
در حالی که هوش مصنوعی میتواند برنامهریزیهایی را محاسبه، بازیابی و استفاده کند که تحلیلهای منطقی محدودی را انجام میدهد، اما فاقد محاسبات برای تشریح صحیح اجزای احساسی یا ناخودآگاه هوش انسانی است که توسط روانشناسان به عنوان تفکر سیستم 1 توصیف میشود.
برای مثال، هوش مصنوعی میتواند گزارشهای اطلاعاتی مشابه مقالات روزنامهای درباره بیسبال را تهیه کند که حاوی جریان غیرمنطقی ساختاریافته و عناصر محتوای تکراری است. با این حال، زمانی که خلاصهها نیازمند پیچیدگی استدلال یا استدلالهای منطقی هستند که نتیجهگیری را توجیه یا نشان میدهند، هوش مصنوعی فاقد آن است. این مقام اطلاعاتی میگوید زمانی که جامعه اطلاعاتی این قابلیت را آزمایش کرد، این محصول شبیه یک خلاصه اطلاعاتی به نظر میرسید، اما در غیر این صورت بیمعنی بود.
چنین فرآیندهای الگوریتمی میتوانند همپوشانی داشته باشند و لایههایی از پیچیدگی را به استدلال محاسباتی اضافه کنند، اما حتی در آن صورت هم آن الگوریتمها نمیتوانند زمینه را به خوبی انسان تفسیر کنند، به خصوص وقتی صحبت از زبان میشود، مانند سخنان نفرت.
اریک کوروین، مدیر ارشد فناوری Pyrra Technologies، که تهدیدات مجازی برای مشتریان را از خشونت گرفته تا اطلاعات نادرست شناسایی میکند، میگوید درک هوش مصنوعی ممکن است بیشتر شبیه درک یک کودک نوپا انسان باشد. کوروین میگوید: «برای مثال، هوش مصنوعی میتواند اصول زبان انسان را درک کند، اما مدلهای بنیادی دانش نهفته یا زمینهای برای انجام وظایف خاص ندارند.
کوروین می افزاید: «از دیدگاه تحلیلی، هوش مصنوعی در تفسیر مقصود مشکل دارد. “علوم کامپیوتر یک رشته ارزشمند و مهم است، اما این دانشمندان محاسبات اجتماعی هستند که جهش های بزرگی را در توانمند ساختن ماشین ها برای تفسیر، درک و پیش بینی رفتار انجام می دهند.”
کوروین توضیح میدهد که برای «ساخت مدلهایی که میتوانند جایگزین شهود یا شناخت انسان شوند، محققان ابتدا باید بفهمند که چگونه رفتار را تفسیر کنند و آن رفتار را به چیزی که هوش مصنوعی میتواند یاد بگیرد، ترجمه کند».
اگرچه یادگیری ماشین و تجزیه و تحلیل کلان داده، تجزیه و تحلیل پیشبینیکنندهای در مورد آنچه ممکن است اتفاق بیفتد یا احتمالاً رخ خواهد داد، ارائه میکند، اما نمیتواند به تحلیلگران توضیح دهد که چگونه یا چرا به این نتایج رسیده است. عدم شفافیت در استدلال هوش مصنوعی و منابع بررسی مشکل، که از مجموعه داده های بسیار بزرگ تشکیل شده است، می تواند بر صحت و شفافیت واقعی یا درک شده آن نتایج تأثیر بگذارد.
شفافیت در استدلال و منبع یابی الزامات استانداردهای تحلیلی صنایع دستی محصولات تولید شده توسط و برای جامعه اطلاعاتی است. عینیت تحلیلی نیز از نظر قانونی مورد نیاز است، که جرقه درخواستهایی را در داخل دولت ایالات متحده برای بهروزرسانی چنین استانداردها و قوانینی با توجه به شیوع روزافزون هوش مصنوعی برانگیخت.
یادگیری ماشین و الگوریتمها زمانی که برای قضاوتهای پیشبینیکننده به کار میروند نیز توسط برخی از متخصصان هوش بیشتر به عنوان هنر در نظر گرفته میشوند تا علم. به این معنا که آنها مستعد سوگیری، سر و صدا هستند و می توانند با روش هایی همراه شوند که صحیح نیستند و منجر به خطاهایی مشابه آنچه در علوم و هنرهای پزشکی قانونی جنایی یافت می شود.