گاهی اوقات هوش مصنوعی آنقدرها هم که فکر می کنیم هوشمند نیست. محققانی که در حال آموزش الگوریتمی برای شناسایی سرطان پوست بودند، فکر می کردند موفق شده اند تا اینکه کشف کردند که از وجود خط کش برای کمک به پیش بینی های خود استفاده می کند. به طور خاص، مجموعه دادههای آنها شامل تصاویری بود که در آن یک آسیبشناس خطکشی را برای اندازهگیری اندازه ضایعات بدخیم قرار داده بود.
این منطق را برای پیشبینی بدخیمیها به تمام تصاویر فراتر از مجموعه دادهها تعمیم داد و در نتیجه، بافت خوشخیم را در صورت وجود خطکش در تصویر، بدخیم تشخیص داد.
مشکل در اینجا این نیست که الگوریتم هوش مصنوعی اشتباه کرده است. بلکه نگرانی ناشی از نحوه "فکر کردن" هوش مصنوعی است. هیچ آسیب شناس انسانی به این نتیجه نمی رسد.
این موارد "استدلال" نادرست فراوان است - از الگوریتم های منابع انسانی که ترجیح می دهند مردان را استخدام کنند زیرا مجموعه داده ها به نفع آنها است تا تداوم نابرابری های نژادی در درمان پزشکی. اکنون که از این مشکلات آگاه هستند، محققان در تلاشند تا به آنها رسیدگی کنند.
اخیراً، گوگل تصمیم گرفت ممنوعیت دیرینه خود در زمینه توسعه سلاح های هوش مصنوعی را پایان دهد. این به طور بالقوه شامل استفاده از هوش مصنوعی برای توسعه سلاح ها، و همچنین هوش مصنوعی در نظارت و سلاح هایی است که می توانند به طور مستقل در میدان جنگ مستقر شوند. این تصمیم چند روز پس از آن گرفته شد که شرکت مادر، آلفابت، کاهش 6 درصدی در قیمت سهام خود را تجربه کرد.
این اولین ورود گوگل به آبهای گل آلود نیست. این شرکت با وزارت دفاع ایالات متحده در زمینه استفاده از فناوری هوش مصنوعی خود برای پروژه Maven همکاری کرد که شامل تشخیص اشیا برای پهپادها بود.
هنگامی که خبر این قرارداد در سال 2018 علنی شد، باعث واکنش شدید کارمندانی شد که نمی خواستند از فناوری توسعه یافته آنها در جنگ ها استفاده شود. در نهایت، گوگل قرارداد خود را تمدید نکرد، که توسط رقیب Palantir برداشته شد.
سرعتی که قرارداد گوگل توسط یک رقیب تمدید شد، برخی را بر آن داشت تا به اجتناب ناپذیری این تحولات اشاره کنند و اینکه شاید بهتر باشد برای شکل دادن به آینده در داخل بود.
البته، چنین استدلالهایی فرض میکنند که شرکتها و محققان قادر خواهند بود آینده را آنطور که میخواهند شکل دهند. اما تحقیقات قبلی نشان داده است که این فرض حداقل به سه دلیل نادرست است.
تله اعتماد
اولاً، انسان ها مستعد افتادن در چیزی هستند که به عنوان "تله اعتماد" شناخته می شود. من در مورد این پدیده تحقیق کرده ام، که در آن افراد فرض می کنند که از آنجایی که ریسک پذیری های قبلی نتیجه داده است، ریسک پذیری بیشتر در آینده موجه است.
در زمینه هوش مصنوعی، این ممکن است به معنای گسترش تدریجی استفاده از یک الگوریتم فراتر از مجموعه داده های آموزشی آن باشد. به عنوان مثال، یک ماشین بدون راننده ممکن است در مسیری استفاده شود که در آموزش آن پوشش داده نشده است.
این می تواند مشکلاتی ایجاد کند. اکنون داده های فراوانی وجود دارد که هوش مصنوعی ماشین بدون راننده می تواند از آنها استفاده کند، و با این حال هنوز اشتباهاتی رخ می دهد. حوادثی مانند ماشین تسلا که به یک جت 2.75 میلیون پوندی برخورد کرد زمانی که توسط صاحبش در یک محیط ناآشنا احضار شد، هنوز می تواند اتفاق بیفتد. برای سلاح های هوش مصنوعی، حتی داده های زیادی برای شروع وجود ندارد.
بیشتر بخوانید: آیا رکود فروش تسلا به دلیل ایلان ماسک است؟
دوم، هوش مصنوعی می تواند به گونه ای استدلال کند که برای درک انسان بیگانه باشد. این منجر به آزمایش فکری گیره کاغذ شده است، جایی که از هوش مصنوعی خواسته می شود تا حد امکان گیره کاغذ تولید کند. این کار را در حالی انجام می دهد که تمام منابع را مصرف می کند - از جمله منابع لازم برای بقای انسان.
البته، این بی اهمیت به نظر می رسد. به هر حال، انسان ها می توانند دستورالعمل های اخلاقی را ارائه دهند. اما مشکل در ناتوانی در پیش بینی نحوه دستیابی یک الگوریتم هوش مصنوعی به آنچه انسان ها از آن خواسته اند و در نتیجه از دست دادن کنترل است. این حتی ممکن است شامل "تقلب" شود. در یک آزمایش اخیر، هوش مصنوعی با اصلاح فایل های سیستمی که موقعیت مهره های شطرنج را نشان می دهد، برای برنده شدن در بازی های شطرنج تقلب کرد و در واقع آن را قادر به انجام حرکات غیرقانونی کرد.
اما جامعه ممکن است مایل به پذیرش اشتباهات باشد، همانطور که در مورد تلفات غیرنظامی ناشی از حملات پهپادی که توسط انسان ها هدایت می شود. این تمایل چیزی است که به عنوان "ابتذال افراط ها" شناخته می شود - انسان ها حتی افراطی ترین موارد شرارت را به عنوان یک مکانیسم شناختی برای مقابله با آن عادی می کنند. "بیگانگی" استدلال هوش مصنوعی ممکن است به سادگی پوشش بیشتری برای انجام این کار فراهم کند.
سوم، شرکت هایی مانند گوگل که با توسعه این سلاح ها مرتبط هستند ممکن است بزرگتر از آن باشند که شکست بخورند. در نتیجه، حتی زمانی که موارد واضحی از اشتباه هوش مصنوعی وجود دارد، بعید است که مسئول شناخته شوند. این فقدان پاسخگویی خطری ایجاد می کند زیرا یادگیری و اقدامات اصلاحی را بی انگیزه می کند.
"صمیمی شدن" مدیران فناوری با دونالد ترامپ، رئیس جمهور ایالات متحده، تنها این مشکل را تشدید می کند زیرا پاسخگویی را بیشتر تضعیف می کند.