تصویر از گتی / فیوچریسم
تصویر از گتی / فیوچریسم

نارضایتی مرد از اینکه ChatGPT به کاربران می‌گوید او فرزندانش را به قتل رسانده است

وقتی این اتفاق می‌افتد، از آن متنفر باشید.

وقتی صحبت از دنیای فناوری می‌شود، هوش مصنوعی مولد هنوز یک نوزاد است. اگرچه شاهد تبلیغات زیادی در مورد هوش مصنوعی بوده‌ایم، اما حتی پیشرفته‌ترین مدل‌ها نیز همچنان مستعد توهمات شدید هستند، مانند دروغ گفتن در مورد سوابق پزشکی یا نوشتن گزارش‌های تحقیقاتی بر اساس شایعات.

با وجود این نقص‌ها، هوش مصنوعی به سرعت وارد تقریباً هر بخش از زندگی ما شده است، از اینترنت گرفته تا روزنامه‌نگاری تا بیمه - حتی در غذایی که می‌خوریم.

این موضوع پیامدهای هشداردهنده‌ای داشته است، همانطور که یک مرد نروژی این هفته متوجه شد. آروه هیالمار هولمن (Arve Hjalmar Holmen) که کنجکاو بود بداند ChatGPT شرکت OpenAI درباره او چه می‌گوید، نام خود را تایپ کرد و اجازه داد ربات کار خود را انجام دهد. نتایج وحشتناک بود.

به گزارش TechCrunch، ChatGPT به این مرد گفت که او دو پسرش را به قتل رسانده و سعی کرده پسر سومش را نیز بکشد. اگرچه هولمن نمی‌دانست، اما ظاهراً او ۲۱ سال گذشته را به دلیل جنایاتش در زندان گذرانده بود - حداقل طبق گفته این ربات.

و اگرچه این داستان به وضوح نادرست بود، ChatGPT بخش‌هایی از زندگی هولمن را به درستی بیان کرده بود، مانند زادگاهش و همچنین سن و جنسیت هر یک از فرزندانش. این یک حقیقت شوم بود که در یک توهم وحشیانه لایه‌بندی شده بود.

هولمن این اطلاعات را به Noyb، یک گروه حقوق داده‌های اروپایی برد، که از طرف او شکایتی را به سازمان حفاظت از داده‌های نروژ ارائه کرد. Noyb همچنین یک شکایت قانونی علیه OpenAI، شرکت مادر ChatGPT، تنظیم کرد. اگرچه ChatGPT دیگر این دروغ‌ها را درباره هولمن تکرار نمی‌کند، اما Noyb از این سازمان می‌خواهد که "به OpenAI دستور دهد خروجی افتراآمیز را حذف کند و مدل خود را برای از بین بردن نتایج نادرست تنظیم کند" - که تقریباً یک کار غیرممکن است.

اما احتمالاً نکته همین است. ماجرای قتل جعلی هولمن سرعت زیادی را که هوش مصنوعی مولد با آن بر جهان تحمیل می‌شود، برجسته می‌کند، بدون توجه به عواقب آن. محققان داده و منتقدان فناوری استدلال کرده‌اند که چرخه‌های توسعه سودمحور شرکت‌های بزرگ فناوری، مدل‌هایی را در اولویت قرار می‌دهند که به نظر می‌رسد همه کارها را انجام می‌دهند، نه مدل‌های عملی که واقعاً کار می‌کنند.

تیمنیت گبرو (Timnit Gebru)، بنیانگذار موسسه تحقیقات هوش مصنوعی توزیع شده، در پادکست Tech Won't Save Us در اوایل این ماه گفت: «در این عصری که تلاش می‌شود بگوییم یک ماشین خدا ساخته‌اید، [آنها] از این چکش بزرگ برای هر کاری استفاده می‌کنند. شما بهترین مدل ممکن را برای بهترین کار ممکن نمی‌سازید.»

اگرچه مقرراتی وجود دارد - به هر حال در نروژ - که حکم می‌کند شرکت‌های هوش مصنوعی باید اطلاعات نادرست ایجاد شده توسط هوش مصنوعی را اصلاح یا حذف کنند، این قوانین واکنشی کار کمی برای محافظت از افراد در برابر توهمات در وهله اول انجام می‌دهند.

این موضوع در حال حاضر پیامدهای ویرانگری دارد زیرا این فناوری توسعه نیافته توسط بازیگران کمتری برای تولید رضایت برای اقدامات خود استفاده می‌شود. محققانی مانند هلیا دوتقی (Helyeh Doutaghi) به دلیل اتهامات تولید شده توسط هوش مصنوعی با از دست دادن شغل خود مواجه هستند، و رژیم‌های راست‌گرا از فناوری سلاح‌های هوش مصنوعی برای فرار از مسئولیت جنایات جنگی استفاده می‌کنند.

تا زمانی که شرکت‌های بزرگ فناوری به عرضه هوش مصنوعی تبلیغاتی سریع‌تر از آنچه قانون‌گذاران می‌توانند آن را تنظیم کنند ادامه دهند، مردم در سراسر جهان مجبور خواهند بود با عواقب آن زندگی کنند.

بیشتر درباره هوش مصنوعی: استفاده پلیس از تشخیص چهره به طرز چشمگیری نتیجه معکوس می‌دهد و آنها را قادر به محکوم کردن قاتل فراری نمی‌سازد