وقتی صحبت از دنیای فناوری میشود، هوش مصنوعی مولد هنوز یک نوزاد است. اگرچه شاهد تبلیغات زیادی در مورد هوش مصنوعی بودهایم، اما حتی پیشرفتهترین مدلها نیز همچنان مستعد توهمات شدید هستند، مانند دروغ گفتن در مورد سوابق پزشکی یا نوشتن گزارشهای تحقیقاتی بر اساس شایعات.
با وجود این نقصها، هوش مصنوعی به سرعت وارد تقریباً هر بخش از زندگی ما شده است، از اینترنت گرفته تا روزنامهنگاری تا بیمه - حتی در غذایی که میخوریم.
این موضوع پیامدهای هشداردهندهای داشته است، همانطور که یک مرد نروژی این هفته متوجه شد. آروه هیالمار هولمن (Arve Hjalmar Holmen) که کنجکاو بود بداند ChatGPT شرکت OpenAI درباره او چه میگوید، نام خود را تایپ کرد و اجازه داد ربات کار خود را انجام دهد. نتایج وحشتناک بود.
به گزارش TechCrunch، ChatGPT به این مرد گفت که او دو پسرش را به قتل رسانده و سعی کرده پسر سومش را نیز بکشد. اگرچه هولمن نمیدانست، اما ظاهراً او ۲۱ سال گذشته را به دلیل جنایاتش در زندان گذرانده بود - حداقل طبق گفته این ربات.
و اگرچه این داستان به وضوح نادرست بود، ChatGPT بخشهایی از زندگی هولمن را به درستی بیان کرده بود، مانند زادگاهش و همچنین سن و جنسیت هر یک از فرزندانش. این یک حقیقت شوم بود که در یک توهم وحشیانه لایهبندی شده بود.
هولمن این اطلاعات را به Noyb، یک گروه حقوق دادههای اروپایی برد، که از طرف او شکایتی را به سازمان حفاظت از دادههای نروژ ارائه کرد. Noyb همچنین یک شکایت قانونی علیه OpenAI، شرکت مادر ChatGPT، تنظیم کرد. اگرچه ChatGPT دیگر این دروغها را درباره هولمن تکرار نمیکند، اما Noyb از این سازمان میخواهد که "به OpenAI دستور دهد خروجی افتراآمیز را حذف کند و مدل خود را برای از بین بردن نتایج نادرست تنظیم کند" - که تقریباً یک کار غیرممکن است.
اما احتمالاً نکته همین است. ماجرای قتل جعلی هولمن سرعت زیادی را که هوش مصنوعی مولد با آن بر جهان تحمیل میشود، برجسته میکند، بدون توجه به عواقب آن. محققان داده و منتقدان فناوری استدلال کردهاند که چرخههای توسعه سودمحور شرکتهای بزرگ فناوری، مدلهایی را در اولویت قرار میدهند که به نظر میرسد همه کارها را انجام میدهند، نه مدلهای عملی که واقعاً کار میکنند.
تیمنیت گبرو (Timnit Gebru)، بنیانگذار موسسه تحقیقات هوش مصنوعی توزیع شده، در پادکست Tech Won't Save Us در اوایل این ماه گفت: «در این عصری که تلاش میشود بگوییم یک ماشین خدا ساختهاید، [آنها] از این چکش بزرگ برای هر کاری استفاده میکنند. شما بهترین مدل ممکن را برای بهترین کار ممکن نمیسازید.»
اگرچه مقرراتی وجود دارد - به هر حال در نروژ - که حکم میکند شرکتهای هوش مصنوعی باید اطلاعات نادرست ایجاد شده توسط هوش مصنوعی را اصلاح یا حذف کنند، این قوانین واکنشی کار کمی برای محافظت از افراد در برابر توهمات در وهله اول انجام میدهند.
این موضوع در حال حاضر پیامدهای ویرانگری دارد زیرا این فناوری توسعه نیافته توسط بازیگران کمتری برای تولید رضایت برای اقدامات خود استفاده میشود. محققانی مانند هلیا دوتقی (Helyeh Doutaghi) به دلیل اتهامات تولید شده توسط هوش مصنوعی با از دست دادن شغل خود مواجه هستند، و رژیمهای راستگرا از فناوری سلاحهای هوش مصنوعی برای فرار از مسئولیت جنایات جنگی استفاده میکنند.
تا زمانی که شرکتهای بزرگ فناوری به عرضه هوش مصنوعی تبلیغاتی سریعتر از آنچه قانونگذاران میتوانند آن را تنظیم کنند ادامه دهند، مردم در سراسر جهان مجبور خواهند بود با عواقب آن زندگی کنند.
بیشتر درباره هوش مصنوعی: استفاده پلیس از تشخیص چهره به طرز چشمگیری نتیجه معکوس میدهد و آنها را قادر به محکوم کردن قاتل فراری نمیسازد