آیا تا به حال اصطلاح «نمیتوانی یک گورکن را دوبار لیس بزنی» را شنیدهاید؟
ما هم نشنیدهایم، چون اصلاً وجود ندارد - اما به نظر میرسد هوش مصنوعی گوگل شنیده است. کاربران اینترنتی این هفته متوجه شدند که اضافه کردن کلمه "معنی" به اصطلاحات عامیانه خیالی باعث میشود که هوش مصنوعی توضیحات ابداعی برای آنها بسازد.
قابلیت AI Overviews گوگل با خوشحالی پیشنهاد میکند: «اصطلاح 'نمیتوانی یک گورکن را دوبار لیس بزنی' به این معنی است که نمیتوانی کسی را برای بار دوم فریب دهی، پس از اینکه یک بار فریب خورده است. این هشداری است که اگر کسی قبلاً فریب خورده باشد، بعید است دوباره فریب همان ترفند را بخورد.»
مگان ویلسون-آناستاسیوس، نویسندهای که اولین بار این اشکال عجیب را در یک پست در تردز در آخر هفته متوجه شد، دریافت که وقتی از هوش مصنوعی "معنی" عبارت "کفش پاشنه بلند کره بادام زمینی" را پرسید، این قابلیت پیشنهاد داد که این "اشاره به یک آزمایش علمی" است که در آن "از کره بادام زمینی برای نشان دادن ایجاد الماس تحت فشار بالا استفاده شده است."
مثالهای بیشماری وجود دارد. برای مثال، ما دریافتیم که هوش مصنوعی گوگل ادعا میکند که عبارت ساختگی "دوچرخه اول غذا میخورد" یک "اصطلاح طنزآمیز" و "روشی بازیگوشانه برای گفتن این است که فرد باید تغذیه خود، به ویژه کربوهیدراتها را در اولویت قرار دهد تا از تلاشهای خود در دوچرخهسواری حمایت کند."
حتی نام خود این نویسنده نیز در امان نبود. وقتی از هوش مصنوعی خواسته شد عبارت بیمعنی "اگر من را در ویکتورم دوست نداری، لیاقت تانگرمانم را نداری" را توضیح دهد، با وظیفهشناسی گزارش داد که این عبارت به این معنی است "اگر کسی نتواند شما را در پایینترین نقطه (ویکتور) قدردانی یا دوست داشته باشد، پس لایق ویژگیهای مثبتی که شما به رابطه (تانگرمان) میآورید نیست."
این پاسخهای عجیب و غریب، تبلور کاملی از یکی از بزرگترین نقصهای هوش مصنوعی هستند: توهمات افسارگسیخته. هوش مصنوعی مبتنی بر مدلهای زبانی بزرگ، سابقه طولانی و دردسرسازی در ارائه حقایق ساختگی و حتی گسلایتینگ (gaslighting) کاربران دارد تا فکر کنند که در تمام این مدت اشتباه میکردهاند.
با وجود تلاشهای گسترده شرکتهای هوش مصنوعی برای از بین بردن این اشکال، مدلهای آنها همچنان توهم میزنند. حتی جدیدترین مدلهای استدلال OpenAI، که o3 و o4-mini نامیده میشوند، نسبت به مدلهای قبلی خود بیشتر توهم میزنند، که نشان میدهد این شرکت در واقع در جهت اشتباهی حرکت میکند.
قابلیت AI Overviews گوگل، که این شرکت در ماه مه سال گذشته راهاندازی کرد، هنوز هم تمایل زیادی به توهم حقایق دارد، و آن را بیشتر به یک مزاحمت آزاردهنده تبدیل میکند تا یک دستیار تحقیق مفید برای کاربران.
هنگامی که راهاندازی شد، حتی به کاربران گفت که برای اطمینان از اینکه مواد روی آن نمیلغزند، چسب متعلق به پیتزا است. گافهای فاحش دیگر آن شامل ادعای این بود که بچه فیلها آنقدر کوچک هستند که میتوانند در کف دست انسان بنشینند.
در پی خشم عمومی از عدم دقت گیجکننده - و اغلب خندهدار - این ویژگی، گوگل در بیانیهای در سال گذشته اعتراف کرد که "مطمئناً برخی از AI Overviews های عجیب، نادرست یا غیرمفید ظاهر شدند."
برای مقابله با این موضوع، گوگل یک بازی گسترده موش و گربه را آغاز کرد و برخی از پاسخها را هنگام تشخیص "پرسشهای بیمعنی که نباید یک AI Overview نشان دهند" محدود کرد.
اما با در نظر گرفتن اصطلاحات خیالی تقریباً یک سال پس از عرضه محصول، گوگل هنوز کارهای زیادی برای انجام دادن دارد.
بدتر از آن، این ویژگی با محدود کردن نرخ کلیک به فهرستهای ارگانیک سنتی به وبسایتها آسیب میرساند، همانطور که Search Engine Land این هفته گزارش داد. به عبارت دیگر، AI Overviews گوگل علاوه بر انتشار اطلاعات نادرست، مدل کسبوکار وبسایتهای بیشماری را که میزبان اطلاعات قابل اعتماد هستند، تضعیف میکند.
با این وجود، گوگل در حال دو برابر کردن تلاش خود است و ماه گذشته اعلام کرد که قصد دارد "AI Overviews" را در ایالات متحده "گسترش" دهد تا "به سوالات سختتر کمک کند، با شروع کدنویسی، ریاضیات پیشرفته و پرسشهای چندوجهی." اوایل سال جاری، گوگل اعلام کرد که حتی توصیههای پزشکی به AI Overviews سپرده میشود.
این شرکت ادعا میکند که "کاربران قدرتمند" "پاسخهای هوش مصنوعی را برای جستجوهای بیشتر خود" میخواهند. (در حال حاضر، راههایی برای خاموش کردن این ویژگی وجود دارد.)
حداقل به نظر میرسد که مدل هوش مصنوعی از محدودیتهای خود آگاه است.
AI Overviews گوگل به یکی از کاربران Bluesky گفت: «این گفته که 'شما میتوانید یک هوش مصنوعی را به پاسخگویی هدایت کنید، اما نمیتوانید آن را به فکر کردن وادارید' تفاوت اساسی بین توانایی هوش مصنوعی در ارائه اطلاعات و عدم درک واقعی یا اندیشه مستقل آن را برجسته میکند.»
بیشتر درباره AI Overviews: گوگل میگوید "AI Overviews" پر از خطای آن اکنون توصیههای بهداشتی ارائه میدهد