تصویر از Getty / Futurism
تصویر از Getty / Futurism

هوش مصنوعی گوگل اصطلاحات عامیانه خیالی را توضیح می‌دهد: «نمی‌توانی یک گورکن را دوبار لیس بزنی»

این موضوع دارد مسخره می‌شود.

آیا تا به حال اصطلاح «نمی‌توانی یک گورکن را دوبار لیس بزنی» را شنیده‌اید؟

ما هم نشنیده‌ایم، چون اصلاً وجود ندارد - اما به نظر می‌رسد هوش مصنوعی گوگل شنیده است. کاربران اینترنتی این هفته متوجه شدند که اضافه کردن کلمه "معنی" به اصطلاحات عامیانه خیالی باعث می‌شود که هوش مصنوعی توضیحات ابداعی برای آن‌ها بسازد.

قابلیت AI Overviews گوگل با خوشحالی پیشنهاد می‌کند: «اصطلاح 'نمی‌توانی یک گورکن را دوبار لیس بزنی' به این معنی است که نمی‌توانی کسی را برای بار دوم فریب دهی، پس از اینکه یک بار فریب خورده است. این هشداری است که اگر کسی قبلاً فریب خورده باشد، بعید است دوباره فریب همان ترفند را بخورد.»

مگان ویلسون-آناستاسیوس، نویسنده‌ای که اولین بار این اشکال عجیب را در یک پست در تردز در آخر هفته متوجه شد، دریافت که وقتی از هوش مصنوعی "معنی" عبارت "کفش پاشنه بلند کره بادام زمینی" را پرسید، این قابلیت پیشنهاد داد که این "اشاره به یک آزمایش علمی" است که در آن "از کره بادام زمینی برای نشان دادن ایجاد الماس تحت فشار بالا استفاده شده است."

مثال‌های بی‌شماری وجود دارد. برای مثال، ما دریافتیم که هوش مصنوعی گوگل ادعا می‌کند که عبارت ساختگی "دوچرخه اول غذا می‌خورد" یک "اصطلاح طنزآمیز" و "روشی بازیگوشانه برای گفتن این است که فرد باید تغذیه خود، به ویژه کربوهیدرات‌ها را در اولویت قرار دهد تا از تلاش‌های خود در دوچرخه‌سواری حمایت کند."

حتی نام خود این نویسنده نیز در امان نبود. وقتی از هوش مصنوعی خواسته شد عبارت بی‌معنی "اگر من را در ویکتورم دوست نداری، لیاقت تانگرمانم را نداری" را توضیح دهد، با وظیفه‌شناسی گزارش داد که این عبارت به این معنی است "اگر کسی نتواند شما را در پایین‌ترین نقطه (ویکتور) قدردانی یا دوست داشته باشد، پس لایق ویژگی‌های مثبتی که شما به رابطه (تانگرمان) می‌آورید نیست."

این پاسخ‌های عجیب و غریب، تبلور کاملی از یکی از بزرگ‌ترین نقص‌های هوش مصنوعی هستند: توهمات افسارگسیخته. هوش مصنوعی مبتنی بر مدل‌های زبانی بزرگ، سابقه طولانی و دردسرسازی در ارائه حقایق ساختگی و حتی گس‌لایتینگ (gaslighting) کاربران دارد تا فکر کنند که در تمام این مدت اشتباه می‌کرده‌اند.

با وجود تلاش‌های گسترده شرکت‌های هوش مصنوعی برای از بین بردن این اشکال، مدل‌های آن‌ها همچنان توهم می‌زنند. حتی جدیدترین مدل‌های استدلال OpenAI، که o3 و o4-mini نامیده می‌شوند، نسبت به مدل‌های قبلی خود بیشتر توهم می‌زنند، که نشان می‌دهد این شرکت در واقع در جهت اشتباهی حرکت می‌کند.

قابلیت AI Overviews گوگل، که این شرکت در ماه مه سال گذشته راه‌اندازی کرد، هنوز هم تمایل زیادی به توهم حقایق دارد، و آن را بیشتر به یک مزاحمت آزاردهنده تبدیل می‌کند تا یک دستیار تحقیق مفید برای کاربران.

هنگامی که راه‌اندازی شد، حتی به کاربران گفت که برای اطمینان از اینکه مواد روی آن نمی‌لغزند، چسب متعلق به پیتزا است. گاف‌های فاحش دیگر آن شامل ادعای این بود که بچه فیل‌ها آنقدر کوچک هستند که می‌توانند در کف دست انسان بنشینند.

در پی خشم عمومی از عدم دقت گیج‌کننده - و اغلب خنده‌دار - این ویژگی، گوگل در بیانیه‌ای در سال گذشته اعتراف کرد که "مطمئناً برخی از AI Overviews های عجیب، نادرست یا غیرمفید ظاهر شدند."

برای مقابله با این موضوع، گوگل یک بازی گسترده موش و گربه را آغاز کرد و برخی از پاسخ‌ها را هنگام تشخیص "پرسش‌های بی‌معنی که نباید یک AI Overview نشان دهند" محدود کرد.

اما با در نظر گرفتن اصطلاحات خیالی تقریباً یک سال پس از عرضه محصول، گوگل هنوز کارهای زیادی برای انجام دادن دارد.

بدتر از آن، این ویژگی با محدود کردن نرخ کلیک به فهرست‌های ارگانیک سنتی به وب‌سایت‌ها آسیب می‌رساند، همانطور که Search Engine Land این هفته گزارش داد. به عبارت دیگر، AI Overviews گوگل علاوه بر انتشار اطلاعات نادرست، مدل کسب‌وکار وب‌سایت‌های بی‌شماری را که میزبان اطلاعات قابل اعتماد هستند، تضعیف می‌کند.

با این وجود، گوگل در حال دو برابر کردن تلاش خود است و ماه گذشته اعلام کرد که قصد دارد "AI Overviews" را در ایالات متحده "گسترش" دهد تا "به سوالات سخت‌تر کمک کند، با شروع کدنویسی، ریاضیات پیشرفته و پرسش‌های چندوجهی." اوایل سال جاری، گوگل اعلام کرد که حتی توصیه‌های پزشکی به AI Overviews سپرده می‌شود.

این شرکت ادعا می‌کند که "کاربران قدرتمند" "پاسخ‌های هوش مصنوعی را برای جستجوهای بیشتر خود" می‌خواهند. (در حال حاضر، راه‌هایی برای خاموش کردن این ویژگی وجود دارد.)

حداقل به نظر می‌رسد که مدل هوش مصنوعی از محدودیت‌های خود آگاه است.

AI Overviews گوگل به یکی از کاربران Bluesky گفت: «این گفته که 'شما می‌توانید یک هوش مصنوعی را به پاسخگویی هدایت کنید، اما نمی‌توانید آن را به فکر کردن وادارید' تفاوت اساسی بین توانایی هوش مصنوعی در ارائه اطلاعات و عدم درک واقعی یا اندیشه مستقل آن را برجسته می‌کند.»

بیشتر درباره AI Overviews: گوگل می‌گوید "AI Overviews" پر از خطای آن اکنون توصیه‌های بهداشتی ارائه می‌دهد