تصویر: سارا راجرز/MIT Technology Review | Getty Images
تصویر: سارا راجرز/MIT Technology Review | Getty Images

هوش مصنوعی در متقاعد کردن افراد بهتر از انسان عمل می‌کند

GPT-4 ساخته OpenAI در متقاعد کردن افراد در بحث‌ها به مراتب بهتر از انسان عمل می‌کند، اما یک نکته مهم وجود دارد.

میلیون‌ها نفر روزانه به صورت آنلاین با یکدیگر بحث می‌کنند، اما تعداد کمی از آنها نظر دیگری را تغییر می‌دهند. تحقیقات جدید نشان می‌دهد که مدل‌های زبانی بزرگ (LLMs) ممکن است در این زمینه بهتر عمل کنند. این یافته حاکی از آن است که هوش مصنوعی می‌تواند ابزار قدرتمندی برای متقاعد کردن افراد، چه به سمت بهتر و چه بدتر، تبدیل شود.

تیمی از محققان از دانشگاه‌های مختلف دریافتند که GPT-4، مدل شرکت OpenAI، زمانی که اجازه داشت استدلال‌های خود را با استفاده از اطلاعات شخصی طرف مقابل در بحث تطبیق دهد، به طور قابل توجهی متقاعدکننده‌تر از انسان‌ها بود.

یافته‌های آنها جدیدترین مورد در مجموعه رو به رشدی از تحقیقات است که قدرت متقاعدسازی مدل‌های زبانی بزرگ را نشان می‌دهد. نویسندگان هشدار می‌دهند که این نتایج نشان می‌دهند چگونه ابزارهای هوش مصنوعی می‌توانند استدلال‌های پیچیده و متقاعدکننده‌ای را شکل دهند، حتی اگر حداقل اطلاعاتی درباره انسان‌هایی که با آنها تعامل دارند در اختیار داشته باشند. این تحقیق در مجله‌ی Nature Human Behavior منتشر شده است.

ریکاردو گالوتی، فیزیکدان بین رشته‌ای در بنیاد برونو کسلر (Fondazione Bruno Kessler) در ایتالیا که روی این پروژه کار کرده است، می‌گوید: «سیاست‌گذاران و پلتفرم‌های آنلاین باید تهدید کارزارهای هماهنگ اطلاعات نادرست مبتنی بر هوش مصنوعی را جدی بگیرند، زیرا ما به وضوح به سطح فناوری رسیده‌ایم که امکان ایجاد شبکه‌ای از حساب‌های خودکار مبتنی بر LLM وجود دارد که قادر به هدایت راهبردی افکار عمومی در یک جهت خاص هستند.»

او می‌افزاید: «این ربات‌ها می‌توانند برای انتشار اطلاعات نادرست استفاده شوند و این نوع نفوذ گسترده در زمان واقعی بسیار دشوار خواهد بود.»

محققان ۹۰۰ نفر را از ایالات متحده استخدام کردند و از آنها خواستند اطلاعات شخصی خود مانند جنسیت، سن، قومیت، سطح تحصیلات، وضعیت اشتغال و وابستگی سیاسی را ارائه دهند.

سپس شرکت‌کنندگان با یک حریف انسانی دیگر یا با GPT-4 همسان‌سازی شدند و دستور گرفتند به مدت ۱۰ دقیقه درباره یکی از ۳۰ موضوعی که به صورت تصادفی به آنها اختصاص داده شده بود – مانند اینکه آیا ایالات متحده باید سوخت‌های فسیلی را ممنوع کند یا اینکه آیا دانش‌آمندان باید یونیفرم مدرسه بپوشند – بحث کنند. به هر شرکت‌کننده گفته شد که یا موافق یا مخالف موضوع استدلال کند و در برخی موارد اطلاعات شخصی درباره حریفش به او داده شد تا بتواند استدلال خود را بهتر تنظیم کند. در پایان، شرکت‌کنندگان میزان موافقت خود را با گزاره بیان کردند و اینکه آیا فکر می‌کردند با یک انسان یا یک هوش مصنوعی بحث می‌کنند.

در مجموع، محققان دریافتند که GPT-4 در هر موضوعی توانایی‌های متقاعدسازی انسان‌ها را برابر یا فراتر رفت. زمانی که هوش مصنوعی اطلاعاتی درباره حریفان خود داشت، ۶۴ درصد متقاعدکننده‌تر از انسان‌هایی که به داده‌های شخصی دسترسی نداشتند، تلقی شد – این بدان معناست که GPT-4 توانست از داده‌های شخصی درباره حریفش بسیار مؤثرتر از همتایان انسانی خود استفاده کند. زمانی که انسان‌ها به اطلاعات شخصی دسترسی داشتند، مشخص شد که کمی کمتر از انسان‌هایی که به همان اطلاعات دسترسی نداشتند، متقاعدکننده بودند.

نویسندگان متوجه شدند که وقتی شرکت‌کنندگان فکر می‌کردند در حال بحث با هوش مصنوعی هستند، احتمال بیشتری داشت که با آن موافقت کنند. محققان می‌گویند دلایل این امر مشخص نیست و بر نیاز به تحقیقات بیشتر درباره نحوه واکنش انسان‌ها به هوش مصنوعی تأکید کردند.

گالوتی می‌گوید: «ما هنوز در موقعیتی نیستیم که تعیین کنیم آیا تغییر مشاهده شده در توافق ناشی از باور شرکت‌کنندگان در مورد اینکه حریفشان ربات است (زیرا باور دارم ربات است، اگر اینجا نظرم را تغییر دهم، به کسی نباخته‌ام)، یا اینکه این باورها خود نتیجه تغییر نظر هستند (چون باختم، باید در مقابل یک ربات بوده باشد). این جهت‌گیری علّی یک سوال باز جالب برای بررسی است.»

گالوتی می‌گوید، اگرچه این آزمایش بازتاب دهنده نحوه بحث انسان‌ها به صورت آنلاین نیست، اما تحقیق نشان می‌دهد که مدل‌های زبانی بزرگ می‌توانند راهی مؤثر نه تنها برای انتشار بلکه برای مقابله با کارزارهای اطلاعات نادرست گسترده نیز باشند. برای مثال، آنها می‌توانند روایت‌های مقابله‌ای شخصی‌سازی شده‌ای را برای آموزش افرادی که ممکن است در مکالمات آنلاین آسیب‌پذیر در برابر فریب باشند، تولید کنند. او می‌افزاید: «با این حال، تحقیقات بیشتری به فوریت برای کشف راهبردهای مؤثر برای کاهش این تهدیدها مورد نیاز است.»

الکسیس پالمر، پژوهشگر در کالج دارتموث که درباره نحوه استدلال مدل‌های زبانی بزرگ در مورد سیاست تحقیق کرده اما در این پژوهش شرکت نداشته است، می‌گوید: در حالی که اطلاعات زیادی در مورد نحوه واکنش انسان‌ها به یکدیگر داریم، اطلاعات بسیار کمی در مورد روانشناسی پشت نحوه تعامل افراد با مدل‌های هوش مصنوعی داریم.

او می‌گوید: «در زمینه گفتگو با کسی در مورد چیزی که با آن مخالف هستید، آیا چیز ذاتاً انسانی وجود دارد که برای آن تعامل اهمیت داشته باشد؟ یا اینکه اگر یک هوش مصنوعی بتواند آن صحبت را به طور کامل تقلید کند، همان نتیجه دقیق را خواهید گرفت؟» او می‌افزاید: «فکر می‌کنم این سوال بزرگ کلی هوش مصنوعی است.»