میلیونها نفر روزانه به صورت آنلاین با یکدیگر بحث میکنند، اما تعداد کمی از آنها نظر دیگری را تغییر میدهند. تحقیقات جدید نشان میدهد که مدلهای زبانی بزرگ (LLMs) ممکن است در این زمینه بهتر عمل کنند. این یافته حاکی از آن است که هوش مصنوعی میتواند ابزار قدرتمندی برای متقاعد کردن افراد، چه به سمت بهتر و چه بدتر، تبدیل شود.
تیمی از محققان از دانشگاههای مختلف دریافتند که GPT-4، مدل شرکت OpenAI، زمانی که اجازه داشت استدلالهای خود را با استفاده از اطلاعات شخصی طرف مقابل در بحث تطبیق دهد، به طور قابل توجهی متقاعدکنندهتر از انسانها بود.
یافتههای آنها جدیدترین مورد در مجموعه رو به رشدی از تحقیقات است که قدرت متقاعدسازی مدلهای زبانی بزرگ را نشان میدهد. نویسندگان هشدار میدهند که این نتایج نشان میدهند چگونه ابزارهای هوش مصنوعی میتوانند استدلالهای پیچیده و متقاعدکنندهای را شکل دهند، حتی اگر حداقل اطلاعاتی درباره انسانهایی که با آنها تعامل دارند در اختیار داشته باشند. این تحقیق در مجلهی Nature Human Behavior منتشر شده است.
ریکاردو گالوتی، فیزیکدان بین رشتهای در بنیاد برونو کسلر (Fondazione Bruno Kessler) در ایتالیا که روی این پروژه کار کرده است، میگوید: «سیاستگذاران و پلتفرمهای آنلاین باید تهدید کارزارهای هماهنگ اطلاعات نادرست مبتنی بر هوش مصنوعی را جدی بگیرند، زیرا ما به وضوح به سطح فناوری رسیدهایم که امکان ایجاد شبکهای از حسابهای خودکار مبتنی بر LLM وجود دارد که قادر به هدایت راهبردی افکار عمومی در یک جهت خاص هستند.»
او میافزاید: «این رباتها میتوانند برای انتشار اطلاعات نادرست استفاده شوند و این نوع نفوذ گسترده در زمان واقعی بسیار دشوار خواهد بود.»
محققان ۹۰۰ نفر را از ایالات متحده استخدام کردند و از آنها خواستند اطلاعات شخصی خود مانند جنسیت، سن، قومیت، سطح تحصیلات، وضعیت اشتغال و وابستگی سیاسی را ارائه دهند.
سپس شرکتکنندگان با یک حریف انسانی دیگر یا با GPT-4 همسانسازی شدند و دستور گرفتند به مدت ۱۰ دقیقه درباره یکی از ۳۰ موضوعی که به صورت تصادفی به آنها اختصاص داده شده بود – مانند اینکه آیا ایالات متحده باید سوختهای فسیلی را ممنوع کند یا اینکه آیا دانشآمندان باید یونیفرم مدرسه بپوشند – بحث کنند. به هر شرکتکننده گفته شد که یا موافق یا مخالف موضوع استدلال کند و در برخی موارد اطلاعات شخصی درباره حریفش به او داده شد تا بتواند استدلال خود را بهتر تنظیم کند. در پایان، شرکتکنندگان میزان موافقت خود را با گزاره بیان کردند و اینکه آیا فکر میکردند با یک انسان یا یک هوش مصنوعی بحث میکنند.
در مجموع، محققان دریافتند که GPT-4 در هر موضوعی تواناییهای متقاعدسازی انسانها را برابر یا فراتر رفت. زمانی که هوش مصنوعی اطلاعاتی درباره حریفان خود داشت، ۶۴ درصد متقاعدکنندهتر از انسانهایی که به دادههای شخصی دسترسی نداشتند، تلقی شد – این بدان معناست که GPT-4 توانست از دادههای شخصی درباره حریفش بسیار مؤثرتر از همتایان انسانی خود استفاده کند. زمانی که انسانها به اطلاعات شخصی دسترسی داشتند، مشخص شد که کمی کمتر از انسانهایی که به همان اطلاعات دسترسی نداشتند، متقاعدکننده بودند.
نویسندگان متوجه شدند که وقتی شرکتکنندگان فکر میکردند در حال بحث با هوش مصنوعی هستند، احتمال بیشتری داشت که با آن موافقت کنند. محققان میگویند دلایل این امر مشخص نیست و بر نیاز به تحقیقات بیشتر درباره نحوه واکنش انسانها به هوش مصنوعی تأکید کردند.
گالوتی میگوید: «ما هنوز در موقعیتی نیستیم که تعیین کنیم آیا تغییر مشاهده شده در توافق ناشی از باور شرکتکنندگان در مورد اینکه حریفشان ربات است (زیرا باور دارم ربات است، اگر اینجا نظرم را تغییر دهم، به کسی نباختهام)، یا اینکه این باورها خود نتیجه تغییر نظر هستند (چون باختم، باید در مقابل یک ربات بوده باشد). این جهتگیری علّی یک سوال باز جالب برای بررسی است.»
گالوتی میگوید، اگرچه این آزمایش بازتاب دهنده نحوه بحث انسانها به صورت آنلاین نیست، اما تحقیق نشان میدهد که مدلهای زبانی بزرگ میتوانند راهی مؤثر نه تنها برای انتشار بلکه برای مقابله با کارزارهای اطلاعات نادرست گسترده نیز باشند. برای مثال، آنها میتوانند روایتهای مقابلهای شخصیسازی شدهای را برای آموزش افرادی که ممکن است در مکالمات آنلاین آسیبپذیر در برابر فریب باشند، تولید کنند. او میافزاید: «با این حال، تحقیقات بیشتری به فوریت برای کشف راهبردهای مؤثر برای کاهش این تهدیدها مورد نیاز است.»
الکسیس پالمر، پژوهشگر در کالج دارتموث که درباره نحوه استدلال مدلهای زبانی بزرگ در مورد سیاست تحقیق کرده اما در این پژوهش شرکت نداشته است، میگوید: در حالی که اطلاعات زیادی در مورد نحوه واکنش انسانها به یکدیگر داریم، اطلاعات بسیار کمی در مورد روانشناسی پشت نحوه تعامل افراد با مدلهای هوش مصنوعی داریم.
او میگوید: «در زمینه گفتگو با کسی در مورد چیزی که با آن مخالف هستید، آیا چیز ذاتاً انسانی وجود دارد که برای آن تعامل اهمیت داشته باشد؟ یا اینکه اگر یک هوش مصنوعی بتواند آن صحبت را به طور کامل تقلید کند، همان نتیجه دقیق را خواهید گرفت؟» او میافزاید: «فکر میکنم این سوال بزرگ کلی هوش مصنوعی است.»