الکساندر سوپرترمپ / شاتراستاک
الکساندر سوپرترمپ / شاتراستاک

مطالعه جدید: مردم به توصیه‌های حقوقی تولید شده توسط ChatGPT بیشتر از یک وکیل اعتماد می‌کنند

طرح یک وکیل در دادگاه
LLMها ممکن است توصیه‌های خود را با اطمینان بیشتری نسبت به وکلای واقعی بیان کنند. apatrimonio / شاتراستاک

افرادی که متخصص حقوقی نیستند، بیشتر مایلند به توصیه‌های حقوقی ارائه شده توسط ChatGPT اعتماد کنند تا وکلای واقعی - حداقل، زمانی که نمی‌دانند کدام یک از این دو، توصیه را ارائه کرده است. این یافته اصلی تحقیق جدید ما است که برخی از نگرانی‌های مهم در مورد نحوه تکیه روزافزون مردم به محتوای تولید شده توسط هوش مصنوعی را برجسته می‌کند. ما همچنین دریافتیم که مردم حداقل تا حدودی توانایی تشخیص اینکه آیا این توصیه از ChatGPT آمده است یا یک وکیل انسانی را دارند.

ابزارهای هوش مصنوعی مانند ChatGPT و سایر مدل‌های زبانی بزرگ (LLM) در حال ورود به زندگی روزمره ما هستند. آنها قول می‌دهند که پاسخ‌های سریع ارائه دهند، ایده‌ها را تولید کنند، علائم پزشکی را تشخیص دهند و حتی با ارائه توصیه‌های حقوقی مشخص، به سؤالات حقوقی کمک کنند.

اما LLMها به ایجاد به اصطلاح "توهمات" معروف هستند - یعنی خروجی‌هایی که حاوی محتوای نادرست یا بی‌معنی هستند. این بدان معناست که خطر واقعی مرتبط با تکیه بیش از حد مردم به آنها، به ویژه در حوزه‌های پرخطر مانند حقوق، وجود دارد. LLMها تمایل دارند توصیه‌ها را با اطمینان ارائه دهند، و تشخیص توصیه‌های خوب از توصیه‌های بد با صدای قاطع را برای مردم دشوار می‌کنند.

ما سه آزمایش بر روی مجموعاً ۲۸۸ نفر انجام دادیم. در دو آزمایش اول، به شرکت‌کنندگان توصیه‌های حقوقی داده شد و از آنها پرسیده شد که مایلند به کدام یک عمل کنند. هنگامی که مردم نمی‌دانستند که این توصیه از یک وکیل آمده است یا یک هوش مصنوعی، دریافتیم که بیشتر مایل به تکیه بر توصیه‌های تولید شده توسط هوش مصنوعی هستند. این بدان معناست که اگر یک LLM بدون افشای ماهیت خود، توصیه‌های حقوقی ارائه دهد، مردم ممکن است آن را به عنوان یک واقعیت بپذیرند و آن را به توصیه‌های تخصصی وکلا ترجیح دهند - احتمالاً بدون زیر سوال بردن صحت آن.

حتی زمانی که به شرکت‌کنندگان گفته شد که کدام توصیه از یک وکیل آمده و کدام توسط هوش مصنوعی تولید شده است، دریافتیم که آنها به همان اندازه مایل به پیروی از ChatGPT هستند.

یکی از دلایلی که ممکن است LLMها مورد علاقه باشند، همانطور که در مطالعه ما یافت شد، این است که آنها از زبان پیچیده‌تری استفاده می‌کنند. از طرف دیگر، وکلای واقعی تمایل داشتند از زبان ساده‌تری استفاده کنند اما از کلمات بیشتری در پاسخ‌های خود استفاده می‌کردند.

آزمایش سوم بررسی کرد که آیا شرکت‌کنندگان می‌توانند بین محتوای تولید شده توسط LLM و وکیل، زمانی که منبع به آنها فاش نمی‌شود، تمایز قائل شوند یا خیر. خبر خوب این است که آنها می‌توانند - اما نه خیلی زیاد.

در وظیفه ما، حدس زدن تصادفی نمره ۰.۵ را به دست می‌داد، در حالی که تبعیض کامل نمره ۱.۰ را به دست می‌داد. به طور متوسط، شرکت‌کنندگان نمره ۰.۵۹ را کسب کردند، که نشان‌دهنده عملکردی کمی بهتر از حدس زدن تصادفی بود، اما همچنان نسبتاً ضعیف.

تنظیم مقررات و سواد هوش مصنوعی

این یک لحظه حیاتی برای تحقیقاتی مانند تحقیقات ما است، زیرا سیستم‌های مبتنی بر هوش مصنوعی مانند چت‌بات‌ها و LLMها به طور فزاینده‌ای در زندگی روزمره ادغام می‌شوند. الکسا یا گوگل هوم می‌توانند به عنوان دستیار خانه عمل کنند، در حالی که سیستم‌های فعال‌شده با هوش مصنوعی می‌توانند در کارهای پیچیده مانند خرید آنلاین، خلاصه‌سازی متون حقوقی یا تولید سوابق پزشکی کمک کنند.

با این حال، این موضوع با خطرات قابل توجهی در مورد تصمیم‌گیری‌های بالقوه تغییردهنده زندگی همراه است که توسط اطلاعات نادرست توهمی هدایت می‌شوند. در پرونده حقوقی، توصیه‌های تولید شده توسط هوش مصنوعی و توهمی می‌تواند باعث عوارض غیرضروری یا حتی سقط عدالت شود.

به همین دلیل است که تنظیم مناسب هوش مصنوعی هرگز مهمتر از این نبوده است. تلاش‌ها تاکنون شامل قانون هوش مصنوعی اتحادیه اروپا است که ماده ۵۰.۹ آن بیان می‌کند که هوش مصنوعی تولیدکننده متن باید اطمینان حاصل کند که خروجی‌های آنها "در قالبی قابل خواندن توسط ماشین علامت‌گذاری شده و به عنوان تولید یا دستکاری مصنوعی قابل تشخیص هستند".

اما این تنها بخشی از راه حل است. ما همچنین باید سواد هوش مصنوعی را بهبود بخشیم تا عموم مردم بتوانند محتوا را بهتر ارزیابی کنند. هنگامی که مردم بتوانند هوش مصنوعی را بهتر تشخیص دهند، می‌توانند تصمیمات آگاهانه‌تری بگیرند.

این بدان معناست که ما باید یاد بگیریم منبع توصیه‌ها را زیر سوال ببریم، قابلیت‌ها و محدودیت‌های هوش مصنوعی را درک کنیم و استفاده از تفکر انتقادی و عقل سلیم را در تعامل با محتوای تولید شده توسط هوش مصنوعی تأکید کنیم. در عمل، این بدان معناست که اطلاعات مهم را با منابع معتبر بررسی کنیم و از متخصصان انسانی برای جلوگیری از تکیه بیش از حد به اطلاعات تولید شده توسط هوش مصنوعی استفاده کنیم.

در مورد توصیه‌های حقوقی، ممکن است استفاده از هوش مصنوعی برای برخی سؤالات اولیه خوب باشد: "گزینه‌های من در اینجا چیست؟ چه چیزی را باید مطالعه کنم؟ آیا موارد مشابهی با مورد من وجود دارد، یا این در کدام حوزه حقوقی است؟" اما مهم است که توصیه‌ها را با یک وکیل انسانی مدت‌ها قبل از اینکه به دادگاه ختم شود یا بر اساس هر چیزی که توسط یک LLM تولید می‌شود، عمل کنیم.

هوش مصنوعی می‌تواند یک ابزار ارزشمند باشد، اما ما باید از آن مسئولانه استفاده کنیم. با استفاده از یک رویکرد دو جانبه که بر تنظیم مقررات و سواد هوش مصنوعی متمرکز است، می‌توانیم از مزایای آن بهره‌مند شویم و در عین حال خطرات آن را به حداقل برسانیم.