افرادی که متخصص حقوقی نیستند، بیشتر مایلند به توصیههای حقوقی ارائه شده توسط ChatGPT اعتماد کنند تا وکلای واقعی - حداقل، زمانی که نمیدانند کدام یک از این دو، توصیه را ارائه کرده است. این یافته اصلی تحقیق جدید ما است که برخی از نگرانیهای مهم در مورد نحوه تکیه روزافزون مردم به محتوای تولید شده توسط هوش مصنوعی را برجسته میکند. ما همچنین دریافتیم که مردم حداقل تا حدودی توانایی تشخیص اینکه آیا این توصیه از ChatGPT آمده است یا یک وکیل انسانی را دارند.
ابزارهای هوش مصنوعی مانند ChatGPT و سایر مدلهای زبانی بزرگ (LLM) در حال ورود به زندگی روزمره ما هستند. آنها قول میدهند که پاسخهای سریع ارائه دهند، ایدهها را تولید کنند، علائم پزشکی را تشخیص دهند و حتی با ارائه توصیههای حقوقی مشخص، به سؤالات حقوقی کمک کنند.
اما LLMها به ایجاد به اصطلاح "توهمات" معروف هستند - یعنی خروجیهایی که حاوی محتوای نادرست یا بیمعنی هستند. این بدان معناست که خطر واقعی مرتبط با تکیه بیش از حد مردم به آنها، به ویژه در حوزههای پرخطر مانند حقوق، وجود دارد. LLMها تمایل دارند توصیهها را با اطمینان ارائه دهند، و تشخیص توصیههای خوب از توصیههای بد با صدای قاطع را برای مردم دشوار میکنند.
ما سه آزمایش بر روی مجموعاً ۲۸۸ نفر انجام دادیم. در دو آزمایش اول، به شرکتکنندگان توصیههای حقوقی داده شد و از آنها پرسیده شد که مایلند به کدام یک عمل کنند. هنگامی که مردم نمیدانستند که این توصیه از یک وکیل آمده است یا یک هوش مصنوعی، دریافتیم که بیشتر مایل به تکیه بر توصیههای تولید شده توسط هوش مصنوعی هستند. این بدان معناست که اگر یک LLM بدون افشای ماهیت خود، توصیههای حقوقی ارائه دهد، مردم ممکن است آن را به عنوان یک واقعیت بپذیرند و آن را به توصیههای تخصصی وکلا ترجیح دهند - احتمالاً بدون زیر سوال بردن صحت آن.
حتی زمانی که به شرکتکنندگان گفته شد که کدام توصیه از یک وکیل آمده و کدام توسط هوش مصنوعی تولید شده است، دریافتیم که آنها به همان اندازه مایل به پیروی از ChatGPT هستند.
یکی از دلایلی که ممکن است LLMها مورد علاقه باشند، همانطور که در مطالعه ما یافت شد، این است که آنها از زبان پیچیدهتری استفاده میکنند. از طرف دیگر، وکلای واقعی تمایل داشتند از زبان سادهتری استفاده کنند اما از کلمات بیشتری در پاسخهای خود استفاده میکردند.
آزمایش سوم بررسی کرد که آیا شرکتکنندگان میتوانند بین محتوای تولید شده توسط LLM و وکیل، زمانی که منبع به آنها فاش نمیشود، تمایز قائل شوند یا خیر. خبر خوب این است که آنها میتوانند - اما نه خیلی زیاد.
در وظیفه ما، حدس زدن تصادفی نمره ۰.۵ را به دست میداد، در حالی که تبعیض کامل نمره ۱.۰ را به دست میداد. به طور متوسط، شرکتکنندگان نمره ۰.۵۹ را کسب کردند، که نشاندهنده عملکردی کمی بهتر از حدس زدن تصادفی بود، اما همچنان نسبتاً ضعیف.
تنظیم مقررات و سواد هوش مصنوعی
این یک لحظه حیاتی برای تحقیقاتی مانند تحقیقات ما است، زیرا سیستمهای مبتنی بر هوش مصنوعی مانند چتباتها و LLMها به طور فزایندهای در زندگی روزمره ادغام میشوند. الکسا یا گوگل هوم میتوانند به عنوان دستیار خانه عمل کنند، در حالی که سیستمهای فعالشده با هوش مصنوعی میتوانند در کارهای پیچیده مانند خرید آنلاین، خلاصهسازی متون حقوقی یا تولید سوابق پزشکی کمک کنند.
با این حال، این موضوع با خطرات قابل توجهی در مورد تصمیمگیریهای بالقوه تغییردهنده زندگی همراه است که توسط اطلاعات نادرست توهمی هدایت میشوند. در پرونده حقوقی، توصیههای تولید شده توسط هوش مصنوعی و توهمی میتواند باعث عوارض غیرضروری یا حتی سقط عدالت شود.
به همین دلیل است که تنظیم مناسب هوش مصنوعی هرگز مهمتر از این نبوده است. تلاشها تاکنون شامل قانون هوش مصنوعی اتحادیه اروپا است که ماده ۵۰.۹ آن بیان میکند که هوش مصنوعی تولیدکننده متن باید اطمینان حاصل کند که خروجیهای آنها "در قالبی قابل خواندن توسط ماشین علامتگذاری شده و به عنوان تولید یا دستکاری مصنوعی قابل تشخیص هستند".
اما این تنها بخشی از راه حل است. ما همچنین باید سواد هوش مصنوعی را بهبود بخشیم تا عموم مردم بتوانند محتوا را بهتر ارزیابی کنند. هنگامی که مردم بتوانند هوش مصنوعی را بهتر تشخیص دهند، میتوانند تصمیمات آگاهانهتری بگیرند.
این بدان معناست که ما باید یاد بگیریم منبع توصیهها را زیر سوال ببریم، قابلیتها و محدودیتهای هوش مصنوعی را درک کنیم و استفاده از تفکر انتقادی و عقل سلیم را در تعامل با محتوای تولید شده توسط هوش مصنوعی تأکید کنیم. در عمل، این بدان معناست که اطلاعات مهم را با منابع معتبر بررسی کنیم و از متخصصان انسانی برای جلوگیری از تکیه بیش از حد به اطلاعات تولید شده توسط هوش مصنوعی استفاده کنیم.
در مورد توصیههای حقوقی، ممکن است استفاده از هوش مصنوعی برای برخی سؤالات اولیه خوب باشد: "گزینههای من در اینجا چیست؟ چه چیزی را باید مطالعه کنم؟ آیا موارد مشابهی با مورد من وجود دارد، یا این در کدام حوزه حقوقی است؟" اما مهم است که توصیهها را با یک وکیل انسانی مدتها قبل از اینکه به دادگاه ختم شود یا بر اساس هر چیزی که توسط یک LLM تولید میشود، عمل کنیم.
هوش مصنوعی میتواند یک ابزار ارزشمند باشد، اما ما باید از آن مسئولانه استفاده کنیم. با استفاده از یک رویکرد دو جانبه که بر تنظیم مقررات و سواد هوش مصنوعی متمرکز است، میتوانیم از مزایای آن بهرهمند شویم و در عین حال خطرات آن را به حداقل برسانیم.