مطالعات جدیدی از OpenAI و آزمایشگاه رسانه MIT نشان داد که به طور کلی، هر چه کاربران زمان بیشتری را صرف صحبت با ChatGPT کنند، احساس تنهایی بیشتری میکنند. این ارتباط به عنوان بخشی از دو مطالعه که هنوز مورد بررسی همتایان قرار نگرفتهاند، انجام شد. یکی در OpenAI با تجزیه و تحلیل "بیش از 40 میلیون تعامل ChatGPT" و بررسیهای هدفمند کاربران، و دیگری در آزمایشگاه رسانه MIT با پیگیری استفاده شرکتکنندگان از ChatGPT به مدت چهار هفته انجام شد.
مطالعه MIT چندین روش را شناسایی کرد که صحبت با ChatGPT - چه از طریق متن یا صدا - میتواند بر تجربه عاطفی فرد تأثیر بگذارد، فراتر از این یافته کلی که استفاده بیشتر منجر به "افزایش تنهایی و کاهش معاشرت" میشود. به عنوان مثال، شرکتکنندگانی که قبلاً به چتبات اعتماد داشتند و تمایل داشتند در روابط انسانی به لحاظ عاطفی وابسته شوند، در طول مطالعه احساس تنهایی بیشتری میکردند و وابستگی عاطفی بیشتری به ChatGPT داشتند. این اثرات در حالت صوتی ChatGPT کمتر شدید بود، به خصوص اگر ChatGPT با لحن خنثی صحبت میکرد. بحث در مورد موضوعات شخصی نیز در کوتاه مدت منجر به تنهایی میشد و جالب اینجاست که صحبت با ChatGPT در مورد موضوعات کلیتر احتمال بیشتری داشت که وابستگی عاطفی را افزایش دهد.
یافته بزرگ مطالعه OpenAI این بود که داشتن مکالمات عاطفی با ChatGPT هنوز رایج نیست. OpenAI مینویسد: "تعاملات با بار عاطفی در درصد زیادی از استفاده فقط برای گروه کوچکی از کاربران سنگین حالت صوتی پیشرفته که مورد مطالعه قرار دادیم، وجود داشت." این نشان میدهد که حتی اگر یافتههای MIT به همان اندازه نگرانکننده باشند که جای تعجب ندارد، دقیقاً در خارج از گروه کوچکی از کاربران حرفهای، گسترده نیستند.
محدودیتهای مهمی در تحقیقات آزمایشگاه رسانه MIT و OpenAI وجود دارد، مانند این که هر دو مطالعه یک دوره زمانی کوتاه (یک ماه برای MIT، 28 روز برای OpenAI) را پوشش میدهند و MIT یک گروه کنترل برای مقایسه ندارد. این مطالعات شواهد بیشتری به چیزی اضافه میکنند که مدتی است به طور غریزی درست به نظر میرسد - صحبت با هوش مصنوعی تأثیر روانی بر انسانهایی دارد که صحبت میکنند. با توجه به علاقه شدید به تبدیل هوش مصنوعی به یک شریک مکالمه جذاب، چه در بازیهای ویدیویی یا به عنوان راهی برای سادهسازی کار سازندگان یوتیوب، واضح است که آزمایشگاه رسانه MIT و OpenAI حق دارند که میخواهند درک کنند وقتی صحبت با هوش مصنوعی به یک هنجار تبدیل شود چه اتفاقی خواهد افتاد.