تصویرسازی: Sarah Rogers/MITTR | عکس: Getty
تصویرسازی: Sarah Rogers/MITTR | عکس: Getty

OpenAI اولین تحقیق خود را در مورد چگونگی تأثیر استفاده از ChatGPT بر بهزیستی عاطفی افراد منتشر کرد

ما کم کم درک بهتری از چگونگی تأثیر چت‌بات‌ها بر ما پیدا می‌کنیم—اما هنوز چیزهای زیادی وجود دارد که نمی‌دانیم.

تصویری از فردی که شبح فرد دیگری را در آغوش گرفته است، پر از متنی که نشان می‌دهد چرا مردم می‌توانند از نظر عاطفی به ChatGPT وابسته شوند.
تصویرسازی: Sarah Rogers/MITTR | عکس: Getty

OpenAI می‌گوید که بیش از 400 میلیون نفر هر هفته از ChatGPT استفاده می‌کنند. اما تعامل با آن چه تاثیری بر ما دارد؟ آیا ما را تنهاتر می‌کند یا کمتر؟ اینها برخی از سوالاتی هستند که OpenAI در مشارکت با آزمایشگاه رسانه MIT، در یک جفت مطالعه جدید، به بررسی آنها پرداخته است.

آنها دریافتند که تنها زیرمجموعه کوچکی از کاربران از نظر عاطفی با ChatGPT درگیر می‌شوند. کیت دولین، استاد هوش مصنوعی و جامعه در کینگز کالج لندن، که در این پروژه کار نکرده است، می‌گوید این تعجب‌آور نیست، زیرا ChatGPT مانند Replika یا Character.AI به عنوان یک برنامه همراه هوش مصنوعی به بازار عرضه نمی‌شود. او می‌گوید: «ChatGPT به عنوان یک ابزار بهره‌وری راه‌اندازی شده است. اما ما می‌دانیم که مردم به هر حال از آن مانند یک برنامه همراه استفاده می‌کنند.» در واقع، افرادی که از آن به این شکل استفاده می‌کنند، احتمالاً برای مدت طولانی‌تری با آن تعامل خواهند داشت، به طوری که برخی از آنها به طور متوسط حدود نیم ساعت در روز از آن استفاده می‌کنند.

دولین می‌گوید: «نویسندگان در مورد محدودیت‌های این مطالعات بسیار واضح هستند، اما دیدن اینکه آنها این کار را انجام داده‌اند، هیجان‌انگیز است. دسترسی به این سطح از داده‌ها باورنکردنی است.»

محققان تفاوت‌های جالب توجهی بین نحوه پاسخ مردان و زنان به استفاده از ChatGPT یافتند. پس از استفاده از چت‌بات به مدت چهار هفته، شرکت‌کنندگان زن در مطالعه نسبت به همتایان مرد خود که همین کار را انجام دادند، کمی کمتر با مردم معاشرت می‌کردند. در همین حال، شرکت‌کنندگانی که حالت صوتی ChatGPT را برای تعاملات خود به جنسیتی غیر از جنسیت خود تنظیم کردند، در پایان آزمایش سطوح بالاتری از تنهایی و وابستگی عاطفی بیشتری به چت‌بات گزارش دادند. OpenAI در حال حاضر هیچ برنامه‌ای برای انتشار هیچ یک از این مطالعات ندارد.

چت‌بات‌های مبتنی بر مدل‌های زبانی بزرگ هنوز یک فناوری نوپا هستند و مطالعه چگونگی تأثیر عاطفی آنها بر ما دشوار است. بسیاری از تحقیقات موجود در این زمینه—از جمله برخی از کارهای جدید OpenAI و MIT—متکی به داده‌های خود گزارش‌دهی هستند که ممکن است همیشه دقیق یا قابل اعتماد نباشند. با این حال، این آخرین تحقیق با آنچه دانشمندان تاکنون در مورد چگونگی جذابیت عاطفی مکالمات چت‌بات کشف کرده‌اند، همخوانی دارد. به عنوان مثال، در سال 2023، محققان آزمایشگاه رسانه MIT دریافتند که چت‌بات‌ها تمایل دارند احساسات عاطفی پیام‌های کاربر را منعکس کنند، که نشان‌دهنده نوعی حلقه بازخورد است که هرچه شادتر عمل کنید، هوش مصنوعی شادتر به نظر می‌رسد، یا برعکس، اگر غمگین‌تر عمل کنید، هوش مصنوعی نیز همینطور.

OpenAI و آزمایشگاه رسانه MIT از یک روش دو جانبه استفاده کردند. ابتدا آنها داده‌های واقعی را از نزدیک به 40 میلیون تعامل با ChatGPT جمع‌آوری و تجزیه و تحلیل کردند. سپس از 4076 کاربری که این تعاملات را داشتند، پرسیدند که چه احساسی به آنها داده است. در مرحله بعد، آزمایشگاه رسانه نزدیک به 1000 نفر را برای شرکت در یک آزمایش چهار هفته‌ای استخدام کرد. این آزمایش عمیق‌تر بود و بررسی می‌کرد که شرکت‌کنندگان حداقل پنج دقیقه در روز با ChatGPT تعامل داشته باشند. در پایان آزمایش، شرکت‌کنندگان پرسشنامه‌ای را برای سنجش درک خود از چت‌بات، احساسات ذهنی تنهایی، سطوح تعامل اجتماعی، وابستگی عاطفی به ربات و احساس اینکه استفاده آنها از ربات مشکل‌ساز است، تکمیل کردند. آنها دریافتند که شرکت‌کنندگانی که بیشتر به ChatGPT اعتماد و با آن "پیوند" برقرار کرده‌اند، بیشتر از دیگران تنها هستند و بیشتر به آن تکیه می‌کنند.

جیسون فانگ، محقق سیاست‌گذاری OpenAI که روی این پروژه کار کرده است، می‌گوید این کار گام مهمی به سوی بینش بیشتر در مورد تأثیر ChatGPT بر ما است، که می‌تواند به پلتفرم‌های هوش مصنوعی کمک کند تا تعاملات ایمن‌تر و سالم‌تری را فعال کنند.

او می‌گوید: «بسیاری از کارهایی که ما در اینجا انجام می‌دهیم، مقدماتی هستند، اما ما سعی می‌کنیم گفتگو را با این زمینه در مورد انواع چیزهایی که می‌توانیم شروع به اندازه‌گیری کنیم، آغاز کنیم و به این فکر کنیم که تأثیر طولانی‌مدت بر کاربران چیست.»

دولین می‌گوید، اگرچه از این تحقیق استقبال می‌شود، اما هنوز دشوار است که تشخیص دهیم چه زمانی یک انسان از نظر عاطفی با فناوری درگیر است—و چه زمانی نیست. او می‌گوید شرکت‌کنندگان در مطالعه ممکن است احساساتی را تجربه کرده باشند که توسط محققان ثبت نشده است.

او می‌گوید: «از نظر آنچه تیم‌ها برای اندازه‌گیری تعیین کردند، ممکن است مردم لزوماً از ChatGPT به روشی عاطفی استفاده نکرده باشند، اما شما نمی‌توانید انسان بودن را از تعاملات خود [با فناوری] جدا کنید. ما از طبقه‌بندی‌کننده‌های احساساتی که ایجاد کرده‌ایم استفاده می‌کنیم تا به دنبال چیزهای خاصی بگردیم—اما معنای واقعی آن برای زندگی کسی واقعاً دشوار است.»