اولین کارآزمایی بالینی یک بات درمانی که از هوش مصنوعی مولد استفاده میکند، نشان میدهد که این روش برای شرکتکنندگان مبتلا به افسردگی، اضطراب یا در معرض خطر ابتلا به اختلالات خوردن، به اندازه درمان توسط انسان مؤثر بوده است. با این حال، این نتایج مجوزی برای دهها شرکتی که چنین فناوریهایی را تبلیغ میکنند و در یک حوزه قانونی مبهم فعالیت دارند، صادر نمیکند.
تیمی به رهبری پژوهشگران روانپزشکی و روانشناسان دانشکده پزشکی گیزل در کالج دارتموث این ابزار را به نام ترابات (Therabot) ساختند و نتایج آن در ۲۷ مارس در مجله پزشکی نیوانگلند (New England Journal of Medicine) منتشر شد. بسیاری از شرکتهای فناوری ابزارهای هوش مصنوعی برای درمان ساختهاند و وعده میدهند که افراد میتوانند با یک بات، بیشتر و ارزانتر از یک درمانگر آموزشدیده صحبت کنند – و این رویکرد ایمن و مؤثر است.
بسیاری از روانشناسان و روانپزشکان این دیدگاه را پذیرفتهاند و اشاره میکنند که کمتر از نیمی از افراد مبتلا به اختلالات روانی، درمان دریافت میکنند و آنهایی هم که درمان میشوند، ممکن است فقط ۴۵ دقیقه در هفته مشاوره بگیرند. پژوهشگران سعی کردهاند فناوریهایی بسازند تا افراد بیشتری بتوانند به درمان دسترسی داشته باشند، اما دو مانع پیش روی آنها بوده است.
اول اینکه، یک بات درمانی که حرف اشتباهی بزند، میتواند منجر به آسیب واقعی شود. به همین دلیل بسیاری از پژوهشگران، باتها را با استفاده از برنامهریزی صریح ساختهاند: نرمافزار از یک بانک محدود از پاسخهای تأیید شده استفاده میکند (مانند الایزا (Eliza)، یک برنامه کامپیوتری شبه-رواندرمانگر که در دهه ۱۹۶۰ ساخته شد). اما این باعث میشود که گفتگو با آنها کمتر جذاب باشد و افراد علاقه خود را از دست بدهند. مسئله دوم این است که ویژگیهای بارز روابط درمانی خوب – اهداف مشترک و همکاری – به سختی در نرمافزار قابل تکرار هستند.
در سال ۲۰۱۹، همزمان با شکلگیری مدلهای زبانی بزرگ اولیه مانند GPT از OpenAI، پژوهشگران دارتموث فکر کردند که هوش مصنوعی مولد ممکن است به غلبه بر این موانع کمک کند. آنها شروع به ساخت یک مدل هوش مصنوعی کردند که برای ارائه پاسخهای مبتنی بر شواهد آموزش دیده بود. ابتدا سعی کردند آن را بر اساس مکالمات عمومی سلامت روان که از انجمنهای اینترنتی جمعآوری شده بود، بسازند. سپس به هزاران ساعت رونوشت از جلسات واقعی با رواندرمانگران روی آوردند.
مایکل هاینز، روانپزشک پژوهشگر در کالج دارتموث و دارتموث هلث و نویسنده اول این مطالعه، در مصاحبهای گفت: «ما پاسخهای زیادی مانند "هوم-هوم"، "ادامه بده" و سپس "مشکلات شما ناشی از رابطه شما با مادرتان است" دریافت کردیم. واقعاً کلیشههایی از آنچه رواندرمانی میتواند باشد، به جای آنچه واقعاً میخواستیم.»
آنها که ناراضی بودند، شروع به جمعآوری مجموعه دادههای سفارشی خود بر اساس شیوههای مبتنی بر شواهد کردند، که در نهایت وارد مدل شد. در مقابل، بسیاری از باتهای درمانی هوش مصنوعی موجود در بازار ممکن است فقط تغییرات جزئی از مدلهای پایه مانند Llama متا باشند که عمدتاً بر روی مکالمات اینترنتی آموزش دیدهاند. این موضوع، بهویژه برای موضوعاتی مانند اختلالات خوردن، مشکلساز است.
هاینز میگوید: «اگر بگویید که میخواهید وزن کم کنید، آنها بهراحتی از شما در انجام این کار حمایت میکنند، حتی اگر اغلب وزن پایینی داشته باشید.» یک درمانگر انسانی این کار را نمیکند.
برای آزمایش بات، پژوهشگران یک کارآزمایی بالینی هشت هفتهای با ۲۱۰ شرکتکننده انجام دادند که علائم افسردگی یا اختلال اضطراب فراگیر داشتند یا در معرض خطر بالای اختلالات خوردن بودند. حدود نیمی از آنها به ترابات (Therabot) دسترسی داشتند و گروه کنترل این دسترسی را نداشت. شرکتکنندگان به پیامهای هوش مصنوعی پاسخ دادند و مکالمات را آغاز کردند و بهطور متوسط روزانه حدود ۱۰ پیام رد و بدل میکردند.
شرکتکنندگان مبتلا به افسردگی ۵۱٪ کاهش علائم را تجربه کردند که بهترین نتیجه در این مطالعه بود. افراد مبتلا به اضطراب ۳۱٪ کاهش علائم را تجربه کردند و افراد در معرض خطر اختلالات خوردن، ۱۹٪ کاهش نگرانی در مورد تصویر بدن و وزن را مشاهده کردند. این اندازهگیریها بر اساس خودگزارشدهی از طریق نظرسنجیها است، روشی که کامل نیست اما همچنان یکی از بهترین ابزارهایی است که پژوهشگران در اختیار دارند.
هاینز میگوید این نتایج تقریباً مشابه آن چیزی است که در کارآزماییهای کنترلشده تصادفی رواندرمانی با ۱۶ ساعت درمان ارائهشده توسط انسان یافت میشود، اما آزمایش ترابات (Therabot) این نتایج را تقریباً در نیمی از زمان به دست آورد. او میگوید: «من مدتهاست که در زمینه درمانهای دیجیتال کار میکنم و هرگز سطوح تعاملی را ندیدهام که در این سطح، طولانیمدت و پایدار باشد.»
ژان-کریستف بلیسل-پیپون، استادیار اخلاق سلامت در دانشگاه سایمون فریزر که در مورد باتهای درمانی هوش مصنوعی مقالاتی نوشته اما در این پژوهش دخالتی نداشته است، میگوید نتایج چشمگیر هستند اما اشاره میکند که درست مانند هر کارآزمایی بالینی دیگری، این مورد لزوماً نشاندهنده نحوه عملکرد درمان در دنیای واقعی نیست.
او در ایمیلی نوشت: «ما هنوز تا رسیدن به "چراغ سبز" برای استقرار گسترده بالینی فاصله زیادی داریم.»
یک مسئله، نظارتی است که استقرار گستردهتر ممکن است نیاز داشته باشد. هاینز میگوید در ابتدای آزمایش، او شخصاً بر تمام پیامهای دریافتی از شرکتکنندگان (که با این ترتیب موافقت کرده بودند) نظارت میکرد تا مراقب پاسخهای مشکلساز بات باشد. اگر باتهای درمانی به این نظارت نیاز داشته باشند، نمیتوانند به افراد زیادی دسترسی پیدا کنند.
از هاینز پرسیدم که آیا فکر میکند این نتایج، صنعت رو به رشد سایتهای درمانی هوش مصنوعی را تأیید میکند.
او میگوید: «کاملاً برعکس». او هشدار میدهد که به نظر نمیرسد بیشتر آنها مدلهای خود را بر اساس شیوههای مبتنی بر شواهد مانند درمان شناختی رفتاری (Cognitive Behavioral Therapy) آموزش دهند و احتمالاً تیمی از پژوهشگران آموزشدیده را برای نظارت بر تعاملات استخدام نمیکنند. او اضافه میکند: «من نگرانیهای زیادی در مورد این صنعت و سرعتی که بدون ارزیابی واقعی در حال حرکت هستیم، دارم.»
هاینز میگوید وقتی سایتهای هوش مصنوعی خود را بهعنوان ارائهدهنده درمان در یک زمینه بالینی و قانونی تبلیغ میکنند، به این معنی است که تحت نظارت سازمان غذا و دارو (FDA) قرار میگیرند. تاکنون، FDA بسیاری از این سایتها را پیگیری نکرده است. هاینز میگوید اگر این کار را میکرد، «گمان من این است که تقریباً هیچکدام از آنها - احتمالاً هیچکدام - که در این فضا فعالیت میکنند، توانایی دریافت تأییدیه ادعا را نخواهند داشت» - یعنی حکمی که ادعاهای آنها در مورد مزایای ارائهشده را تأیید کند.
بلیسل-پیپون اشاره میکند که اگر این نوع درمانهای دیجیتال تأیید و در سیستمهای مراقبتهای بهداشتی و بیمه ادغام نشوند، دسترسی به آنها بهشدت محدود خواهد شد. در عوض، افرادی که از استفاده از آنها سود میبرند، ممکن است به دنبال پیوندهای عاطفی و درمان از انواع هوش مصنوعی باشند که برای این اهداف طراحی نشدهاند (در واقع، تحقیقات جدید از OpenAI نشان میدهد که تعامل با مدلهای هوش مصنوعی آن تأثیر بسیار واقعی بر بهزیستی عاطفی دارد).
او نوشت: «بسیار محتمل است که بسیاری از افراد همچنان برای نیازهای روزمره، از تولید ایدههای دستور پخت غذا گرفته تا مدیریت سلامت روان خود، به چتباتهای ارزانتر و غیر درمانی - مانند ChatGPT یا Character.AI - تکیه کنند.»