استفانی آرنت/ام‌آی‌تی تکنولوژی ریویو | با مجوز از ترابات (بات)
استفانی آرنت/ام‌آی‌تی تکنولوژی ریویو | با مجوز از ترابات (بات)

اولین آزمایش درمان با هوش مصنوعی مولد نشان می‌دهد که ممکن است به بهبود افسردگی کمک کند

اولین کارآزمایی بالینی یک بات درمانی که از هوش مصنوعی مولد استفاده می‌کند، نشان می‌دهد که این روش برای شرکت‌کنندگان مبتلا به افسردگی، اضطراب یا در معرض خطر ابتلا به اختلالات خوردن، به اندازه درمان توسط انسان مؤثر بوده است. با این حال، این نتایج مجوزی برای ده‌ها شرکتی که چنین فناوری‌هایی را تبلیغ می‌کنند و در یک حوزه قانونی مبهم فعالیت دارند، صادر نمی‌کند.

تیمی به رهبری پژوهشگران روان‌پزشکی و روان‌شناسان دانشکده پزشکی گیزل در کالج دارتموث این ابزار را به نام ترابات (Therabot) ساختند و نتایج آن در ۲۷ مارس در مجله پزشکی نیوانگلند (New England Journal of Medicine) منتشر شد. بسیاری از شرکت‌های فناوری ابزارهای هوش مصنوعی برای درمان ساخته‌اند و وعده می‌دهند که افراد می‌توانند با یک بات، بیشتر و ارزان‌تر از یک درمانگر آموزش‌دیده صحبت کنند – و این رویکرد ایمن و مؤثر است.

بسیاری از روان‌شناسان و روان‌پزشکان این دیدگاه را پذیرفته‌اند و اشاره می‌کنند که کمتر از نیمی از افراد مبتلا به اختلالات روانی، درمان دریافت می‌کنند و آنهایی هم که درمان می‌شوند، ممکن است فقط ۴۵ دقیقه در هفته مشاوره بگیرند. پژوهشگران سعی کرده‌اند فناوری‌هایی بسازند تا افراد بیشتری بتوانند به درمان دسترسی داشته باشند، اما دو مانع پیش روی آنها بوده است.

اول اینکه، یک بات درمانی که حرف اشتباهی بزند، می‌تواند منجر به آسیب واقعی شود. به همین دلیل بسیاری از پژوهشگران، بات‌ها را با استفاده از برنامه‌ریزی صریح ساخته‌اند: نرم‌افزار از یک بانک محدود از پاسخ‌های تأیید شده استفاده می‌کند (مانند الایزا (Eliza)، یک برنامه کامپیوتری شبه-روان‌درمانگر که در دهه ۱۹۶۰ ساخته شد). اما این باعث می‌شود که گفتگو با آنها کمتر جذاب باشد و افراد علاقه خود را از دست بدهند. مسئله دوم این است که ویژگی‌های بارز روابط درمانی خوب – اهداف مشترک و همکاری – به سختی در نرم‌افزار قابل تکرار هستند.

در سال ۲۰۱۹، همزمان با شکل‌گیری مدل‌های زبانی بزرگ اولیه مانند GPT از OpenAI، پژوهشگران دارتموث فکر کردند که هوش مصنوعی مولد ممکن است به غلبه بر این موانع کمک کند. آنها شروع به ساخت یک مدل هوش مصنوعی کردند که برای ارائه پاسخ‌های مبتنی بر شواهد آموزش دیده بود. ابتدا سعی کردند آن را بر اساس مکالمات عمومی سلامت روان که از انجمن‌های اینترنتی جمع‌آوری شده بود، بسازند. سپس به هزاران ساعت رونوشت از جلسات واقعی با روان‌درمانگران روی آوردند.

مایکل هاینز، روان‌پزشک پژوهشگر در کالج دارتموث و دارتموث هلث و نویسنده اول این مطالعه، در مصاحبه‌ای گفت: «ما پاسخ‌های زیادی مانند "هوم-هوم"، "ادامه بده" و سپس "مشکلات شما ناشی از رابطه شما با مادرتان است" دریافت کردیم. واقعاً کلیشه‌هایی از آنچه روان‌درمانی می‌تواند باشد، به جای آنچه واقعاً می‌خواستیم.»

آنها که ناراضی بودند، شروع به جمع‌آوری مجموعه داده‌های سفارشی خود بر اساس شیوه‌های مبتنی بر شواهد کردند، که در نهایت وارد مدل شد. در مقابل، بسیاری از بات‌های درمانی هوش مصنوعی موجود در بازار ممکن است فقط تغییرات جزئی از مدل‌های پایه مانند Llama متا باشند که عمدتاً بر روی مکالمات اینترنتی آموزش دیده‌اند. این موضوع، به‌ویژه برای موضوعاتی مانند اختلالات خوردن، مشکل‌ساز است.

هاینز می‌گوید: «اگر بگویید که می‌خواهید وزن کم کنید، آنها به‌راحتی از شما در انجام این کار حمایت می‌کنند، حتی اگر اغلب وزن پایینی داشته باشید.» یک درمانگر انسانی این کار را نمی‌کند.

برای آزمایش بات، پژوهشگران یک کارآزمایی بالینی هشت هفته‌ای با ۲۱۰ شرکت‌کننده انجام دادند که علائم افسردگی یا اختلال اضطراب فراگیر داشتند یا در معرض خطر بالای اختلالات خوردن بودند. حدود نیمی از آنها به ترابات (Therabot) دسترسی داشتند و گروه کنترل این دسترسی را نداشت. شرکت‌کنندگان به پیام‌های هوش مصنوعی پاسخ دادند و مکالمات را آغاز کردند و به‌طور متوسط روزانه حدود ۱۰ پیام رد و بدل می‌کردند.

شرکت‌کنندگان مبتلا به افسردگی ۵۱٪ کاهش علائم را تجربه کردند که بهترین نتیجه در این مطالعه بود. افراد مبتلا به اضطراب ۳۱٪ کاهش علائم را تجربه کردند و افراد در معرض خطر اختلالات خوردن، ۱۹٪ کاهش نگرانی در مورد تصویر بدن و وزن را مشاهده کردند. این اندازه‌گیری‌ها بر اساس خودگزارش‌دهی از طریق نظرسنجی‌ها است، روشی که کامل نیست اما همچنان یکی از بهترین ابزارهایی است که پژوهشگران در اختیار دارند.

هاینز می‌گوید این نتایج تقریباً مشابه آن چیزی است که در کارآزمایی‌های کنترل‌شده تصادفی روان‌درمانی با ۱۶ ساعت درمان ارائه‌شده توسط انسان یافت می‌شود، اما آزمایش ترابات (Therabot) این نتایج را تقریباً در نیمی از زمان به دست آورد. او می‌گوید: «من مدت‌هاست که در زمینه درمان‌های دیجیتال کار می‌کنم و هرگز سطوح تعاملی را ندیده‌ام که در این سطح، طولانی‌مدت و پایدار باشد.»

ژان-کریستف بلیسل-پیپون، استادیار اخلاق سلامت در دانشگاه سایمون فریزر که در مورد بات‌های درمانی هوش مصنوعی مقالاتی نوشته اما در این پژوهش دخالتی نداشته است، می‌گوید نتایج چشمگیر هستند اما اشاره می‌کند که درست مانند هر کارآزمایی بالینی دیگری، این مورد لزوماً نشان‌دهنده نحوه عملکرد درمان در دنیای واقعی نیست.

او در ایمیلی نوشت: «ما هنوز تا رسیدن به "چراغ سبز" برای استقرار گسترده بالینی فاصله زیادی داریم.»

یک مسئله، نظارتی است که استقرار گسترده‌تر ممکن است نیاز داشته باشد. هاینز می‌گوید در ابتدای آزمایش، او شخصاً بر تمام پیام‌های دریافتی از شرکت‌کنندگان (که با این ترتیب موافقت کرده بودند) نظارت می‌کرد تا مراقب پاسخ‌های مشکل‌ساز بات باشد. اگر بات‌های درمانی به این نظارت نیاز داشته باشند، نمی‌توانند به افراد زیادی دسترسی پیدا کنند.

از هاینز پرسیدم که آیا فکر می‌کند این نتایج، صنعت رو به رشد سایت‌های درمانی هوش مصنوعی را تأیید می‌کند.

او می‌گوید: «کاملاً برعکس». او هشدار می‌دهد که به نظر نمی‌رسد بیشتر آنها مدل‌های خود را بر اساس شیوه‌های مبتنی بر شواهد مانند درمان شناختی رفتاری (Cognitive Behavioral Therapy) آموزش دهند و احتمالاً تیمی از پژوهشگران آموزش‌دیده را برای نظارت بر تعاملات استخدام نمی‌کنند. او اضافه می‌کند: «من نگرانی‌های زیادی در مورد این صنعت و سرعتی که بدون ارزیابی واقعی در حال حرکت هستیم، دارم.»

هاینز می‌گوید وقتی سایت‌های هوش مصنوعی خود را به‌عنوان ارائه‌دهنده درمان در یک زمینه بالینی و قانونی تبلیغ می‌کنند، به این معنی است که تحت نظارت سازمان غذا و دارو (FDA) قرار می‌گیرند. تاکنون، FDA بسیاری از این سایت‌ها را پیگیری نکرده است. هاینز می‌گوید اگر این کار را می‌کرد، «گمان من این است که تقریباً هیچ‌کدام از آنها - احتمالاً هیچ‌کدام - که در این فضا فعالیت می‌کنند، توانایی دریافت تأییدیه ادعا را نخواهند داشت» - یعنی حکمی که ادعاهای آنها در مورد مزایای ارائه‌شده را تأیید کند.

بلیسل-پیپون اشاره می‌کند که اگر این نوع درمان‌های دیجیتال تأیید و در سیستم‌های مراقبت‌های بهداشتی و بیمه ادغام نشوند، دسترسی به آنها به‌شدت محدود خواهد شد. در عوض، افرادی که از استفاده از آنها سود می‌برند، ممکن است به دنبال پیوندهای عاطفی و درمان از انواع هوش مصنوعی باشند که برای این اهداف طراحی نشده‌اند (در واقع، تحقیقات جدید از OpenAI نشان می‌دهد که تعامل با مدل‌های هوش مصنوعی آن تأثیر بسیار واقعی بر بهزیستی عاطفی دارد).

او نوشت: «بسیار محتمل است که بسیاری از افراد همچنان برای نیازهای روزمره، از تولید ایده‌های دستور پخت غذا گرفته تا مدیریت سلامت روان خود، به چت‌بات‌های ارزان‌تر و غیر درمانی - مانند ChatGPT یا Character.AI - تکیه کنند.»