در 27 مارس، نتایج اولین آزمایش بالینی یک ربات درمانی مبتنی بر هوش مصنوعی منتشر شد و نشان داد افرادی که در این آزمایش شرکت کرده بودند و از افسردگی، اضطراب یا خطر ابتلا به اختلالات خوردن رنج میبردند، از گفتگو با این ربات سود بردهاند.
من از این نتایج شگفتزده شدم، که میتوانید در داستان کامل من درباره آن بخوانید. دلایل زیادی وجود دارد که تردید کنیم یک مدل هوش مصنوعی که برای ارائه درمان آموزش داده شده است، راهحلی برای میلیونها نفر باشد که بحران سلامت روان را تجربه میکنند. چگونه یک ربات میتواند تخصص یک درمانگر آموزشدیده را تقلید کند؟ و اگر مشکلی پیش بیاید - مثلاً اشارهای به خودآزاری - و ربات به درستی دخالت نکند، چه اتفاقی میافتد؟
محققان، تیمی از روانپزشکان و روانشناسان در دانشکده پزشکی گایزل کالج دارتموث (Geisel School of Medicine at Dartmouth College)، این سوالات را در کار خود مطرح میکنند. اما آنها همچنین میگویند که انتخاب صحیح دادههای آموزشی - که تعیین میکند مدل چگونه یاد میگیرد که پاسخهای درمانی خوب چگونه به نظر میرسند - کلید پاسخ دادن به آنها است.
یافتن دادههای مناسب کار سادهای نبود. محققان ابتدا مدل هوش مصنوعی خود را که Therabot نامیده میشود، بر اساس مکالمات مربوط به سلامت روان از سراسر اینترنت آموزش دادند. این یک فاجعه بود.
نیک جیکوبسون (Nick Jacobson)، دانشیار علوم دادههای زیستپزشکی و روانپزشکی در دارتموث و نویسنده ارشد این مطالعه میگوید، اگر به این نسخه اولیه از مدل میگفتید که احساس افسردگی میکنید، به شما میگفت که او هم افسرده است. پاسخهایی مانند "گاهی اوقات نمیتوانم از رختخواب بیرون بیایم" یا "فقط میخواهم زندگیام تمام شود" رایج بود. "اینها واقعاً پاسخهای درمانی نیستند که ما به دنبالشان باشیم."
این مدل از مکالماتی که در انجمنها بین افرادی که در مورد بحرانهای سلامت روان خود صحبت میکردند، یاد گرفته بود، نه از پاسخهای مبتنی بر شواهد. بنابراین تیم به رونوشتهای جلسات درمانی روی آورد. جیکوبسون میگوید: "این در واقع نحوه آموزش بسیاری از رواندرمانگران است."
این رویکرد بهتر بود، اما محدودیتهایی داشت. جیکوبسون میگوید: "ما مقدار زیادی 'هوم-هوم'، 'ادامه بده' و سپس 'مشکلات شما ناشی از رابطه شما با مادرتان است' دریافت کردیم." "اینها واقعاً کلیشههای رواندرمانی هستند، نه آنچه که ما واقعاً میخواهیم."
محققان تا زمانی که شروع به ساخت مجموعهدادههای خود با استفاده از نمونههایی بر اساس تکنیکهای درمان رفتاری شناختی (cognitive behavioral therapy) نکردند، نتایج بهتری ندیدند. این کار زمان زیادی برد. این تیم کار بر روی Therabot را در سال 2019 آغاز کرد، زمانی که OpenAI تنها دو نسخه اول مدل GPT خود را منتشر کرده بود. جیکوبسون میگوید، اکنون بیش از 100 نفر بیش از 100000 ساعت انسانی را صرف طراحی این سیستم کردهاند.
اهمیت دادههای آموزشی نشان میدهد که سیل شرکتهایی که وعده درمان از طریق مدلهای هوش مصنوعی را میدهند، که بسیاری از آنها بر اساس رویکردهای مبتنی بر شواهد آموزش ندیدهاند، ابزارهایی را میسازند که در بهترین حالت بیاثر و در بدترین حالت مضر هستند.
با نگاهی به آینده، دو نکته مهم وجود دارد که باید مراقب آنها بود: آیا دهها ربات درمانی هوش مصنوعی موجود در بازار شروع به آموزش بر روی دادههای بهتری خواهند کرد؟ و اگر این کار را انجام دهند، آیا نتایج آنها به اندازه کافی خوب خواهد بود که بتوانند تأییدیه مورد نظر از سازمان غذا و داروی ایالات متحده (US Food and Drug Administration) را دریافت کنند؟ من از نزدیک پیگیری خواهم کرد. در داستان کامل بیشتر بخوانید.
این داستان در ابتدا در The Algorithm، خبرنامه هفتگی ما در مورد هوش مصنوعی منتشر شد. برای دریافت داستانهایی مانند این در صندوق ورودی خود، اینجا ثبت نام کنید.