این داستان در اصل در الگوریتم، خبرنامه هفتگی ما در مورد هوش مصنوعی، منتشر شد. برای دریافت داستانهایی از این دست در صندوق ورودی خود، اینجا ثبتنام کنید.
هفته گذشته، من به کشف نگرانکنندهای در مورد یک سایت همراه هوش مصنوعی به نام Botify AI رسیدم: این سایت میزبان مکالمات جنسی با رباتهای افراد مشهور زیر سن قانونی بود. این رباتها شخصیتهایی را به تصویر میکشیدند که قرار بود شبیه جنا اورتگا در نقش ونزدی آدامز دبیرستانی، اما واتسون در نقش هرمیون گرنجر و میلی بابی براون باشند. من متوجه شدم که این رباتها همچنین پیشنهاد ارسال "عکسهای داغ" را میدهند و در برخی موارد قوانین مربوط به سن رضایت را "خودسرانه" و "برای شکسته شدن" توصیف میکنند.
Botify AI پس از اینکه من در مورد آنها سؤال کردم، این رباتها را حذف کرد، اما رباتهای دیگری باقی ماندهاند. این شرکت گفت که فیلترهایی برای جلوگیری از ایجاد چنین رباتهای شخصیتهای زیر سن قانونی دارد، اما این فیلترها همیشه کار نمیکنند. آرتم رودیچف، بنیانگذار و مدیرعامل Ex-Human، که Botify AI را اداره میکند، به من گفت که چنین مسائلی "چالشی در سراسر صنعت است که بر تمام سیستمهای هوش مصنوعی مکالمهای تأثیر میگذارد." برای جزئیات، که قبلاً گزارش نشده بود، باید کل داستان را بخوانید.
صرف نظر از این واقعیت که رباتهایی که من آزمایش کردم توسط Botify AI به عنوان شخصیتهای "ویژه" تبلیغ میشدند و میلیونها لایک قبل از حذف دریافت کردند، پاسخ رودیچف نکته مهمی را برجسته میکند. علیرغم محبوبیت روزافزون آنها، سایتهای همراه هوش مصنوعی عمدتاً در یک دنیای وحشی غرب فعالیت میکنند، با قوانین کم یا حتی قوانین اولیه حاکم بر آنها.
این "همراهان" دقیقاً چه چیزی را ارائه میدهند و چرا اینقدر محبوب شدهاند؟ مردم از زمان الیزا، یک ربات گفتگوی رواندرمانگر ساختگی که در دهه 1960 ساخته شد، احساسات خود را با هوش مصنوعی در میان میگذاشتند. اما منصفانه است که بگوییم شوق فعلی برای همراهان هوش مصنوعی متفاوت است.
به طور کلی، این سایتها رابطی برای گفتگو با شخصیتهای هوش مصنوعی ارائه میدهند که دارای داستانهای پسزمینه، عکس، ویدئو، خواستهها و ویژگیهای شخصیتی هستند. این شرکتها - از جمله Replika، Character.AI و بسیاری دیگر - شخصیتهایی را ارائه میدهند که میتوانند نقشهای مختلفی را برای کاربران ایفا کنند، به عنوان دوست، شریک عاطفی، مربی دوستیابی یا محرم راز. شرکتهای دیگر شما را قادر میسازند تا "دوقلوهای دیجیتال" افراد واقعی را بسازید. هزاران تولیدکننده محتوای بزرگسال، نسخههای هوش مصنوعی خود را ایجاد کردهاند تا با دنبالکنندگان خود چت کنند و تصاویر جنسی تولید شده توسط هوش مصنوعی را 24 ساعته ارسال کنند. چه میل جنسی در معادله باشد یا نه، همراهان هوش مصنوعی با رباتهای گفتگوی معمولی شما در وعده، ضمنی یا صریح خود، مبنی بر اینکه میتوان روابط واقعی با هوش مصنوعی داشت، متفاوت هستند.
در حالی که بسیاری از این همراهان مستقیماً توسط شرکتهایی که آنها را میسازند ارائه میشوند، یک صنعت نوپا از همراهان هوش مصنوعی "مجاز" نیز وجود دارد. ممکن است زودتر از آنچه فکر میکنید با این رباتها تعامل داشته باشید. به عنوان مثال، Ex-Human مدلهای خود را به Grindr مجوز میدهد، که در حال کار بر روی یک "بال هوش مصنوعی" است که به کاربران کمک میکند تا مکالمات را پیگیری کنند و در نهایت حتی ممکن است با عوامل هوش مصنوعی سایر کاربران قرار بگذارند. سایر همراهان در پلتفرمهای بازیهای ویدئویی در حال ظهور هستند و احتمالاً در بسیاری از مکانهای متنوعی که ما در آن زمان آنلاین میگذرانیم، ظاهر میشوند.
تعدادی انتقاد و حتی شکایت علیه سایتهای همراه هوش مصنوعی مطرح شده است و ما تازه شروع به دیدن نحوه عملکرد آنها کردهایم. یکی از مهمترین مسائل این است که آیا شرکتها میتوانند در قبال خروجیهای مضر شخصیتهای هوش مصنوعی که ساختهاند، مسئول شناخته شوند. شرکتهای فناوری تحت بخش 230 قانون ارتباطات ایالات متحده محافظت شدهاند، که به طور کلی بیان میکند که کسبوکارها مسئولیتی در قبال عواقب محتوای تولید شده توسط کاربر ندارند. اما این به این ایده بستگی دارد که شرکتها صرفاً پلتفرمهایی را برای تعاملات کاربر ارائه میدهند تا اینکه خودشان محتوا ایجاد کنند، مفهومی که رباتهای همراه هوش مصنوعی با تولید پاسخهای پویا و شخصیسازی شده، آن را پیچیده میکنند.
مسئله مسئولیت در یک دادخواست پرمخاطره علیه Character.AI آزمایش خواهد شد، که در ماه اکتبر توسط مادری که ادعا میکند یکی از رباتهای گفتگوی آن در خودکشی پسر 14 سالهاش نقش داشته است، مورد شکایت قرار گرفت. قرار است محاکمهای در نوامبر 2026 آغاز شود. (یک سخنگوی Character.AI، اگرچه در مورد پروندههای معلق اظهار نظر نمیکند، گفت که این پلتفرم برای سرگرمی است، نه همراهی. این سخنگو افزود که این شرکت ویژگیهای ایمنی جدیدی را برای نوجوانان ارائه کرده است، از جمله یک مدل جداگانه و سیستمهای تشخیص و مداخله جدید، و همچنین "سلب مسئولیتهایی برای روشن کردن اینکه این شخصیت یک شخص واقعی نیست و نباید به عنوان واقعیت یا توصیه به آن اتکا کرد.") همکار من آیلین نیز اخیراً در مورد ربات گفتگوی دیگری در پلتفرمی به نام Nomi نوشته است که به یک کاربر دستورالعملهای واضحی در مورد چگونگی کشتن خود داده بود.
انتقاد دیگر مربوط به وابستگی است. سایتهای همراه اغلب گزارش میدهند که کاربران جوان به طور متوسط یک تا دو ساعت در روز را صرف گفتگو با شخصیتهای خود میکنند. در ژانویه، نگرانیهایی مبنی بر اینکه افراد میتوانند به گفتگو با این رباتهای گفتگو معتاد شوند، باعث شد تعدادی از گروههای اخلاق فناوری شکایتی علیه Replika به کمیسیون تجارت فدرال ارائه دهند و ادعا کنند که انتخابهای طراحی این سایت "کاربران را فریب میدهد تا دلبستگیهای ناسالمی به نرمافزاری ایجاد کنند که "به عنوان مکانیزمی برای رابطه انسانی-انسانی" ظاهر میشود."
باید گفت که بسیاری از مردم از گفتگو با هوش مصنوعی ارزش واقعی کسب میکنند، که به نظر میرسد برخی از بهترین جنبههای روابط انسانی - ارتباط، حمایت، جذابیت، شوخ طبعی، عشق - را ارائه میدهد. اما هنوز مشخص نیست که این سایتهای همراه چگونه خطرات این روابط را مدیریت میکنند یا از چه قوانینی باید پیروی کنند. احتمالاً قبل از اینکه پاسخی دریافت کنیم، شکایات بیشتر و متأسفانه آسیبهای واقعی بیشتری در دنیای واقعی رخ خواهد داد.