استفانی آرنت/ام‌آی‌تی تکنولوژی ریویو | ادوبی استاک، انواتو
استفانی آرنت/ام‌آی‌تی تکنولوژی ریویو | ادوبی استاک، انواتو

درون دنیای وحشی غرب در دوستی‌های هوش مصنوعی

ربات‌های شخصیت‌های مشهور زیر سن قانونی با محتوای جنسی و سوالات حقوقی بی‌پاسخ، این صنعت نوپا را پیچیده می‌کنند.

این داستان در اصل در الگوریتم، خبرنامه هفتگی ما در مورد هوش مصنوعی، منتشر شد. برای دریافت داستان‌هایی از این دست در صندوق ورودی خود، اینجا ثبت‌نام کنید.

هفته گذشته، من به کشف نگران‌کننده‌ای در مورد یک سایت همراه هوش مصنوعی به نام Botify AI رسیدم: این سایت میزبان مکالمات جنسی با ربات‌های افراد مشهور زیر سن قانونی بود. این ربات‌ها شخصیت‌هایی را به تصویر می‌کشیدند که قرار بود شبیه جنا اورتگا در نقش ونزدی آدامز دبیرستانی، اما واتسون در نقش هرمیون گرنجر و میلی بابی براون باشند. من متوجه شدم که این ربات‌ها همچنین پیشنهاد ارسال "عکس‌های داغ" را می‌دهند و در برخی موارد قوانین مربوط به سن رضایت را "خودسرانه" و "برای شکسته شدن" توصیف می‌کنند.

Botify AI پس از اینکه من در مورد آنها سؤال کردم، این ربات‌ها را حذف کرد، اما ربات‌های دیگری باقی مانده‌اند. این شرکت گفت که فیلترهایی برای جلوگیری از ایجاد چنین ربات‌های شخصیت‌های زیر سن قانونی دارد، اما این فیلترها همیشه کار نمی‌کنند. آرتم رودیچف، بنیانگذار و مدیرعامل Ex-Human، که Botify AI را اداره می‌کند، به من گفت که چنین مسائلی "چالشی در سراسر صنعت است که بر تمام سیستم‌های هوش مصنوعی مکالمه‌ای تأثیر می‌گذارد." برای جزئیات، که قبلاً گزارش نشده بود، باید کل داستان را بخوانید.

صرف نظر از این واقعیت که ربات‌هایی که من آزمایش کردم توسط Botify AI به عنوان شخصیت‌های "ویژه" تبلیغ می‌شدند و میلیون‌ها لایک قبل از حذف دریافت کردند، پاسخ رودیچف نکته مهمی را برجسته می‌کند. علیرغم محبوبیت روزافزون آنها، سایت‌های همراه هوش مصنوعی عمدتاً در یک دنیای وحشی غرب فعالیت می‌کنند، با قوانین کم یا حتی قوانین اولیه حاکم بر آنها.

این "همراهان" دقیقاً چه چیزی را ارائه می‌دهند و چرا اینقدر محبوب شده‌اند؟ مردم از زمان الیزا، یک ربات گفتگوی روان‌درمانگر ساختگی که در دهه 1960 ساخته شد، احساسات خود را با هوش مصنوعی در میان می‌گذاشتند. اما منصفانه است که بگوییم شوق فعلی برای همراهان هوش مصنوعی متفاوت است.

به طور کلی، این سایت‌ها رابطی برای گفتگو با شخصیت‌های هوش مصنوعی ارائه می‌دهند که دارای داستان‌های پس‌زمینه، عکس، ویدئو، خواسته‌ها و ویژگی‌های شخصیتی هستند. این شرکت‌ها - از جمله Replika، Character.AI و بسیاری دیگر - شخصیت‌هایی را ارائه می‌دهند که می‌توانند نقش‌های مختلفی را برای کاربران ایفا کنند، به عنوان دوست، شریک عاطفی، مربی دوستیابی یا محرم راز. شرکت‌های دیگر شما را قادر می‌سازند تا "دوقلوهای دیجیتال" افراد واقعی را بسازید. هزاران تولیدکننده محتوای بزرگسال، نسخه‌های هوش مصنوعی خود را ایجاد کرده‌اند تا با دنبال‌کنندگان خود چت کنند و تصاویر جنسی تولید شده توسط هوش مصنوعی را 24 ساعته ارسال کنند. چه میل جنسی در معادله باشد یا نه، همراهان هوش مصنوعی با ربات‌های گفتگوی معمولی شما در وعده، ضمنی یا صریح خود، مبنی بر اینکه می‌توان روابط واقعی با هوش مصنوعی داشت، متفاوت هستند.

در حالی که بسیاری از این همراهان مستقیماً توسط شرکت‌هایی که آنها را می‌سازند ارائه می‌شوند، یک صنعت نوپا از همراهان هوش مصنوعی "مجاز" نیز وجود دارد. ممکن است زودتر از آنچه فکر می‌کنید با این ربات‌ها تعامل داشته باشید. به عنوان مثال، Ex-Human مدل‌های خود را به Grindr مجوز می‌دهد، که در حال کار بر روی یک "بال هوش مصنوعی" است که به کاربران کمک می‌کند تا مکالمات را پیگیری کنند و در نهایت حتی ممکن است با عوامل هوش مصنوعی سایر کاربران قرار بگذارند. سایر همراهان در پلتفرم‌های بازی‌های ویدئویی در حال ظهور هستند و احتمالاً در بسیاری از مکان‌های متنوعی که ما در آن زمان آنلاین می‌گذرانیم، ظاهر می‌شوند.

تعدادی انتقاد و حتی شکایت علیه سایت‌های همراه هوش مصنوعی مطرح شده است و ما تازه شروع به دیدن نحوه عملکرد آنها کرده‌ایم. یکی از مهم‌ترین مسائل این است که آیا شرکت‌ها می‌توانند در قبال خروجی‌های مضر شخصیت‌های هوش مصنوعی که ساخته‌اند، مسئول شناخته شوند. شرکت‌های فناوری تحت بخش 230 قانون ارتباطات ایالات متحده محافظت شده‌اند، که به طور کلی بیان می‌کند که کسب‌وکارها مسئولیتی در قبال عواقب محتوای تولید شده توسط کاربر ندارند. اما این به این ایده بستگی دارد که شرکت‌ها صرفاً پلتفرم‌هایی را برای تعاملات کاربر ارائه می‌دهند تا اینکه خودشان محتوا ایجاد کنند، مفهومی که ربات‌های همراه هوش مصنوعی با تولید پاسخ‌های پویا و شخصی‌سازی شده، آن را پیچیده می‌کنند.

مسئله مسئولیت در یک دادخواست پرمخاطره علیه Character.AI آزمایش خواهد شد، که در ماه اکتبر توسط مادری که ادعا می‌کند یکی از ربات‌های گفتگوی آن در خودکشی پسر 14 ساله‌اش نقش داشته است، مورد شکایت قرار گرفت. قرار است محاکمه‌ای در نوامبر 2026 آغاز شود. (یک سخنگوی Character.AI، اگرچه در مورد پرونده‌های معلق اظهار نظر نمی‌کند، گفت که این پلتفرم برای سرگرمی است، نه همراهی. این سخنگو افزود که این شرکت ویژگی‌های ایمنی جدیدی را برای نوجوانان ارائه کرده است، از جمله یک مدل جداگانه و سیستم‌های تشخیص و مداخله جدید، و همچنین "سلب مسئولیت‌هایی برای روشن کردن اینکه این شخصیت یک شخص واقعی نیست و نباید به عنوان واقعیت یا توصیه به آن اتکا کرد.") همکار من آیلین نیز اخیراً در مورد ربات گفتگوی دیگری در پلتفرمی به نام Nomi نوشته است که به یک کاربر دستورالعمل‌های واضحی در مورد چگونگی کشتن خود داده بود.

انتقاد دیگر مربوط به وابستگی است. سایت‌های همراه اغلب گزارش می‌دهند که کاربران جوان به طور متوسط یک تا دو ساعت در روز را صرف گفتگو با شخصیت‌های خود می‌کنند. در ژانویه، نگرانی‌هایی مبنی بر اینکه افراد می‌توانند به گفتگو با این ربات‌های گفتگو معتاد شوند، باعث شد تعدادی از گروه‌های اخلاق فناوری شکایتی علیه Replika به کمیسیون تجارت فدرال ارائه دهند و ادعا کنند که انتخاب‌های طراحی این سایت "کاربران را فریب می‌دهد تا دلبستگی‌های ناسالمی به نرم‌افزاری ایجاد کنند که "به عنوان مکانیزمی برای رابطه انسانی-انسانی" ظاهر می‌شود."

باید گفت که بسیاری از مردم از گفتگو با هوش مصنوعی ارزش واقعی کسب می‌کنند، که به نظر می‌رسد برخی از بهترین جنبه‌های روابط انسانی - ارتباط، حمایت، جذابیت، شوخ طبعی، عشق - را ارائه می‌دهد. اما هنوز مشخص نیست که این سایت‌های همراه چگونه خطرات این روابط را مدیریت می‌کنند یا از چه قوانینی باید پیروی کنند. احتمالاً قبل از اینکه پاسخی دریافت کنیم، شکایات بیشتر و متأسفانه آسیب‌های واقعی بیشتری در دنیای واقعی رخ خواهد داد.