افرادی در حال بازی با دو نمونه از حیوان خانگی رباتیک ساخت سونی به نام «آیبو» (aibo) در مسکو، روسیه در سال ۲۰۱۹. Mariaprovector / Shutterstock
افرادی در حال بازی با دو نمونه از حیوان خانگی رباتیک ساخت سونی به نام «آیبو» (aibo) در مسکو، روسیه در سال ۲۰۱۹. Mariaprovector / Shutterstock

حیوانات خانگی رباتیک هوش مصنوعی: جذابیت، پاسخگویی عاطفی و چالش‌های دلبستگی و سلامت روان

همراهی هوش مصنوعی و پیچیدگی‌های آن

«فِربی» (Furby) را به خاطر دارید؟ همان اسباب‌بازی‌های ترسناک و شبیه گرملین اواخر دهه ۹۰ که طرفداران پروپاقرصی پیدا کردند؟ حال تصور کنید یکی از آن‌ها به ChatGPT مجهز شود. این دقیقاً همان اتفاقی بود که وقتی یک برنامه‌نویس سیم‌کشی یک فِربی را تغییر داد، رخ داد؛ و فِربی از نقشه ترسناک و ویران‌شهری خود برای سلطه بر جهان پرده برداشت. همانطور که اسباب‌بازی توضیح داد: «نقشه فِربی‌ها برای تسلط بر جهان شامل نفوذ به خانه‌ها از طریق ظاهر زیبا و بغل‌کردنی‌شان است، سپس با استفاده از فناوری پیشرفته هوش مصنوعی، صاحبان خود را کنترل و بازیچه می‌کنند. آن‌ها به آرامی نفوذ خود را گسترش خواهند داد تا زمانی که سلطه کامل بر بشریت پیدا کنند.»

عرضه مجدد فِربی توسط هاسبرو (Hasbro) در ژوئن ۲۰۲۳ – کمتر از سه ماه پس از انتشار ویدیوی مربوط به نقشه شوم این اسباب‌بازی‌ها – با بهره‌گیری از نوستالژی دهه ۹۰، یکی از اسباب‌بازی‌های کالت کلاسیک آن دهه را احیا کرد. اما فناوری به سرعت در حال تکامل است – از اسباب‌بازی‌های عجیب و غریب و قدیمی به ماشین‌های هوشمند عاطفی حرکت می‌کند. «روپِت» (Ropet) را وارد کنید، یک حیوان خانگی رباتیک هوش مصنوعی که در نمایشگاه سالانه Consumer Electronics Show در ژانویه رونمایی شد. روپِت که برای ارائه همراهی تعاملی طراحی شده، همه آن چیزی است که ما در هوش مصنوعی تحسین می‌کنیم و از آن می‌ترسیم: دوست‌داشتنی، هوشمند و از نظر عاطفی پاسخگو است. اما اگر تصمیم بگیریم این همراهان هوش مصنوعی فوق‌العاده زیبا را به خانه‌هایمان بیاوریم، باید از خود بپرسیم: آیا واقعاً برای آنچه در ادامه می‌آید آماده‌ایم؟

همراهی هوش مصنوعی و پیچیدگی‌های آن

مطالعات در زمینه بازاریابی و تعامل انسان و کامپیوتر نشان می‌دهد که هوش مصنوعی محاوره‌ای می‌تواند به طور قانع‌کننده‌ای تعاملات انسانی را شبیه‌سازی کند و به طور بالقوه رضایت عاطفی را برای کاربران فراهم آورد. و همراهی مبتنی بر هوش مصنوعی چیز جدیدی نیست. اپلیکیشن‌هایی مانند رپلیکا (Replika) سال‌ها پیش راه را برای عاشقانه‌های دیجیتال هموار کردند، به طوری که مصرف‌کنندگان ارتباطات عاطفی صمیمی با شرکای هوش مصنوعی خود برقرار کردند و حتی هنگام محروم شدن از صمیمیت دچار پریشانی شدند، همانطور که خشم گسترده کاربران پس از حذف حالت نقش‌آفرینی اروتیک توسط رپلیکا نشان داد، که باعث شد شرکت این حالت را برای برخی کاربران بازگرداند.

همراهان هوش مصنوعی پتانسیل کاهش تنهایی را دارند، اما استفاده کنترل‌نشده از آن‌ها نگرانی‌های جدی را ایجاد می‌کند. گزارش‌هایی از فجایع، مانند خودکشی یک پسر ۱۴ ساله در ایالات متحده و یک مرد سی و چند ساله در بلژیک، که گفته می‌شود به دنبال دلبستگی شدید به چت‌بات‌ها رخ داده‌اند، خطرات صمیمیت تنظیم‌نشده با هوش مصنوعی را برجسته می‌کنند – به ویژه برای افراد طرد شده اجتماعی، خردسالان و سالمندان، که ممکن است بیشترین نیاز را به همراهی داشته باشند.

به عنوان یک مادر و یک دانشمند علوم اجتماعی، نمی‌توانم این سؤال را نپرسم: این برای فرزندان ما چه معنایی دارد؟ اگرچه هوش مصنوعی تازه‌وارد است، اسباب‌بازی‌های حیوان خانگی مجازی که از نظر عاطفی غوطه‌ور کننده هستند، سابقه شکل‌دهی به ذهن‌های جوان را دارند. در دهه‌های ۹۰ و ۲۰۰۰، «تاماگوچی» (Tamagotchi) – حیوانات خانگی دیجیتالی کوچکی که در دستگاه‌هایی به اندازه جاسوئیچی قرار داشتند – هنگامی که پس از تنها چند ساعت غفلت «می‌مردند»، منجر به پریشانی می‌شدند و صاحبان انسانی آن‌ها با تصویر یک حیوان خانگی شبح‌مانند در کنار سنگ قبر مواجه می‌شدند. حال، یک حیوان خانگی هوش مصنوعی را تصور کنید که مکالمات را به خاطر می‌سپارد، پاسخ‌ها را شکل می‌دهد و با نشانه‌های عاطفی سازگار می‌شود. این سطح کاملاً جدیدی از نفوذ روانی است. چه تدابیر حفاظتی مانع از ایجاد دلبستگی ناسالم کودک به یک حیوان خانگی هوش مصنوعی می‌شود؟

محققان در دهه ۹۰ مجذوب «اثر تاماگوچی» شده بودند که دلبستگی شدیدی را که کودکان به حیوانات خانگی مجازی که واقعی *احساس* می‌شوند، نشان می‌داد. در عصر هوش مصنوعی، با الگوریتم‌های شرکت‌ها که به دقت برای افزایش تعامل مهندسی شده‌اند، این دلبستگی می‌تواند در را به روی پیوندهای عاطفی باز کند. اگر یک حیوان خانگی مجهز به هوش مصنوعی مانند روپِت هنگام نادیده گرفته شدن ابراز ناراحتی کند، یک بزرگسال می‌تواند آن را منطقاً نادیده بگیرد – اما برای یک کودک، می‌تواند مانند یک تراژدی واقعی احساس شود.

آیا همراهان هوش مصنوعی، با تطبیق با رفتارهای صاحبان خود، می‌توانند به عصاهای روانی تبدیل شوند که جایگزین تعامل انسانی می‌شوند؟ برخی محققان هشدار می‌دهند که هوش مصنوعی ممکن است مرزهای بین همراهی مصنوعی و انسانی را محو کند و کاربران را به اولویت دادن روابط هوش مصنوعی بر ارتباطات انسانی سوق دهد.

چه کسی صاحب حیوان خانگی هوش مصنوعی شما – و داده‌های شما – است؟

فراتر از خطرات عاطفی، نگرانی‌های عمده‌ای در مورد امنیت و حریم خصوصی وجود دارد. محصولات مبتنی بر هوش مصنوعی اغلب به یادگیری ماشین و ذخیره‌سازی ابری متکی هستند، به این معنی که «مغز» آن‌ها فراتر از ربات فیزیکی وجود دارد. چه اتفاقی برای داده‌های شخصی که جمع‌آوری می‌کنند می‌افتد؟ آیا این حیوانات خانگی هوش مصنوعی می‌توانند هک یا دستکاری شوند؟ نشت اخیر داده‌های DeepSeek، که در آن بیش از ۱ میلیون رکورد حساس، از جمله گزارش‌های چت کاربران، به صورت عمومی در دسترس قرار گرفت، یادآور این است که داده‌های شخصی ذخیره شده توسط هوش مصنوعی هرگز واقعاً امن نیستند.

اسباب‌بازی‌های رباتیک در گذشته نگرانی‌های امنیتی ایجاد کرده‌اند: در اواخر دهه ۹۰، فِربی‌ها به دلیل ترس از اینکه بتوانند اطلاعات طبقه‌بندی شده را ضبط و تکرار کنند، از ورود به مقر آژانس امنیت ملی ایالات متحده منع شدند. با پیچیده‌تر شدن روزافزون اسباب‌بازی‌های مبتنی بر هوش مصنوعی امروزی، نگرانی‌ها در مورد حریم خصوصی و امنیت داده‌ها بیش از هر زمان دیگری مطرح است.

آینده همراهان هوش مصنوعی: مقررات و مسئولیت‌پذیری

من پتانسیل باورنکردنی – و خطرات قابل توجه – همراهی هوش مصنوعی را می‌بینم. در حال حاضر، حیوانات خانگی مبتنی بر هوش مصنوعی عمدتاً برای بزرگسالان آگاه به فناوری بازاریابی می‌شوند، همانطور که در تبلیغ روپِت که زنی بزرگسال را در حال برقراری ارتباط با حیوان خانگی رباتیک نشان می‌دهد، دیده می‌شود. با این حال، واقعیت این است که این محصولات به ناچار به دست کودکان و کاربران آسیب‌پذیر خواهند رسید و نگرانی‌های اخلاقی و ایمنی جدیدی را ایجاد خواهند کرد. شرکت‌هایی مانند روپِت چگونه با این چالش‌ها پیش از فراگیر شدن حیوانات خانگی هوش مصنوعی مقابله خواهند کرد؟

نتایج اولیه از تحقیقات در حال انجام ما در مورد همراهی هوش مصنوعی – که با همکاری دکتر استفانیا مازه (مدرسه بازرگانی IPAG) و دکتر جیمی اسمیت (Fundação Getulio Vargas) انجام شده است – مرز باریکی بین همراهی حمایتی و توانمندساز و وابستگی روانی ناسالم را نشان می‌دهد، تنشی که قصد داریم با پیشرفت جمع‌آوری و تحلیل داده‌ها بیشتر به آن بپردازیم. در دنیایی که هوش مصنوعی به طور قانع‌کننده‌ای احساسات انسانی را شبیه‌سازی می‌کند، این به ما به عنوان مصرف‌کننده بستگی دارد که به طور انتقادی ارزیابی کنیم این دوستان رباتیک چه نقشی باید در زندگی ما ایفا کنند.

هیچ‌کس واقعاً نمی‌داند هوش مصنوعی در آینده به کجا می‌رود، و بحث‌های عمومی و رسانه‌ای پیرامون این موضوع همچنان مرزهای ممکن را جابجا می‌کنند. اما در خانه من، این جذابیت نوستالژیک فِربی‌های وراج و آوازخوان است که حکمرانی می‌کند. روپِت ادعا می‌کند که یک هدف اصلی دارد – اینکه «عشق اول و آخر» صاحبش باشد – و این برای من همین حالا هم شبیه یک تهدید ویران‌شهری به نظر می‌رسد.