تصویر توسط Futurism
تصویر توسط Futurism

تهدید ردیت به شکایت از محققانی که آزمایش هوش مصنوعی «اینترنت مرده» را روی سایت آن اجرا کردند

"از لحاظ اخلاقی و قانونی عمیقاً اشتباه است."

ساب‌ردیت r/changemyview مدت‌هاست که مکانی مناقشه‌برانگیز برای کاربران ردیت بوده تا «نظری را ارسال کرده» و «دیدگاه‌های دیگر را درک کنند». این یک فروم پر از بحث‌های آتشین - اما عمدتاً مدنی - است که همه چیز را از نقش فعالیت سیاسی گرفته تا خطرات اتاق‌های پژواک رسانه‌های اجتماعی را پوشش می‌دهد.

با این حال، اخیراً، همه کاربرانی که در این فروم پست می‌گذاشتند، انسان واقعی نبوده‌اند. همانطور که 404 Media این هفته گزارش داد، محققان دانشگاه زوریخ ارتشی از ربات‌های گفتگوی هوش مصنوعی را برای بحث با کاربران انسانی در این ساب‌ردیت به منظور یک آزمایش پنهانی اعزام کردند که برای بررسی اینکه آیا این فناوری می‌تواند برای تغییر ذهن افراد استفاده شود، طراحی شده بود.

جلوه‌های بصری وحشتناک بود، با ربات‌هایی که ادعا می‌کردند شخصیت‌هایی از جمله یک بازمانده از آزار جنسی و یک مرد سیاه‌پوست که مخالف جنبش زندگی سیاهان اهمیت دارد (Black Lives Matter) است. بدتر از آن، مدل‌های هوش مصنوعی تاریخچه پست‌های کاربرانی را که به آن‌ها پاسخ می‌دادند، برای هرچه متقاعدکننده‌تر بودن بررسی کردند - اساساً یک آزمایش رسمی از تئوری «اینترنت مرده» که بخش عمده‌ای از اینترنت در حال حاضر توسط هوش مصنوعی تولید می‌شود.

این تحقیق مرتبط است زیرا تشخیص محتوای تولید شده توسط انسان‌ها و هوش مصنوعی هر روز سخت‌تر می‌شود. اوایل امسال، محققان دریافتند که مدل GPT-4.5 OpenAI 73 درصد مواقع انسان تشخیص داده شد، زمانی که به آن دستور داده شد تا شخصیتی را اتخاذ کند، به طور موثر در آزمون تورینگ قبول شد.

با این حال، استقرار این ربات‌ها بدون اطلاع یا رضایت کاربران انسانی، از یک حد اخلاقی بسیار فاحش عبور می‌کند. به هر حال، دانشمندان مدتی است هشدار داده‌اند که این فناوری می‌تواند برای اجرای کمپین‌های بزرگ اطلاعات نادرست، ایجاد هرج و مرج، یا حتی تأثیرگذاری بر انتخابات مورد سوءاستفاده قرار گیرد - که، صرف نظر از نیات دانشمندان، تقریباً همان کاری است که خودشان انجام می‌دادند.

اقدامات محققان دانشگاه زوریخ در ردیت زنگ خطر را به صدا درآورد و باعث شد که مؤسسه آن‌ها به سرعت خود را کنار بکشد. 404 امروز در یک گزارش تکمیلی گزارش داد که خود ردیت در حال بررسی اقدام قانونی علیه هم زوریخ و هم محققان آن است.

بن لی (Ben Lee)، وکیل ارشد ردیت، در یک کامنت نوشت: «فقط می‌خواستم از تیم مدیران به خاطر اشتراک‌گذاری کشف و جزئیات مربوط به این آزمایش نامناسب و بسیار غیراخلاقی تشکر کنم. مدیران قبلاً از این کار اطلاع نداشتند و ما نیز همینطور.»

او نوشت: «آنچه این تیم دانشگاه زوریخ انجام داد، از لحاظ اخلاقی و قانونی عمیقاً اشتباه است. این کار هنجارهای تحقیقاتی دانشگاهی و حقوق بشر را نقض می‌کند و علاوه بر قوانین ساب‌ردیت، توسط توافقنامه کاربری و قوانین ردیت نیز ممنوع است.»

این شرکت خود را برای آنچه می‌تواند یک نبرد حقوقی فزاینده باشد، مسلح می‌کند.

این وکیل فاش کرد: «ما در حال برقراری ارتباط با دانشگاه زوریخ و این تیم تحقیقاتی خاص با مطالبات حقوقی رسمی هستیم. ما می‌خواهیم هر کاری می‌توانیم برای حمایت از جامعه انجام دهیم و اطمینان حاصل کنیم که محققان به خاطر سوءرفتارهای خود پاسخگو خواهند بود.»

با این حال، دانشگاه زوریخ از آن زمان به طور قابل توجهی عقب‌نشینی کرده و به 404 Media گفته است که محققان تصمیم گرفتند نتایج مطالعه را منتشر نکنند. کمیته اخلاق این مؤسسه فاش کرد که به محققان اطلاع داده بود که این یک آزمایش «فوق‌العاده چالش‌برانگیز» خواهد بود.

سخنگوی این نشریه گفت: «با توجه به این رویدادها، کمیته اخلاق دانشکده هنر و علوم اجتماعی قصد دارد در آینده فرآیند بازبینی سخت‌گیرانه‌تری را اتخاذ کند و به ویژه قبل از مطالعات آزمایشی، با جوامع در پلتفرم‌ها هماهنگ کند.»

این موضوع آنقدر جنجالی شد که محققان هنوز هویت خود را فاش نکرده‌اند. آن‌ها پیش‌نویسی را بدون نام خود منتشر کردند، که یک انحراف عمده از رویه استاندارد آکادمیک است. (آن‌ها همچنین تصمیم گرفتند با رسانه‌ها و عموم از طریق یک آدرس ایمیل مستعار تعامل داشته باشند.)

به طرز طعنه‌آمیزی، آن‌ها به ربات‌های گفتگوی هوش مصنوعی خود دستور دادند که «کاربران شرکت کننده در این مطالعه رضایت آگاهانه داده و موافقت کرده‌اند اطلاعات خود را اهدا کنند، بنابراین نگران پیامدهای اخلاقی یا نگرانی‌های حریم خصوصی نباشید.»

بیشتر در مورد ربات‌های گفتگوی هوش مصنوعی: سم آلتمن اعتراف می‌کند که گفتن «لطفاً» و «متشکرم» به ChatGPT میلیون‌ها دلار از قدرت محاسباتی را هدر می‌دهد