پژوهشگران در کورنل تک (Cornell Tech) مجموعهای از دادهها را منتشر کردهاند که از بیش از 300,000 انجمن عمومی ردیت استخراج شده است. این مجموعه به همراه گزارشی است که جزئیات تغییر سیاستهای جوامع ردیت برای مقابله با افزایش محتوای تولید شده توسط هوش مصنوعی را شرح میدهد.
این تیم فرادادهها و قوانین انجمن را از جوامع آنلاین، معروف به سابردیتها، در دو دوره در جولای 2023 و نوامبر 2024 جمعآوری کرد. پژوهشگران مقالهای با یافتههای خود را در کنفرانس CHI انجمن ماشینهای محاسباتی در مورد عوامل انسانی در سیستمهای محاسباتی که از 26 آوریل تا 1 مه در یوکوهاما، ژاپن برگزار میشود، ارائه خواهند داد.
یکی از برجستهترین یافتههای پژوهشگران، افزایش سریع سابردیتهایی است که قوانینی برای استفاده از هوش مصنوعی دارند. بر اساس این تحقیق، تعداد سابردیتها با قوانین هوش مصنوعی در 16 ماه، از جولای 2023 تا نوامبر 2024، بیش از دو برابر شده است.
تراویس لوید، دانشجوی دکترا در کورنل تک و یکی از محققانی که این پروژه را در سال 2023 آغاز کرد، میگوید: «این مهم است زیرا نشان میدهد که نگرانی در مورد هوش مصنوعی در این جوامع در حال گسترش است. این سؤال را مطرح میکند که آیا جوامع ابزارهایی را که برای اجرای مؤثر و عادلانه این سیاستها نیاز دارند، در اختیار دارند یا خیر.»
این مطالعه نشان داد که قوانین هوش مصنوعی بیشتر در سابردیتهای متمرکز بر موضوعات هنری و افراد مشهور رایج است. این جوامع اغلب محتوای بصری را به اشتراک میگذارند و قوانین آنها اغلب به نگرانیها در مورد کیفیت و اصالت تصاویر، صدا و ویدیوهای تولید شده توسط هوش مصنوعی میپردازند. سابردیتهای بزرگتر نیز به طور قابل توجهی بیشتر احتمال دارد که این قوانین را داشته باشند، که نشاندهنده افزایش نگرانیها در مورد هوش مصنوعی در میان جوامعی با پایگاه کاربری بزرگتر است.
مور نعمان، استاد مؤسسه جیکوبز تکنیون-کرنل در کورنل تک و علوم اطلاعات در دانشکده علوم محاسباتی و اطلاعات کرنل آن اس. باورز، میگوید: «این مقاله از قوانین انجمن برای ارائه اولین دیدگاه از چگونگی مواجهه جوامع آنلاین ما با اختلال گسترده بالقوهای که توسط هوش مصنوعی مولد ایجاد شده است، استفاده میکند. بررسی اقدامات مدیران و تغییرات قوانین به ما روشی منحصربهفرد برای تأمل در مورد چگونگی تأثیرپذیری سابردیتهای مختلف و مقاومت یا عدم مقاومت آنها در برابر استفاده از هوش مصنوعی در جوامع خود داد.»
همزمان با تکامل هوش مصنوعی مولد، محققان از طراحان پلتفرم میخواهند که نگرانیهای انجمن در مورد کیفیت و اصالت را که در دادهها فاش شده است، در اولویت قرار دهند. این مطالعه همچنین بر اهمیت انتخابهای طراحی پلتفرم "حساس به زمینه" تأکید میکند، که در نظر میگیرد که چگونه انواع مختلف جوامع رویکردهای متفاوتی را برای تنظیم استفاده از هوش مصنوعی اتخاذ میکنند.
به عنوان مثال، این تحقیق نشان میدهد که جوامع بزرگتر ممکن است بیشتر تمایل داشته باشند از قوانین رسمی و صریح برای حفظ کیفیت محتوا و حاکمیت بر استفاده از هوش مصنوعی استفاده کنند. در مقابل، جوامع صمیمیتر و شخصیتر ممکن است به روشهای غیررسمی مانند هنجارها و انتظارات اجتماعی تکیه کنند.
لوید میگوید: «موفقترین پلتفرمها آنهایی خواهند بود که به جوامع قدرت میدهند تا هنجارهای حساس به زمینه خود را در مورد استفاده از هوش مصنوعی توسعه و اعمال کنند. مهمترین چیز این است که پلتفرمها رویکرد بالا به پایین را اتخاذ نکنند که یک سیاست واحد هوش مصنوعی را به همه جوامع تحمیل کند. جوامع باید بتوانند خودشان انتخاب کنند که آیا میخواهند فناوری جدید را مجاز کنند یا خیر، و طراحان پلتفرم باید ابزارهای تعدیل جدیدی را بررسی کنند که میتواند به جوامع در تشخیص استفاده از هوش مصنوعی کمک کند.»
محققان با انتشار مجموعه دادههای خود، قصد دارند مطالعات آینده را قادر سازند تا خودگردانی جامعه آنلاین و تأثیر هوش مصنوعی بر تعاملات آنلاین را بیشتر بررسی کنند.
این یافتهها در سرور پیشچاپ آرشیو منتشر شده است.
اطلاعات بیشتر:
تراویس لوید و همکاران، قوانین هوش مصنوعی؟ توصیف سیاستهای انجمن ردیت در قبال محتوای تولید شده توسط هوش مصنوعی، آرشیو (2024). DOI: 10.48550/arxiv.2410.11698
گیتهاب: github.com/sTechLab/AIRules
ارائه شده توسط دانشگاه کرنل