تعداد ساب‌ردیت‌ها در مجموعه ساب‌ردیت طولی با قوانین هوش مصنوعی. ساب‌ردیت‌ها بر اساس تعداد مشترکین خود در زمان دومین خزیدن دسته‌بندی شده‌اند. برچسب‌های بالای نمودار درصد تغییر بین خزش‌ها را نشان می‌دهند. اعتبار: <i>آرشیو</i> (2024). DOI: 10.48550/arxiv.2410.11698
تعداد ساب‌ردیت‌ها در مجموعه ساب‌ردیت طولی با قوانین هوش مصنوعی. ساب‌ردیت‌ها بر اساس تعداد مشترکین خود در زمان دومین خزیدن دسته‌بندی شده‌اند. برچسب‌های بالای نمودار درصد تغییر بین خزش‌ها را نشان می‌دهند. اعتبار: <i>آرشیو</i> (2024). DOI: 10.48550/arxiv.2410.11698

مجموعه داده‌ها نشان می‌دهند چگونه جوامع ردیت با هوش مصنوعی سازگار می‌شوند

پژوهشگران در کورنل تک (Cornell Tech) مجموعه‌ای از داده‌ها را منتشر کرده‌اند که از بیش از 300,000 انجمن عمومی ردیت استخراج شده است. این مجموعه به همراه گزارشی است که جزئیات تغییر سیاست‌های جوامع ردیت برای مقابله با افزایش محتوای تولید شده توسط هوش مصنوعی را شرح می‌دهد.

این تیم فراداده‌ها و قوانین انجمن را از جوامع آنلاین، معروف به ساب‌ردیت‌ها، در دو دوره در جولای 2023 و نوامبر 2024 جمع‌آوری کرد. پژوهشگران مقاله‌ای با یافته‌های خود را در کنفرانس CHI انجمن ماشین‌های محاسباتی در مورد عوامل انسانی در سیستم‌های محاسباتی که از 26 آوریل تا 1 مه در یوکوهاما، ژاپن برگزار می‌شود، ارائه خواهند داد.

یکی از برجسته‌ترین یافته‌های پژوهشگران، افزایش سریع ساب‌ردیت‌هایی است که قوانینی برای استفاده از هوش مصنوعی دارند. بر اساس این تحقیق، تعداد ساب‌ردیت‌ها با قوانین هوش مصنوعی در 16 ماه، از جولای 2023 تا نوامبر 2024، بیش از دو برابر شده است.

تراویس لوید، دانشجوی دکترا در کورنل تک و یکی از محققانی که این پروژه را در سال 2023 آغاز کرد، می‌گوید: «این مهم است زیرا نشان می‌دهد که نگرانی در مورد هوش مصنوعی در این جوامع در حال گسترش است. این سؤال را مطرح می‌کند که آیا جوامع ابزارهایی را که برای اجرای مؤثر و عادلانه این سیاست‌ها نیاز دارند، در اختیار دارند یا خیر.»

این مطالعه نشان داد که قوانین هوش مصنوعی بیشتر در ساب‌ردیت‌های متمرکز بر موضوعات هنری و افراد مشهور رایج است. این جوامع اغلب محتوای بصری را به اشتراک می‌گذارند و قوانین آن‌ها اغلب به نگرانی‌ها در مورد کیفیت و اصالت تصاویر، صدا و ویدیوهای تولید شده توسط هوش مصنوعی می‌پردازند. ساب‌ردیت‌های بزرگ‌تر نیز به طور قابل توجهی بیشتر احتمال دارد که این قوانین را داشته باشند، که نشان‌دهنده افزایش نگرانی‌ها در مورد هوش مصنوعی در میان جوامعی با پایگاه کاربری بزرگ‌تر است.

مور نعمان، استاد مؤسسه جیکوبز تکنیون-کرنل در کورنل تک و علوم اطلاعات در دانشکده علوم محاسباتی و اطلاعات کرنل آن اس. باورز، می‌گوید: «این مقاله از قوانین انجمن برای ارائه اولین دیدگاه از چگونگی مواجهه جوامع آنلاین ما با اختلال گسترده بالقوه‌ای که توسط هوش مصنوعی مولد ایجاد شده است، استفاده می‌کند. بررسی اقدامات مدیران و تغییرات قوانین به ما روشی منحصربه‌فرد برای تأمل در مورد چگونگی تأثیرپذیری ساب‌ردیت‌های مختلف و مقاومت یا عدم مقاومت آن‌ها در برابر استفاده از هوش مصنوعی در جوامع خود داد.»

همزمان با تکامل هوش مصنوعی مولد، محققان از طراحان پلتفرم می‌خواهند که نگرانی‌های انجمن در مورد کیفیت و اصالت را که در داده‌ها فاش شده است، در اولویت قرار دهند. این مطالعه همچنین بر اهمیت انتخاب‌های طراحی پلتفرم "حساس به زمینه" تأکید می‌کند، که در نظر می‌گیرد که چگونه انواع مختلف جوامع رویکردهای متفاوتی را برای تنظیم استفاده از هوش مصنوعی اتخاذ می‌کنند.

به عنوان مثال، این تحقیق نشان می‌دهد که جوامع بزرگ‌تر ممکن است بیشتر تمایل داشته باشند از قوانین رسمی و صریح برای حفظ کیفیت محتوا و حاکمیت بر استفاده از هوش مصنوعی استفاده کنند. در مقابل، جوامع صمیمی‌تر و شخصی‌تر ممکن است به روش‌های غیررسمی مانند هنجارها و انتظارات اجتماعی تکیه کنند.

لوید می‌گوید: «موفق‌ترین پلتفرم‌ها آن‌هایی خواهند بود که به جوامع قدرت می‌دهند تا هنجارهای حساس به زمینه خود را در مورد استفاده از هوش مصنوعی توسعه و اعمال کنند. مهم‌ترین چیز این است که پلتفرم‌ها رویکرد بالا به پایین را اتخاذ نکنند که یک سیاست واحد هوش مصنوعی را به همه جوامع تحمیل کند. جوامع باید بتوانند خودشان انتخاب کنند که آیا می‌خواهند فناوری جدید را مجاز کنند یا خیر، و طراحان پلتفرم باید ابزارهای تعدیل جدیدی را بررسی کنند که می‌تواند به جوامع در تشخیص استفاده از هوش مصنوعی کمک کند.»

محققان با انتشار مجموعه داده‌های خود، قصد دارند مطالعات آینده را قادر سازند تا خودگردانی جامعه آنلاین و تأثیر هوش مصنوعی بر تعاملات آنلاین را بیشتر بررسی کنند.

این یافته‌ها در سرور پیش‌چاپ آرشیو منتشر شده است.

اطلاعات بیشتر:

تراویس لوید و همکاران، قوانین هوش مصنوعی؟ توصیف سیاست‌های انجمن ردیت در قبال محتوای تولید شده توسط هوش مصنوعی، آرشیو (2024). DOI: 10.48550/arxiv.2410.11698

گیت‌هاب: github.com/sTechLab/AIRules

ارائه شده توسط دانشگاه کرنل