CivitAI، احتمالاً محبوبترین مخزن مدلهای هوش مصنوعی در اینترنت، سرانجام تحت فشار تسهیلکنندگان پرداخت، مسترکارت (MasterCard) و ویزا (Visa)، تسلیم شد تا سیاستهای خود را در مورد محتوای NSFW (محتوای غیر ایمن برای کار) و بهویژه شرایط خدمات (TOS) خود در مورد LoRAهای سلبریتی، یکی از محبوبترین جریانهای محتوای ارسالی کاربر در سایت، به طور اساسی بازبینی کند. این امر به افراد امکان میدهد از مدلهای کمکی که آزادانه قابل دانلود هستند مانند LoRAها برای ایجاد تصاویر هوش مصنوعی (شامل تصاویر ویدیویی) از افراد مشهور استفاده کنند.
مدیر تعاملات اجتماعی شرکت، Alasdair Nicoll، که خود یک سازنده مدلهای (SFW) در Civit است، در یک پخش زنده در Twitch از طرف شرکت، اعتراف کرد که این تغییرات توسط نگرانی پردازشگرهای پرداخت آنها در مورد محتوای بزرگسالان و تصویرسازی از افراد واقعی به سایت تحمیل شده است. او همچنین احتمال میدهد که نیروهای اصلی پشت این پردازشگرها، ویزا و مسترکارت، احتمالاً خواستار تغییرات بزرگتری در آینده خواهند شد:
"اینها تغییراتی نیستند که ما میخواستیم ایجاد کنیم. این موضوع به قوانین جدید و قریب الوقوع برمیگردد. قوانین دیپفیک وجود دارد، قوانین پورنوگرافی هوش مصنوعی وجود دارد... پردازشگرهای پرداخت و در نهایت ویزا و مسترکارت وحشت زده شدهاند؛ آنها نمیخواهند مورد شکایت قرار گیرند و در نهایت این تغییرات را هدایت میکنند."
"برخی از گزینههای دیگری که به ما داده شد، حذف کامل محتوای "not-safe-for-work" بود. حذف محتوای x و triple-x از CivitAI و انتقال آن به یک پلتفرم کاملاً جدید، و سپس مسدود کردن جغرافیایی آن پلتفرم، زیرا بیش از نیمی از ایالتهای ایالات متحده به نوعی مسدودسازی جغرافیایی پورنوگرافی نیاز دارند، [همچنین] بسیاری از کشورهای آسیایی و انگلستان..."
"گزینه سوم رفتن به سمت کریپتو، فقط پرداختهای کریپتو بود... بنابراین هیچ گزینه خوبی برای این وجود نداشت."
دامنه Civit در چند روز گذشته به طور دورهای برای بازبینیها غیرفعال بوده است، ظاهراً برای اعمال این تغییرات. اگرچه سایت قبلاً استفاده از مضامین NSFW را در تصاویر LoRA/مدل سلبریتی ممنوع کرده بود، اما اکنون غیرممکن است که بخش مدل Civit را مرور کنید و پیشنمایشهای LoRA سلبریتی را در کنار تعداد بسیار زیاد مدلهای عمومی NSFW که برای تولید محتوای بزرگسالان طراحی شدهاند، ببینید.
اعلامیه رسمی بیان میکند:
"محتوایی که با نام افراد واقعی (مانند "تام کروز") برچسبگذاری شدهاند یا به عنوان منابع POI (افراد واقعی) علامتگذاری شدهاند، از فیدها پنهان میشوند."
در جلسه Twitch، Nicoll جزئیات بیشتری از اقدامات طراحیشده برای محافظت از چهرههای مشهور و افراد واقعی را فاش کرد. Civit همیشه به افراد واقعی اجازه داده است که درخواست کنند یک مدل هوش مصنوعی میزبانیشده توسط Civit که آنها را به تصویر میکشد حذف شود، اما اکنون Nicoll به سیستمی اشاره میکند که میتواند از آپلود مجدد چنین تصاویری پس از رد اولیه جلوگیری کند، با این قابلیت که یک شخصیت "محافظتشده" را حتی در تصاویری که سیستم قبلاً ندیده است، شناسایی کند.
به این منظور، سایت اکنون با سیستم تعدیل Clavata AI همکاری میکند - اگرچه میزان قدرتبخشی Clavata به این امکانات جدید هنوز مشخص نیست.
Nicoll گفت:
"به عنوان مثال، تام هنکس تصویر خود را از ما مطالبه کرده است. تعداد زیادی از بازیگران بزرگسال این کار را کردهاند؛ تعداد زیادی از بازیگران و هنرپیشههای درجه یک این کار را کردهاند..."
"فکر میکنم اولین کسی که تا به حال داشتیم باربارا ادن (Barbara Eden)، املاک او* بود - او یکی از اولین کسانی بود که تصویر خود را مطالبه کرد، که تا حدودی خندهدار است، زیرا او پیر است."
محافظت پیشفرض؟
در طول چند سال گذشته، شرکت VFX هوش مصنوعی Metaphysic (افشای کامل: من از اوایل سال 2022 تا اواخر سال 2024 برای Metaphysic.ai کار میکردم) تلاش کرد تا یک سیستم اختصاصی ایجاد کند که به هر کسی اجازه دهد تصویر خود را ثبت کند، اگرچه عمدتاً هدف آن اسامی هالیوودی بود که نگران ربودن هویت خود مبتنی بر هوش مصنوعی بودند، با پشتیبانی از بازیگرانی مانند آن هاتاوی (Anne Hathaway)، اکتاویا اسپنسر (Octavia Spencer) و تام هنکس (Tom Hanks) (که شرکت با او در فیلم Here [2024] رابرت زمکیس (Robert Zemeckis) کار کرد).
منطقاً، سودمندی سیستم همیشه به قانون موضوعه نهایی بستگی دارد. بر اساس اقداماتی که Civit اکنون مجبور به انجام آن است، سرویس مبتنی بر اشتراک† پیشنهادی توسط Metaphysic میتواند در مواجهه با رشد سریع قوانین دیپفیک و پوشش بالقوه (رایگان) تحت قانون عرفی، زائد باشد. در حال حاضر مشخص نیست که آیا پیشنهاد Metaphysic Pro به شرکت Double Negative VFX منتقل میشود یا خیر، شرکتی که داراییهای Metaphysic را سال گذشته تصاحب کرد.
در هر صورت، به طور فزاینده به نظر میرسد که قانون جهانی و فشارهای عمومی بازار بیشتر احتمال دارد که حفاظت و راهحلها را ارائه دهند، برخلاف راهحلهای تجاری از این نوع.
آرام آرام جوشاندن قورباغه
گزارشی در سال 2023 توسط 404 Media توجه را جلب کرد به تمایل مدلهای هوش مصنوعی سلبریتی و پورنو در Civit، اگرچه جاستین مایر (Justin Maier)، بنیانگذار سایت، ارتباط بین تصاویر سلبریتی که توسط کاربر کمک شده و استفاده از آنها در تولید مواد پورنوگرافی را کماهمیت جلوه داد.
اگرچه Civit از طریق تسهیل استفاده در سایت از LoRAها و سایر مدلهای تهیهشده توسط کاربر، درآمد کسب میکند، Nicoll تصریح میکند که این نگرانی اصلی نیست که ویزا و مسترکارت را وادار میکند تا تغییراتی را در سایت اعمال کنند، تا بتوان همچنان از آن کسب درآمد کرد:
"برخی از مردم میگویند که دلیلی که ما در این وضعیت آشفته هستیم این است که ما اجازه تولید را میدهیم. این وارد آن نمیشود. میزبانی این مدلها، میزبانی این محتوا، برای جلب توجه سائورون (Sauron) کافی است."
انجمنهای نظرات در سالهای اخیر متعجب شدهاند که به Civit اجازه داده شده است تا تصاویر سلبریتی را میزبانی کند. با آگاهی از احتمال، شاید اجتنابناپذیری یک سرکوب، تعدادی از ابتکارات برای حفظ LoRAها که یا توسط Civit یا توسط آپلودکنندگان آنها حذف شدهاند، پیشنهاد یا اجرا شدهاند، از جمله سابردیت r/CivitaiArchives که (تاکنون) نسبتاً نادیده گرفته شده است.
اگرچه بسیاری پیشنهاد کردهاند که یک ابتکار مبتنی بر تورنت (torrent) راهحل طبیعی است، اما به نظر نمیرسد هنوز دامنه خوبی ظهور کرده باشد - و در هر صورت، به نظر میرسد که این امر مطمئناً فعالیت ممنوعه در Civit و جاهای دیگر را به حاشیههای دورتر اینترنت، به باغهای محصور و به احتمال زیاد، به دارکنت منتقل میکند، زیرا اکثر چارچوبهایی که میتوانند LoRAهای ممنوعه را در خود جای دهند (مانند ردیت و دیسکورد) یا از قبل چنین محتوایی را ممنوع کردهاند یا به نظر میرسد حتماً آن را ممنوع خواهند کرد.
در حال حاضر، LoRAهای سلبریتی هنوز هم با برخی محدودیتها در Civit قابل مشاهده هستند، اگرچه بیشتر محتوای تولیدشده از فهرست خارج شده است و از کشف تصادفی حذف خواهد شد. به نظر میرسد محتمل است، یک مفسر به Nicoll در جلسه Twitch پیشنهاد داد، که سرکوب عمیقتر خواهد شد (احتمالاً تا حدی که تمام تصاویر افراد واقعی در مدلها یا تصاویر آپلودشده ممنوع شود).
Nicoll پاسخ داد:
"آنها اینجا متوقف نمیشوند، آنها به درخواست بیشتر و بیشتر ادامه میدهند - کاملا! آره، کاملا. این فقط دنیایی است که در آن زندگی میکنیم. تنها امید این است که ما به اندازه کافی بزرگ و قدرتمند شویم که کمی بیشتر در آنچه به ما دیکته میشود حرفی برای گفتن داشته باشیم [...]."
Nicoll با ناامیدی از جایگزینهای ارائه شده به Civit، افزود:
"[...] هیچ کس برای استفاده از ژنراتور CivitAI بیتکوین نمیخرد. بنابراین ما سعی کردهایم این را تا حد امکان دلپذیر کنیم و این چیزی است که در نهایت به آن رسیدهایم. بنابراین، اگر این چیزی است که شما نمیتوانید تحمل کنید، متاسفم، اما متاسفانه این چیزی است که هست. ما تمام تلاش خود را کردیم، تا جایی که میتوانستیم عقب نشینی کردیم، اما در نهایت به ما گفته شد که این است - شما باید این کار را انجام دهید وگرنه پایان کار خواهد بود [...]."
"[...] این موسسات مالی، آنها نمیفهمند مردم اینجا با آن چه کار میکنند. ما سعی کردهایم به آنها بگوییم، سعی کردهایم با آنها صحبت کنیم، اما ما عملاً آخرین سنگر محتوای [NSFW] هستیم."
Nicoll گفت که Civit با "هر پردازشگر پرداختی که تصورش را بکنید" تماس گرفته است:
"حتی پردازشگرهای پرداخت پرخطر که سایتهای پورنو از آنها استفاده میکنند و آنها همه از محتوای هوش مصنوعی بسیار محتاط هستند. این مشکل است - محتوای هوش مصنوعی است. اگر ما یک سایت پورنو سنتی بودیم، خوب بودیم، اما محتوای هوش مصنوعی چیزی است که آنها از آن میترسند."
بعد کجا؟
قبل از این اطلاعیه، مشاهده شده بود که Civit آپلودهایی را که تحت پوشش برخی از دستهها و انواع محتوایی که اکنون ممنوع هستند، حذف میکند. در زمان نگارش این مقاله، یک "مخزن اضطراری" برای Wan 2.1 LoRAها در وبسایت Hugging Face ایجاد شده است. اگرچه برخی از LoRAهای بایگانیشده در آنجا برای تسهیل فعالیتهای جنسی عمومی طراحی شدهاند که به ندرت آموزش داده شدهاند یا در مدلهای ویدیویی جدید مانند Wan 2.1 وجود ندارند، اما چندین مورد از آنها در دسته "برهنه کردن" که اکنون به شدت ممنوع شده است (یعنی "nudifying") قرار میگیرند، از جمله برخی از مدلهایی که میتوان استدلال کرد که "افراطی" یا آشکارا بالقوه توهینآمیز هستند.
سابردیت r/datahoarders، که در خط مقدم حفظ ادبیات آنلاین دولت ایالات متحده در زمان مبارزات حذف گسترده دونالد ترامپ (Donald Trump) بوده است، تاکنون برای ایده نجات محتوای گمشده CivitAI ابراز تحقیر کرده است.
در ادبیات، تسهیل آسان تولید هوش مصنوعی NSFW توسط CivitAI مورد توجه قرار گرفته است. با این حال، یکی از پر استنادترین مطالعات، مقاله 2024 بررسی استفاده از مدلهای هوش مصنوعی تولیدی توهینآمیز در Civitai، با این واقعیت فلج شده است که Civit تا به امروز اجازه تولیدات سلبریتی یا غیرقانونی هوش مصنوعی را نداده است و با عزم محققان برای یافتن شواهد خود در خود Civit.
به وضوح، با این حال، آنچه پردازشگرهای پرداخت را نگران میکند، این نیست که چه چیزی با LoRAها در خود Civit تولید میشود، یا چه چیزی در آنجا منتشر میشود، بلکه این است که با این مدلها در سایر جوامعی که یا بستهاند یا به طور کلی کمتر تنظیم شدهاند، چه کاری انجام میشود.
وبسایت Mr. Deepfakes، که تا زمان ظهور Stable Diffusion و مدلهای مبتنی بر انتشار در سال 2022، مترادف با روش مبتنی بر خودکارساز (autoencoder) رایج NSFW دیپفیک بود، اخیراً شروع به ارسال نمونههایی از ویدیوهای پورنوگرافی مبتنی بر سلبریتی با استفاده از آخرین موج مولدهای متن به ویدیو و تصویر به ویدیو، از جمله Hunyuan Video و Wan 2.1 کرده است - هر دو نسخههای بسیار جدیدی هستند که نفوذ آنها نوپا است، اما به نظر میرسد که با توسعه جوامع مربوطه در طول سال جاری، تیترهای آتشزایی را به خود اختصاص دهند.
فراداده اجباری
به گفته Nicoll، یکی از تغییرات جالبی که ظاهراً پردازشگرهای پرداخت خواستار آن هستند، این است که همه تصاویر در سایت اکنون باید حاوی فراداده باشند. هنگامی که یک تصویر یا ویدیو توسط یک مدل تولیدی در یک گردش کار معمولی در یک پلتفرم مانند ComfyUI تولید میشود، خروجی معمولاً حاوی فرادادهای است که مدل استفادهشده را فهرست میکند (هش آن و همچنین نام آن، به طوری که در صورتی که مدل توسط یک کاربر تغییر نام داده شود، منشاء آن مشخص باقی بماند) و چندین تنظیمات دیگر.
به دلیل این نقاط داده پنهان در مورد چگونگی ساخته شدن تصویر، کاربران قادرند یک ویدیو یا تصویر ساختهشده توسط شخص دیگری را به گردش کار ComfyUI خود بکشند و کل جریان را دوباره ایجاد کنند و به هرگونه وابستگی از دست رفته رسیدگی کنند (مانند مدلها یا اجزایی که سازنده اصلی داشته است، که کاربر سپس باید آنها را پیدا کرده و دانلود کند).
Civit اعلام کرده است که هرگونه تصویر یا ویدیو تولیدشدهای که فاقد این دادهها باشد، ظرف سی روز حذف خواهد شد. کاربران میتوانند این دادهها را به صورت دستی، با تایپ کردن آن در وبسایت Civit اضافه کنند.
از آنجایی که ارزش فراداده (احتمالاً) اثباتی است، این شرط نسبتاً بیمعنی به نظر میرسد. کپی و پیست کردن فراداده از یک فایل به فایل دیگر پیش پا افتاده است و اختراع ad hoc فراداده از طریق یک فرم وب این قانون جدید را کمی گیجکننده میکند.
با این وجود، چندین کاربر (از جمله یک نفر که در جلسه Twitch نظر میداد) هزاران تصویر در Civit آپلود کردهاند. تنها راه حل آنها اکنون این است که هر یک از آنها را به صورت دستی حاشیهنویسی کنند، یا نسخههای تصاویر را با فراداده اضافه شده حذف و دوباره آپلود کنند - که هرگونه "لایک" یا "هیاهو" یا مکالماتی که تصاویر اصلی ایجاد کردهاند را پاک میکند.
قوانین جدید
در اینجا تغییرات خلاصه شدهای که از امروز در Civit قابل اعمال است، آورده شده است:
- محتوایی که با نام افراد واقعی برچسبگذاری شدهاند یا به عنوان منابع افراد واقعی شناسایی شدهاند، دیگر در فیدهای عمومی ظاهر نمیشوند.
- محتوایی با مضامین کودک/خردسال از فیدها فیلتر میشوند.
- محتوای دارای رتبه X و XXX که فاقد فراداده تولید هستند، از دید عموم پنهان شده و با یک هشدار علامتگذاری میشوند و به آپلودکننده اجازه میدهند جزئیات از دست رفته را اضافه کند. چنین محتوایی حذف نمیشود، اما تا زمانی که به روز نشود، فقط برای سازنده آن قابل مشاهده خواهد بود.
- تصاویری که با استفاده از ویژگی Bring Your Own Image (BYOI) ساخته شدهاند، اکنون باید حداقل 50٪ تغییر نویز را در طول تولید اعمال کنند. این بدان معناست که هوش مصنوعی باید به طور قابل توجهی تصویر آپلود شده را تغییر دهد و احتمال تولید نسخههای تقریباً دقیق را کاهش دهد. با این حال، تصاویری که به طور کامل در CivitAI ایجاد شدهاند یا از محتوای دیگر CivitAI بازسازی شدهاند، مشمول این قانون نیستند و همچنان میتوانند از هر سطح denoise استفاده کنند، از بدون تغییر (0.0) تا تغییر کامل (1.0). هدف از این تغییر کاهش سوء استفاده از ابزار BYOI است که در غیر این صورت میتوان از آن برای تولید دیپفیکهای ظریف یا غیرقابل تشخیص با به سختی تغییر دادن تصاویر واقعی استفاده کرد. اجبار به حداقل 50٪ تغییر تضمین میکند که هوش مصنوعی فقط یک ویرایش سبک از یک عکس موجود از یک شخص واقعی انجام نمیدهد.
- هنگام مرور با محتوای X یا XXX فعال، جستجو برای نام افراد مشهور هیچ نتیجهای را برنمیگرداند. ترکیب نام افراد مشهور با محتوای بزرگسالان همچنان ممنوع است.
- تبلیغات بر روی تصاویر یا منابعی که برای بازسازی ظاهر افراد واقعی طراحی شدهاند، ظاهر نمیشوند.
- انعام (Buzz) برای تصاویر یا منابعی که افراد واقعی را به تصویر میکشند، غیرفعال خواهد شد.
- مدلهای طراحیشده برای بازسازی افراد واقعی واجد شرایط دسترسی زودهنگام نیستند، ویژگی Civitai که به سازندگان اجازه میدهد ابتدا محتوا را برای حامیان پرداختکننده منتشر کنند. این امر کسب درآمد از تصاویر افراد مشهور یا افراد واقعی را محدود میکند.
- بیانیه انطباق 2257 اضافه شده است تا تصریح کند که این پلتفرم هیچ محتوایی غیر از هوش مصنوعی را مجاز نمیداند. این به اطمینان از حفاظت قانونی با تأیید اینکه همه مطالب صریح مصنوعی هستند و بر اساس عکاسی یا ویدیوی واقعی نیستند، کمک میکند.
- یک صفحه درخواست حذف محتوا جدید به هر کسی اجازه میدهد تا مطالب توهینآمیز یا غیرقانونی را بدون نیاز به ورود به سیستم گزارش دهد. کاربران ثبت نام شده باید به استفاده از ابزارهای گزارشدهی داخلی در هر پست ادامه دهند. این جدا از فرم موجود برای درخواست حذف تصویر خود از پلتفرم است.
- CivitAI یک سیستم تعدیل جدید از طریق مشارکت با Clavata معرفی کرده است، که ابزارهای تجزیه و تحلیل تصویر آن از راه حلهای قبلی مانند Amazon Rekognition و Hive بهتر عمل کرده است.
* با وجود اشاره به «املاک» باربارا ادن، بازیگر
I Dream of Jeannie هنوز زنده است و در حال حاضر 93 سال دارد.
† بایگانی شده: https://archive.ph/tsMb0
اولین بار پنجشنبه، 24 آوریل 202 منتشر شد. اصلاح شده پنجشنبه، 24 آوریل 2025 14:32:28: تاریخها تصحیح شد.