تصویر: ChatGPT-4o + Firefly
تصویر: ChatGPT-4o + Firefly

CivitAI قوانین دیپ‌فیک را تحت فشار مسترکارت و ویزا سخت‌تر می‌کند

CivitAI، احتمالاً محبوب‌ترین مخزن مدل‌های هوش مصنوعی در اینترنت، سرانجام تحت فشار تسهیل‌کنندگان پرداخت، مسترکارت (MasterCard) و ویزا (Visa)، تسلیم شد تا سیاست‌های خود را در مورد محتوای NSFW (محتوای غیر ایمن برای کار) و به‌ویژه شرایط خدمات (TOS) خود در مورد LoRAهای سلبریتی، یکی از محبوب‌ترین جریان‌های محتوای ارسالی کاربر در سایت، به طور اساسی بازبینی کند. این امر به افراد امکان می‌دهد از مدل‌های کمکی که آزادانه قابل دانلود هستند مانند LoRAها برای ایجاد تصاویر هوش مصنوعی (شامل تصاویر ویدیویی) از افراد مشهور استفاده کنند.

مدیر تعاملات اجتماعی شرکت، Alasdair Nicoll، که خود یک سازنده مدل‌های (SFW) در Civit است، در یک پخش زنده در Twitch از طرف شرکت، اعتراف کرد که این تغییرات توسط نگرانی پردازشگرهای پرداخت آنها در مورد محتوای بزرگسالان و تصویرسازی از افراد واقعی به سایت تحمیل شده است. او همچنین احتمال می‌دهد که نیروهای اصلی پشت این پردازشگرها، ویزا و مسترکارت، احتمالاً خواستار تغییرات بزرگ‌تری در آینده خواهند شد:

"اینها تغییراتی نیستند که ما می‌خواستیم ایجاد کنیم. این موضوع به قوانین جدید و قریب الوقوع برمی‌گردد. قوانین دیپ‌فیک وجود دارد، قوانین پورنوگرافی هوش مصنوعی وجود دارد... پردازشگرهای پرداخت و در نهایت ویزا و مسترکارت وحشت زده شده‌اند؛ آنها نمی‌خواهند مورد شکایت قرار گیرند و در نهایت این تغییرات را هدایت می‌کنند."

"برخی از گزینه‌های دیگری که به ما داده شد، حذف کامل محتوای "not-safe-for-work" بود. حذف محتوای x و triple-x از CivitAI و انتقال آن به یک پلتفرم کاملاً جدید، و سپس مسدود کردن جغرافیایی آن پلتفرم، زیرا بیش از نیمی از ایالت‌های ایالات متحده به نوعی مسدودسازی جغرافیایی پورنوگرافی نیاز دارند، [همچنین] بسیاری از کشورهای آسیایی و انگلستان..."

"گزینه سوم رفتن به سمت کریپتو، فقط پرداخت‌های کریپتو بود... بنابراین هیچ گزینه خوبی برای این وجود نداشت."

دامنه Civit در چند روز گذشته به طور دوره‌ای برای بازبینی‌ها غیرفعال بوده است، ظاهراً برای اعمال این تغییرات. اگرچه سایت قبلاً استفاده از مضامین NSFW را در تصاویر LoRA/مدل سلبریتی ممنوع کرده بود، اما اکنون غیرممکن است که بخش مدل Civit را مرور کنید و پیش‌نمایش‌های LoRA سلبریتی را در کنار تعداد بسیار زیاد مدل‌های عمومی NSFW که برای تولید محتوای بزرگسالان طراحی شده‌اند، ببینید.

اعلامیه رسمی بیان می‌کند:

"محتوایی که با نام افراد واقعی (مانند "تام کروز") برچسب‌گذاری شده‌اند یا به عنوان منابع POI (افراد واقعی) علامت‌گذاری شده‌اند، از فیدها پنهان می‌شوند."

در جلسه Twitch، Nicoll جزئیات بیشتری از اقدامات طراحی‌شده برای محافظت از چهره‌های مشهور و افراد واقعی را فاش کرد. Civit همیشه به افراد واقعی اجازه داده است که درخواست کنند یک مدل هوش مصنوعی میزبانی‌شده توسط Civit که آنها را به تصویر می‌کشد حذف شود، اما اکنون Nicoll به سیستمی اشاره می‌کند که می‌تواند از آپلود مجدد چنین تصاویری پس از رد اولیه جلوگیری کند، با این قابلیت که یک شخصیت "محافظت‌شده" را حتی در تصاویری که سیستم قبلاً ندیده است، شناسایی کند.

به این منظور، سایت اکنون با سیستم تعدیل Clavata AI همکاری می‌کند - اگرچه میزان قدرت‌بخشی Clavata به این امکانات جدید هنوز مشخص نیست.

Nicoll گفت:

"به عنوان مثال، تام هنکس تصویر خود را از ما مطالبه کرده است. تعداد زیادی از بازیگران بزرگسال این کار را کرده‌اند؛ تعداد زیادی از بازیگران و هنرپیشه‌های درجه یک این کار را کرده‌اند..."

"فکر می‌کنم اولین کسی که تا به حال داشتیم باربارا ادن (Barbara Eden)، املاک او* بود - او یکی از اولین کسانی بود که تصویر خود را مطالبه کرد، که تا حدودی خنده‌دار است، زیرا او پیر است."

محافظت پیش‌فرض؟

در طول چند سال گذشته، شرکت VFX هوش مصنوعی Metaphysic (افشای کامل: من از اوایل سال 2022 تا اواخر سال 2024 برای Metaphysic.ai کار می‌کردم) تلاش کرد تا یک سیستم اختصاصی ایجاد کند که به هر کسی اجازه دهد تصویر خود را ثبت کند، اگرچه عمدتاً هدف آن اسامی هالیوودی بود که نگران ربودن هویت خود مبتنی بر هوش مصنوعی بودند، با پشتیبانی از بازیگرانی مانند آن هاتاوی (Anne Hathaway)، اکتاویا اسپنسر (Octavia Spencer) و تام هنکس (Tom Hanks) (که شرکت با او در فیلم Here [2024] رابرت زمکیس (Robert Zemeckis) کار کرد).

منطقاً، سودمندی سیستم همیشه به قانون موضوعه نهایی بستگی دارد. بر اساس اقداماتی که Civit اکنون مجبور به انجام آن است، سرویس مبتنی بر اشتراک پیشنهادی توسط Metaphysic می‌تواند در مواجهه با رشد سریع قوانین دیپ‌فیک و پوشش بالقوه (رایگان) تحت قانون عرفی، زائد باشد. در حال حاضر مشخص نیست که آیا پیشنهاد Metaphysic Pro به شرکت Double Negative VFX منتقل می‌شود یا خیر، شرکتی که دارایی‌های Metaphysic را سال گذشته تصاحب کرد.

در هر صورت، به طور فزاینده به نظر می‌رسد که قانون جهانی و فشارهای عمومی بازار بیشتر احتمال دارد که حفاظت و راه‌حل‌ها را ارائه دهند، برخلاف راه‌حل‌های تجاری از این نوع.

آرام آرام جوشاندن قورباغه

گزارشی در سال 2023 توسط 404 Media توجه را جلب کرد به تمایل مدل‌های هوش مصنوعی سلبریتی و پورنو در Civit، اگرچه جاستین مایر (Justin Maier)، بنیانگذار سایت، ارتباط بین تصاویر سلبریتی که توسط کاربر کمک شده و استفاده از آنها در تولید مواد پورنوگرافی را کم‌اهمیت جلوه داد.

اگرچه Civit از طریق تسهیل استفاده در سایت از LoRAها و سایر مدل‌های تهیه‌شده توسط کاربر، درآمد کسب می‌کند، Nicoll تصریح می‌کند که این نگرانی اصلی نیست که ویزا و مسترکارت را وادار می‌کند تا تغییراتی را در سایت اعمال کنند، تا بتوان همچنان از آن کسب درآمد کرد:

"برخی از مردم می‌گویند که دلیلی که ما در این وضعیت آشفته هستیم این است که ما اجازه تولید را می‌دهیم. این وارد آن نمی‌شود. میزبانی این مدل‌ها، میزبانی این محتوا، برای جلب توجه سائورون (Sauron) کافی است."

انجمن‌های نظرات در سال‌های اخیر متعجب شده‌اند که به Civit اجازه داده شده است تا تصاویر سلبریتی را میزبانی کند. با آگاهی از احتمال، شاید اجتناب‌ناپذیری یک سرکوب، تعدادی از ابتکارات برای حفظ LoRAها که یا توسط Civit یا توسط آپلودکنندگان آنها حذف شده‌اند، پیشنهاد یا اجرا شده‌اند، از جمله ساب‌ردیت r/CivitaiArchives که (تاکنون) نسبتاً نادیده گرفته شده است.

اگرچه بسیاری پیشنهاد کرده‌اند که یک ابتکار مبتنی بر تورنت (torrent) راه‌حل طبیعی است، اما به نظر نمی‌رسد هنوز دامنه خوبی ظهور کرده باشد - و در هر صورت، به نظر می‌رسد که این امر مطمئناً فعالیت ممنوعه در Civit و جاهای دیگر را به حاشیه‌های دورتر اینترنت، به باغ‌های محصور و به احتمال زیاد، به دارک‌نت منتقل می‌کند، زیرا اکثر چارچوب‌هایی که می‌توانند LoRAهای ممنوعه را در خود جای دهند (مانند ردیت و دیسکورد) یا از قبل چنین محتوایی را ممنوع کرده‌اند یا به نظر می‌رسد حتماً آن را ممنوع خواهند کرد.

در حال حاضر، LoRAهای سلبریتی هنوز هم با برخی محدودیت‌ها در Civit قابل مشاهده هستند، اگرچه بیشتر محتوای تولیدشده از فهرست خارج شده است و از کشف تصادفی حذف خواهد شد. به نظر می‌رسد محتمل است، یک مفسر به Nicoll در جلسه Twitch پیشنهاد داد، که سرکوب عمیق‌تر خواهد شد (احتمالاً تا حدی که تمام تصاویر افراد واقعی در مدل‌ها یا تصاویر آپلودشده ممنوع شود).

Nicoll پاسخ داد:

"آنها اینجا متوقف نمی‌شوند، آنها به درخواست بیشتر و بیشتر ادامه می‌دهند - کاملا! آره، کاملا. این فقط دنیایی است که در آن زندگی می‌کنیم. تنها امید این است که ما به اندازه کافی بزرگ و قدرتمند شویم که کمی بیشتر در آنچه به ما دیکته می‌شود حرفی برای گفتن داشته باشیم [...]."

Nicoll با ناامیدی از جایگزین‌های ارائه شده به Civit، افزود:

"[...] هیچ کس برای استفاده از ژنراتور CivitAI بیت‌کوین نمی‌خرد. بنابراین ما سعی کرده‌ایم این را تا حد امکان دلپذیر کنیم و این چیزی است که در نهایت به آن رسیده‌ایم. بنابراین، اگر این چیزی است که شما نمی‌توانید تحمل کنید، متاسفم، اما متاسفانه این چیزی است که هست. ما تمام تلاش خود را کردیم، تا جایی که می‌توانستیم عقب نشینی کردیم، اما در نهایت به ما گفته شد که این است - شما باید این کار را انجام دهید وگرنه پایان کار خواهد بود [...]."

"[...] این موسسات مالی، آنها نمی‌فهمند مردم اینجا با آن چه کار می‌کنند. ما سعی کرده‌ایم به آنها بگوییم، سعی کرده‌ایم با آنها صحبت کنیم، اما ما عملاً آخرین سنگر محتوای [NSFW] هستیم."

Nicoll گفت که Civit با "هر پردازشگر پرداختی که تصورش را بکنید" تماس گرفته است:

"حتی پردازشگرهای پرداخت پرخطر که سایت‌های پورنو از آنها استفاده می‌کنند و آنها همه از محتوای هوش مصنوعی بسیار محتاط هستند. این مشکل است - محتوای هوش مصنوعی است. اگر ما یک سایت پورنو سنتی بودیم، خوب بودیم، اما محتوای هوش مصنوعی چیزی است که آنها از آن می‌ترسند."

بعد کجا؟

قبل از این اطلاعیه، مشاهده شده بود که Civit آپلودهایی را که تحت پوشش برخی از دسته‌ها و انواع محتوایی که اکنون ممنوع هستند، حذف می‌کند. در زمان نگارش این مقاله، یک "مخزن اضطراری" برای Wan 2.1 LoRAها در وب‌سایت Hugging Face ایجاد شده است. اگرچه برخی از LoRAهای بایگانی‌شده در آنجا برای تسهیل فعالیت‌های جنسی عمومی طراحی شده‌اند که به ندرت آموزش داده شده‌اند یا در مدل‌های ویدیویی جدید مانند Wan 2.1 وجود ندارند، اما چندین مورد از آنها در دسته "برهنه کردن" که اکنون به شدت ممنوع شده است (یعنی "nudifying") قرار می‌گیرند، از جمله برخی از مدل‌هایی که می‌توان استدلال کرد که "افراطی" یا آشکارا بالقوه توهین‌آمیز هستند.

ساب‌ردیت r/datahoarders، که در خط مقدم حفظ ادبیات آنلاین دولت ایالات متحده در زمان مبارزات حذف گسترده دونالد ترامپ (Donald Trump) بوده است، تاکنون برای ایده نجات محتوای گمشده CivitAI ابراز تحقیر کرده است.

در ادبیات، تسهیل آسان تولید هوش مصنوعی NSFW توسط CivitAI مورد توجه قرار گرفته است. با این حال، یکی از پر استنادترین مطالعات، مقاله 2024 بررسی استفاده از مدل‌های هوش مصنوعی تولیدی توهین‌آمیز در Civitai، با این واقعیت فلج شده است که Civit تا به امروز اجازه تولیدات سلبریتی یا غیرقانونی هوش مصنوعی را نداده است و با عزم محققان برای یافتن شواهد خود در خود Civit.

به وضوح، با این حال، آنچه پردازشگرهای پرداخت را نگران می‌کند، این نیست که چه چیزی با LoRAها در خود Civit تولید می‌شود، یا چه چیزی در آنجا منتشر می‌شود، بلکه این است که با این مدل‌ها در سایر جوامعی که یا بسته‌اند یا به طور کلی کمتر تنظیم شده‌اند، چه کاری انجام می‌شود.

وب‌سایت Mr. Deepfakes، که تا زمان ظهور Stable Diffusion و مدل‌های مبتنی بر انتشار در سال 2022، مترادف با روش مبتنی بر خودکارساز (autoencoder) رایج NSFW دیپ‌فیک بود، اخیراً شروع به ارسال نمونه‌هایی از ویدیوهای پورنوگرافی مبتنی بر سلبریتی با استفاده از آخرین موج مولدهای متن به ویدیو و تصویر به ویدیو، از جمله Hunyuan Video و Wan 2.1 کرده است - هر دو نسخه‌های بسیار جدیدی هستند که نفوذ آنها نوپا است، اما به نظر می‌رسد که با توسعه جوامع مربوطه در طول سال جاری، تیترهای آتش‌زایی را به خود اختصاص دهند.

فراداده اجباری

به گفته Nicoll، یکی از تغییرات جالبی که ظاهراً پردازشگرهای پرداخت خواستار آن هستند، این است که همه تصاویر در سایت اکنون باید حاوی فراداده باشند. هنگامی که یک تصویر یا ویدیو توسط یک مدل تولیدی در یک گردش کار معمولی در یک پلتفرم مانند ComfyUI تولید می‌شود، خروجی معمولاً حاوی فراداده‌ای است که مدل استفاده‌شده را فهرست می‌کند (هش آن و همچنین نام آن، به طوری که در صورتی که مدل توسط یک کاربر تغییر نام داده شود، منشاء آن مشخص باقی بماند) و چندین تنظیمات دیگر.

به دلیل این نقاط داده پنهان در مورد چگونگی ساخته شدن تصویر، کاربران قادرند یک ویدیو یا تصویر ساخته‌شده توسط شخص دیگری را به گردش کار ComfyUI خود بکشند و کل جریان را دوباره ایجاد کنند و به هرگونه وابستگی از دست رفته رسیدگی کنند (مانند مدل‌ها یا اجزایی که سازنده اصلی داشته است، که کاربر سپس باید آنها را پیدا کرده و دانلود کند).

Civit اعلام کرده است که هرگونه تصویر یا ویدیو تولیدشده‌ای که فاقد این داده‌ها باشد، ظرف سی روز حذف خواهد شد. کاربران می‌توانند این داده‌ها را به صورت دستی، با تایپ کردن آن در وب‌سایت Civit اضافه کنند.

از آنجایی که ارزش فراداده (احتمالاً) اثباتی است، این شرط نسبتاً بی‌معنی به نظر می‌رسد. کپی و پیست کردن فراداده از یک فایل به فایل دیگر پیش پا افتاده است و اختراع ad hoc فراداده از طریق یک فرم وب این قانون جدید را کمی گیج‌کننده می‌کند.

با این وجود، چندین کاربر (از جمله یک نفر که در جلسه Twitch نظر می‌داد) هزاران تصویر در Civit آپلود کرده‌اند. تنها راه حل آنها اکنون این است که هر یک از آنها را به صورت دستی حاشیه‌نویسی کنند، یا نسخه‌های تصاویر را با فراداده اضافه شده حذف و دوباره آپلود کنند - که هرگونه "لایک" یا "هیاهو" یا مکالماتی که تصاویر اصلی ایجاد کرده‌اند را پاک می‌کند.

قوانین جدید

در اینجا تغییرات خلاصه شده‌ای که از امروز در Civit قابل اعمال است، آورده شده است:

  • محتوایی که با نام افراد واقعی برچسب‌گذاری شده‌اند یا به عنوان منابع افراد واقعی شناسایی شده‌اند، دیگر در فیدهای عمومی ظاهر نمی‌شوند.
  • محتوایی با مضامین کودک/خردسال از فیدها فیلتر می‌شوند.
  • محتوای دارای رتبه X و XXX که فاقد فراداده تولید هستند، از دید عموم پنهان شده و با یک هشدار علامت‌گذاری می‌شوند و به آپلودکننده اجازه می‌دهند جزئیات از دست رفته را اضافه کند. چنین محتوایی حذف نمی‌شود، اما تا زمانی که به روز نشود، فقط برای سازنده آن قابل مشاهده خواهد بود.
  • تصاویری که با استفاده از ویژگی Bring Your Own Image (BYOI) ساخته شده‌اند، اکنون باید حداقل 50٪ تغییر نویز را در طول تولید اعمال کنند. این بدان معناست که هوش مصنوعی باید به طور قابل توجهی تصویر آپلود شده را تغییر دهد و احتمال تولید نسخه‌های تقریباً دقیق را کاهش دهد. با این حال، تصاویری که به طور کامل در CivitAI ایجاد شده‌اند یا از محتوای دیگر CivitAI بازسازی شده‌اند، مشمول این قانون نیستند و همچنان می‌توانند از هر سطح denoise استفاده کنند، از بدون تغییر (0.0) تا تغییر کامل (1.0). هدف از این تغییر کاهش سوء استفاده از ابزار BYOI است که در غیر این صورت می‌توان از آن برای تولید دیپ‌فیک‌های ظریف یا غیرقابل تشخیص با به سختی تغییر دادن تصاویر واقعی استفاده کرد. اجبار به حداقل 50٪ تغییر تضمین می‌کند که هوش مصنوعی فقط یک ویرایش سبک از یک عکس موجود از یک شخص واقعی انجام نمی‌دهد.
  • هنگام مرور با محتوای X یا XXX فعال، جستجو برای نام افراد مشهور هیچ نتیجه‌ای را برنمی‌گرداند. ترکیب نام افراد مشهور با محتوای بزرگسالان همچنان ممنوع است.
  • تبلیغات بر روی تصاویر یا منابعی که برای بازسازی ظاهر افراد واقعی طراحی شده‌اند، ظاهر نمی‌شوند.
  • انعام (Buzz) برای تصاویر یا منابعی که افراد واقعی را به تصویر می‌کشند، غیرفعال خواهد شد.
  • مدل‌های طراحی‌شده برای بازسازی افراد واقعی واجد شرایط دسترسی زودهنگام نیستند، ویژگی Civitai که به سازندگان اجازه می‌دهد ابتدا محتوا را برای حامیان پرداخت‌کننده منتشر کنند. این امر کسب درآمد از تصاویر افراد مشهور یا افراد واقعی را محدود می‌کند.
  • بیانیه انطباق 2257 اضافه شده است تا تصریح کند که این پلتفرم هیچ محتوایی غیر از هوش مصنوعی را مجاز نمی‌داند. این به اطمینان از حفاظت قانونی با تأیید اینکه همه مطالب صریح مصنوعی هستند و بر اساس عکاسی یا ویدیوی واقعی نیستند، کمک می‌کند.
  • یک صفحه درخواست حذف محتوا جدید به هر کسی اجازه می‌دهد تا مطالب توهین‌آمیز یا غیرقانونی را بدون نیاز به ورود به سیستم گزارش دهد. کاربران ثبت نام شده باید به استفاده از ابزارهای گزارش‌دهی داخلی در هر پست ادامه دهند. این جدا از فرم موجود برای درخواست حذف تصویر خود از پلتفرم است.
  • CivitAI یک سیستم تعدیل جدید از طریق مشارکت با Clavata معرفی کرده است، که ابزارهای تجزیه و تحلیل تصویر آن از راه حل‌های قبلی مانند Amazon Rekognition و Hive بهتر عمل کرده است.

 

* با وجود اشاره به «املاک» باربارا ادن، بازیگر I Dream of Jeannie هنوز زنده است و در حال حاضر 93 سال دارد.
بایگانی شده: https://archive.ph/tsMb0

اولین بار پنجشنبه، 24 آوریل 202 منتشر شد. اصلاح شده پنجشنبه، 24 آوریل 2025 14:32:28: تاریخ‌ها تصحیح شد.