سودجویان جنسی از هوش مصنوعی برای تبدیل تصاویر کودکان در شبکه‌های اجتماعی به محتوای سوء استفاده جنسی از کودکان استفاده می‌کنند

محتوای سوء استفاده جنسی از کودکان تولید شده توسط هوش مصنوعی که از تصاویر رسانه‌های اجتماعی ساخته شده است.
تصاویر کودکان به طور فزاینده‌ای از سایت‌های رسانه‌های اجتماعی گرفته شده و به تصاویر سوء استفاده جنسی تبدیل می‌شوند.

موج هوش مصنوعی مولد، سیل عظیمی از تصاویر خارق‌العاده و گاهی عجیب و غریب را به همراه داشته است، همراه با چیزی بسیار تاریک‌تر: حجم فزاینده‌ای از تصاویر جنسی صریح از کودکان که از عکس‌های خانوادگی بی‌گناه ایجاد شده‌اند.

به لطف دسترسی گسترده به برنامه‌های به اصطلاح "برهنه‌ساز"، مواد سوء استفاده جنسی از کودکان تولید شده توسط هوش مصنوعی (CSAM) در حال انفجار است و اجرای قانون در تلاش است تا از آن عقب نماند.

مایک پرادو، معاون رئیس واحد جرایم سایبری DHS ICE، می‌گوید که مواردی را دیده است که در آن تصاویر خردسالان که در رسانه‌های اجتماعی ارسال شده‌اند، با هوش مصنوعی به CSAM تبدیل شده‌اند. جو اسکاراموچی، معاون ذخیره در دفتر کلانتر شهرستان مک‌لنان و مدیر مشارکت اجرای قانون در سازمان غیرانتفاعی مبارزه با قاچاق Skull Games، گفت که استفاده از هوش مصنوعی برای تبدیل تصاویر رسانه‌های اجتماعی به تصاویر جنسی صریح از کودکان "در حال انفجار" است.

او به فوربز گفت: «متأسفانه، این یکی از مهم‌ترین تغییرات در فناوری است که در یک نسل شاهد آن بوده‌ایم تا ایجاد CSAM را تسهیل کند.»

محتوای سوء استفاده جنسی از کودکان تولید شده توسط هوش مصنوعی که از تصاویر رسانه‌های اجتماعی ساخته شده است.
تصاویر کودکان به طور فزاینده‌ای از سایت‌های رسانه‌های اجتماعی گرفته شده و به تصاویر سوء استفاده جنسی تبدیل می‌شوند. Getty
«نکته‌ی طعنه‌آمیز CSAM هوش مصنوعی این است که حتی قربانی ممکن است متوجه نشود که قربانی است.»

و بدتر از آن، پرادو همچنین می‌گوید که شکارچیان عکس‌هایی از کودکان در خیابان گرفته‌اند تا آنها را به مطالب غیرقانونی تبدیل کنند. همانطور که فوربز سال گذشته گزارش داد، مردی تصاویری از کودکان در دیزنی ورلد و خارج از یک مدرسه گرفت قبل از اینکه آنها را به CSAM تبدیل کند.

پرادو به فوربز گفت: «ما می‌بینیم که این اتفاق با دفعات بیشتری رخ می‌دهد و به طور تصاعدی در حال رشد است.» «دیگر در افق نیست. این واقعیتی است که ما هر روز با آن سروکار داریم.»

سال گذشته یک مجرم جنسی که قبلاً محکوم شده بود، متهم شد که عکس‌های والدین از فرزندشان را از فیس‌بوک گرفته و در یک گفتگوی گروهی سودجویان جنسی در برنامه پیام‌رسان رمزگذاری شده Teleguard ارسال کرده و ادعا کرده است که آنها فرزندان ناتنی او هستند. یک منبع آشنا به تحقیقات به فوربز گفت، در آنجا، سایر اعضای گروه آنها را به تصاویر جنسی صریح تبدیل کردند. متعاقباً این مرد دستگیر و به داشتن هزاران قطعه CSAM متهم شد که صدها مورد از آنها توسط هوش مصنوعی تولید شده بودند.

سرعتی که هوش مصنوعی در آن تکامل می‌یابد و عدم وجود حفاظ در اطراف برخی مدل‌ها، و همچنین مقیاس محض گسترش CSAM تولید شده توسط هوش مصنوعی، نظارت را به طور قابل توجهی دشوارتر کرده است. مدیسون مک‌میکن، سخنگوی دفتر دادستان کل یوتا، گفت: «ما CSAM تولید شده توسط هوش مصنوعی را مشاهده کرده‌ایم که توسط پلتفرم‌های هوش مصنوعی مولد، از جمله برنامه‌های تبادل چهره، برنامه‌های تبادل بدن و برنامه‌های "برهنه کردن" ایجاد شده‌اند.» «تصاویر اغلب از رسانه‌های اجتماعی گرفته شده و به CSAM تبدیل می‌شوند.»

با این حال، ممکن است صاحبان آن تصاویر برای همیشه در تاریکی رها شوند. همانطور که یکی از محققان استثمار کودکان، که مجاز به صحبت در این مورد نبود، به فوربز گفت: «نکته‌ی طعنه‌آمیز CSAM هوش مصنوعی این است که حتی قربانی ممکن است متوجه نشود که قربانی است.»