موج هوش مصنوعی مولد، سیل عظیمی از تصاویر خارقالعاده و گاهی عجیب و غریب را به همراه داشته است، همراه با چیزی بسیار تاریکتر: حجم فزایندهای از تصاویر جنسی صریح از کودکان که از عکسهای خانوادگی بیگناه ایجاد شدهاند.
به لطف دسترسی گسترده به برنامههای به اصطلاح "برهنهساز"، مواد سوء استفاده جنسی از کودکان تولید شده توسط هوش مصنوعی (CSAM) در حال انفجار است و اجرای قانون در تلاش است تا از آن عقب نماند.
مایک پرادو، معاون رئیس واحد جرایم سایبری DHS ICE، میگوید که مواردی را دیده است که در آن تصاویر خردسالان که در رسانههای اجتماعی ارسال شدهاند، با هوش مصنوعی به CSAM تبدیل شدهاند. جو اسکاراموچی، معاون ذخیره در دفتر کلانتر شهرستان مکلنان و مدیر مشارکت اجرای قانون در سازمان غیرانتفاعی مبارزه با قاچاق Skull Games، گفت که استفاده از هوش مصنوعی برای تبدیل تصاویر رسانههای اجتماعی به تصاویر جنسی صریح از کودکان "در حال انفجار" است.
او به فوربز گفت: «متأسفانه، این یکی از مهمترین تغییرات در فناوری است که در یک نسل شاهد آن بودهایم تا ایجاد CSAM را تسهیل کند.»

«نکتهی طعنهآمیز CSAM هوش مصنوعی این است که حتی قربانی ممکن است متوجه نشود که قربانی است.»
و بدتر از آن، پرادو همچنین میگوید که شکارچیان عکسهایی از کودکان در خیابان گرفتهاند تا آنها را به مطالب غیرقانونی تبدیل کنند. همانطور که فوربز سال گذشته گزارش داد، مردی تصاویری از کودکان در دیزنی ورلد و خارج از یک مدرسه گرفت قبل از اینکه آنها را به CSAM تبدیل کند.
پرادو به فوربز گفت: «ما میبینیم که این اتفاق با دفعات بیشتری رخ میدهد و به طور تصاعدی در حال رشد است.» «دیگر در افق نیست. این واقعیتی است که ما هر روز با آن سروکار داریم.»
سال گذشته یک مجرم جنسی که قبلاً محکوم شده بود، متهم شد که عکسهای والدین از فرزندشان را از فیسبوک گرفته و در یک گفتگوی گروهی سودجویان جنسی در برنامه پیامرسان رمزگذاری شده Teleguard ارسال کرده و ادعا کرده است که آنها فرزندان ناتنی او هستند. یک منبع آشنا به تحقیقات به فوربز گفت، در آنجا، سایر اعضای گروه آنها را به تصاویر جنسی صریح تبدیل کردند. متعاقباً این مرد دستگیر و به داشتن هزاران قطعه CSAM متهم شد که صدها مورد از آنها توسط هوش مصنوعی تولید شده بودند.
سرعتی که هوش مصنوعی در آن تکامل مییابد و عدم وجود حفاظ در اطراف برخی مدلها، و همچنین مقیاس محض گسترش CSAM تولید شده توسط هوش مصنوعی، نظارت را به طور قابل توجهی دشوارتر کرده است. مدیسون مکمیکن، سخنگوی دفتر دادستان کل یوتا، گفت: «ما CSAM تولید شده توسط هوش مصنوعی را مشاهده کردهایم که توسط پلتفرمهای هوش مصنوعی مولد، از جمله برنامههای تبادل چهره، برنامههای تبادل بدن و برنامههای "برهنه کردن" ایجاد شدهاند.» «تصاویر اغلب از رسانههای اجتماعی گرفته شده و به CSAM تبدیل میشوند.»
با این حال، ممکن است صاحبان آن تصاویر برای همیشه در تاریکی رها شوند. همانطور که یکی از محققان استثمار کودکان، که مجاز به صحبت در این مورد نبود، به فوربز گفت: «نکتهی طعنهآمیز CSAM هوش مصنوعی این است که حتی قربانی ممکن است متوجه نشود که قربانی است.»