Uzmanlar, ultra gerçekçi, yapay zeka tarafından üretilen, çocuklara yönelik cinsel istismar görüntülerinin korkunç yeni bir çağının başladığı konusunda uyarıyor. Suçlular, yıkıcı etkilere sahip görüntüler üretebilen indirilebilir açık kaynaklı üretken yapay zeka modellerini kullanıyor. Teknoloji, daha önce istismara uğramış çocukların yüzlerce yeni görüntüsünü oluşturmak için kullanılıyor. Suçlular, yapay zeka modellerini özelleştirmek için kullanılabilecek istismar görüntülerinin veri kümelerini paylaşıyor ve yapay zeka tarafından oluşturulan çocukların cinsel istismarı materyallerine (CSAM) aylık abonelik satmaya başlıyorlar.
Teknolojinin nasıl kötüye kullanıldığına ilişkin ayrıntılar, kötüye kullanım içeriğini web’den tarayan ve kaldıran, İngiltere merkezli kar amacı gütmeyen bir kuruluş olan Internet Watch Foundation (IWF) tarafından yayınlanan yeni, geniş kapsamlı bir raporda yer alıyor. Haziran ayında IWF, açık web üzerinde yapay zeka yapımı olduğundan şüphelenilen materyal içeren yedi URL bulduğunu açıklamıştı. Şimdi, yapay zekanın nasıl kullanıldığına dair bir anlık görüntü sağlayan bir dark web CSAM forumunda yapılan araştırmada, IWF’nin Birleşik Krallık yasalarına göre yasa dışı olarak değerlendirdiği, yapay zeka tarafından oluşturulmuş neredeyse 3.000 görüntü bulundu.
IWF araştırmasına göre yapay zeka tarafından oluşturulan görüntüler arasında bebeklere ve küçük çocuklara tecavüz, tacize uğrayan ünlü ergenlik çağındaki çocuklar ve gençlerin yer aldığı BDSM içerikleri yer alıyor. IWF’nin baş teknoloji sorumlusu Dan Sexton, “Talepleri, tartışmaları ve ünlülerin yer aldığı çocuklara yönelik cinsel istismar materyallerinin gerçek örneklerini gördük” diyor. Sexton bazen ünlülerin çocuk gibi görünmeleri için yaşlarının küçültüldüğünü söylüyor. Diğer durumlarda yetişkin ünlüler çocukları istismar eden kişiler olarak tasvir ediliyor.
Yapay zeka tarafından oluşturulan CSAM raporları, çevrimiçi olarak bulunan gerçek istismar görselleri ve videolarının sayısı yanında hala gölgede kalsa da Sexton, gelişmenin hızından ve bunun yeni türde istismar edici görseller için yarattığı potansiyelden alarma geçtiğini söylüyor. Bulgular, CSAM’nin çevrimiçi yayılmasını araştıran diğer gruplarla tutarlıdır. Kanada Çocuk Koruma Merkezi’nin bilgi teknolojisi direktörü Lloyd Richardson, WIRED’e, dünyanın dört bir yanındaki araştırmacıların ortak bir veritabanında yapay zeka tarafından oluşturulan 13.500 çocuk cinsel istismarı ve sömürüsü görüntüsünü işaretlediğini söyledi. Richardson, “Bu sadece buzdağının görünen kısmı” diyor.
Gerçekçi Bir Kabus
İlgi çekici sanat eserleri, gerçekçi fotoğraflar ve sıra dışı tasarımlar üretebilen mevcut AI görüntü oluşturucular, yeni bir tür yaratıcılık ve sanatı sonsuza dek değiştirme vaadi sağlıyor. Ayrıca Balenciaga Pope ve Donald Trump’ın tutuklanmasının erken bir versiyonu gibi ikna edici sahte hikayeler yaratmak için de kullanıldılar. Sistemler, genellikle web’den izinsiz olarak alınan büyük miktarda mevcut görseller üzerinde eğitilir ve görsellerin basit metin istemlerinden oluşturulmasına izin verir. “Şapka takan bir fil” istemek tam da bununla sonuçlanacaktır.
CSAM oluşturan suçluların görüntü oluşturma araçlarını benimsemeleri sürpriz değil. Sexton, “Bu görüntülerin oluşturulma şekli genellikle açık yazılım kullanmaktır” diyor. IWF’nin gördüğü suçlular sıklıkla İngiltere merkezli Stability AI firması tarafından sunulan bir AI modeli olan Stable Diffusion’a başvuruyor. Şirket, WIRED’in yorum talebine yanıt vermedi. Şirket, geçen yılın sonunda piyasaya sürülen yazılımının ikinci versiyonunda, insanların CSAM ve diğer çıplak görselleri oluşturmasını zorlaştıracak şekilde modelini değiştirdi.
Sexton, suçluların yapay zeka modellerinin eski sürümlerini kullandıklarını ve yasadışı çocuk materyalleri oluşturmak için bu modellerde ince ayar yaptıklarını söylüyor. Bu, bir modelin mevcut istismar görüntülerini veya insanların yüz fotoğraflarını beslemesini ve yapay zekanın belirli bireylerin görüntülerini oluşturmasına olanak sağlamayı içerir. Sexton, “Mevcut kurbanların yeni görüntülerini yaratan ince ayarlı modeller görüyoruz” diyor. Faillerin “mevcut mağdurların yüzlerce yeni görüntüsünü değiştirdiğini” ve bireyler hakkında talepte bulunduğunu söylüyor. Araştırma, dark web forumlarındaki bazı başlıklarda kurbanların yüzlerinin paylaşıldığını ve bir başlığın adının da “Yapay Zeka ve Deepfaking’e Özel Kızlar için Fotoğraf Kaynakları” olduğunu söylüyor.