Ajder, “Özel görüntü istismarına baktığımızda, araçların ve silahlandırılmış kullanımın büyük çoğunluğunun açık kaynak alanından geldiğini görüyoruz” diyor. Ancak genellikle iyi niyetli geliştiricilerle başladıklarını söylüyor. “Birisi ilginç ya da havalı olduğunu düşündüğü bir şey yaratır ve kötü niyetli biri de onun kötü niyetli potansiyelini fark eder ve onu silah haline getirir.”
Bazıları, Ağustos ayında devre dışı bırakılan depo gibi, çevrelerinde açık kullanımlar için amaca yönelik olarak oluşturulmuş topluluklara sahiptir. Ajder, modelin kendisini deepfake porno için bir araç olarak konumlandırdığını ve ağırlıklı olarak kadınları hedef alan istismar için bir “huni” haline geldiğini iddia ediyor.
GitHub’dan indirilen AI modellerine atıfta bulunan bir hesap tarafından porno yayın sitesine yüklenen diğer videolarda, popüler deepfake hedeflerin, ünlüler Emma Watson, Taylor Swift ve Anya Taylor-Joy’un yanı sıra daha az ünlü ama oldukça gerçek kadınların yüzleri yer alıyordu. , cinsel durumların üstüne bindirilmiş.
İçerik oluşturucular, GitHub tarafından temizlenen ancak kodu diğer mevcut depolarda varlığını sürdüren iki araç da dahil olmak üzere kullandıkları araçları özgürce tanımladılar.
Deepfake arayışındaki failler, Discord’daki gizli topluluk forumları ve Reddit’teki açık alan da dahil olmak üzere çevrimiçi olarak birçok yerde bir araya gelerek deepfake önleme girişimlerini bir araya getiriyor. Bir Reddit kullanıcısı, 29 Eylül’de arşivlenmiş veri havuzunun yazılımını kullanarak hizmetlerini sundu. Bir diğeri, “Birisi kuzenime bunu yapabilir mi?” diye sordu.
GitHub tarafından ağustos ayında yasaklanan ana veri deposundaki torrentler aynı zamanda internetin diğer köşelerinde de mevcut ve bu da açık kaynaklı deepfake yazılımlarını genel olarak denetlemenin ne kadar zor olduğunu gösteriyor. DeepNude uygulaması gibi diğer deepfake porno araçları da yeni sürümler ortaya çıkmadan önce benzer şekilde kullanımdan kaldırıldı.
Birleşik Krallık’taki partiler arası düşünce kuruluşu Demos’un dijital politika direktörü Elizabeth Seger, “O kadar çok model var ki, modellerde o kadar çok farklı çatal var ki, o kadar çok farklı versiyon var ki, hepsinin izini sürmek zor olabiliyor” diyor. “Bir model bir kez açık kaynak olarak indirilmek üzere kamuya açık hale getirildikten sonra, bunun kamuya açık olarak geri alınması mümkün değildir” diye ekliyor.
Kadın ünlülerin manipüle edilmiş 13 müstehcen videosunu içeren bir deepfake porno yaratıcısı, sorumlu kullanımı teşvik eden ve kullanıcılardan bunu çıplaklık için kullanmamalarını açıkça isteyen başka bir projenin “NSFW” versiyonu olarak pazarlanan önde gelen bir GitHub deposundan bahsetti. Tüp sitesindeki profilleri küstahça “Mevcut tüm Face Swap AI’yi çevrimiçi hizmetleri kullanmadan GitHUB’dan öğreniyorum” diyor.
WIRED deepfake videoları tespit ettiğinde GitHub bu NSFW sürümünü zaten devre dışı bırakmıştı. Ancak modelin “kilitlenmemiş” versiyonları olarak adlandırılan diğer depolar, 2.500 “yıldızlı” biri de dahil olmak üzere 10 Ocak’ta platformda mevcuttu.
“Teknik olarak doğrudur ki bir kez [a model is] orada bu tersine çevrilemez. Ancak yine de insanların erişimini zorlaştırabiliriz” diyor Seger.
Kontrol edilmezse, derin sahte “porno”nun zarar verme potansiyelinin sadece psikolojik olmadığını da ekliyor. Bunun zincirleme etkileri arasında, dünya çapında kadın politikacıları etkileyen siyasi sahtekarlıklarda görüldüğü gibi, kadınların, azınlıkların ve politikacıların sindirilmesi ve manipüle edilmesi yer alıyor.
Ancak sorunu kontrol altına almak için çok geç değil ve Seger, GitHub gibi platformların yükleme noktasında müdahale etmek de dahil olmak üzere seçeneklere sahip olduğunu söylüyor. “GitHub’a bir model koyarsanız ve GitHub hayır derse ve tüm barındırma platformları hayır derse, normal bir insan için o modeli elde etmek zorlaşır.”
Açık kaynaklı modellerle yapılan derin sahte pornoyu dizginlemek aynı zamanda politika yapıcılara, teknoloji şirketlerine, geliştiricilere ve tabii ki kötü niyetli içerik yaratıcılarına da bağlı.
Kâr amacı gütmeyen Public Citizen’ın mevzuat takipçisine göre, ABD’nin en az 30 eyaletinde deepfake pornoyla ilgili yasaklar da dahil olmak üzere bazı mevzuatlar var; ancak tanımlar ve politikalar birbirinden farklı ve bazı kanunlar yalnızca reşit olmayanları kapsıyor. Birleşik Krallık’taki Deepfake yaratıcıları da, hükümetin 7 Ocak’ta müstehcen deepfake oluşturmanın ve bunların paylaşılmasının suç sayılacağını duyurmasının ardından yakında kanunun gücünü hissedecek.