“Nudify” deepfake botları kurbanların kıyafetlerini dakikalar içinde çıkarıyor ve milyonlarca kişi bunları kullanıyor


Milyonlarca insan normal fotoğrafları çıplak görüntülere dönüştürüyor ve bu, birkaç dakika içinde yapılabiliyor.

Wired’daki gazeteciler, Telegram’da yalnızca birkaç tıklamayla insanların müstehcen fotoğraflarını veya videolarını oluşturduğunu iddia eden en az 50 “çıplaklaştırma” botu buldu. Bu botların toplamda milyonlarca aylık kullanıcısı var. Kaç tane benzersiz kullanıcı olduğunu bulmanın kesin bir yolu olmasa da, bu durum dehşet vericidir ve muhtemelen bulduklarından çok daha fazlası vardır.

Rıza dışı mahrem imaj (NCII) istismarının geçmişi – açık deepfake’lerin rıza olmadan kullanılmasına sıklıkla verilen isim – 2017’nin sonlarına doğru başladı. Motherboard (şimdi Vice), Gal Gadot’un yüzünün üst üste bindirildiği çevrimiçi bir video buldu. Aktrisin tasvir edilen eylemlere katıldığını göstermek için mevcut bir pornografik video. Bu videonun sorumlusu olduğunu iddia eden kişinin kullanıcı adı “deepfake” isminin ortaya çıkmasına neden oldu.

O günden bu yana deepfake’ler birçok gelişme yaşadı. Her şey, kullanıcıların bir kişinin yüzünü başka bir kişinin vücuduna yerleştirdiği yüz takaslarıyla başladı. Artık yapay zekanın ilerlemesiyle birlikte, Üretken Rekabet Ağları (GAN’lar) gibi daha karmaşık yöntemler halka açık hale geldi.

Ancak ortaya çıkarılan botların çoğu bu ileri teknoloji türünü kullanmıyor. Telegram’daki bazı botlar, kurban için son derece rahatsız edici bir eylem olan mevcut resimlerden kıyafetleri çıkarmakla “sınırlıdır”.

Bu botlar kazançlı bir gelir kaynağı haline geldi. Böyle bir Telegram botunun kullanılması, görsel oluşturmak için genellikle belirli sayıda “jeton” gerektirir. Elbette siber suçlular da bu gelişmekte olan pazardaki fırsatları fark etti ve işlevsiz veya düşük kaliteli görüntüler oluşturan botlar çalıştırıyor.

Rahatsız edici olmasının yanı sıra, müstehcen içerik oluşturmak için yapay zekanın kullanılması maliyetlidir, mahremiyet garantisi yoktur (geçen gün AI Girlfriend’in ihlali sırasında gördüğümüz gibi) ve hatta kötü amaçlı yazılımlara maruz kalabilirsiniz.

Açık rıza dışı deepfake’lerin oluşturulması ve dağıtılması, bırakın cinsel çocuk istismarı materyallerinin oluşturulması bir yana, rıza, mahremiyet ve kadınların nesneleştirilmesiyle ilgili ciddi etik sorunları gündeme getiriyor. İtalyan bilim insanları, açık bir şekilde rızaya dayalı olmayan deepfake’lerin, kurbanlar üzerinde uzun vadeli potansiyel psikolojik ve duygusal etkileri olan yeni bir cinsel şiddet biçimi olduğunu buldu.

Bu tür cinsel istismarla mücadele etmek için çeşitli girişimlerde bulunulmuştur:

  • ABD, Deepfake Sorumluluk Yasası şeklinde bir yasa teklifinde bulundu. Telegram’ın, kullanıcıların suç işlediğinden şüphelenildiği durumlarda kullanıcı ayrıntılarını kolluk kuvvetlerine teslim etme yönündeki son politika değişikliğiyle birleştiğinde, bu, en azından Telegram’da botların kullanımını yavaşlatabilir.
  • Bazı platform politikaları (örneğin Google, istemsiz sentetik pornografik görüntülerin arama sonuçlarından yasaklanmasını sağladı).

Ancak şu ana kadar bu adımların NCII pazarının büyümesi üzerinde önemli bir etkisi olmadı.

Çocuklarınızı güvende tutun

Bazen bize yapay zeka modellerini eğitmek için kullanılabilecek resimleri sosyal medyada yayınlamanın neden sorun olduğu soruluyor.

Sosyal medya ve diğer platformların kullanıcılarının içeriğini yapay zekalarını eğitmek için kullandığı birçok durum gördük. Bazı insanlar tehlikeyi göremedikleri için bunu umursamama eğilimindeler ama biz olası sorunları açıklayalım.

  • Deepfake’ler: Deepfake’ler gibi AI tarafından oluşturulan içerikler, yanlış bilgi yaymak, itibarınıza veya gizliliğinize zarar vermek veya tanıdığınız kişileri dolandırmak için kullanılabilir.
  • Meta veriler: Kullanıcılar genellikle sosyal medyaya yükledikleri görsellerin aynı zamanda örneğin fotoğrafın çekildiği yer gibi meta veriler de içerdiğini unuturlar. Bu bilgiler potansiyel olarak üçüncü taraflara satılabilir veya fotoğrafçının amaçlamadığı şekillerde kullanılabilir.
  • Fikri mülkiyet. Oluşturmadığınız veya sahip olmadığınız hiçbir şeyi asla yüklemeyin. Sanatçılar ve fotoğrafçılar, çalışmalarının uygun bir tazminat veya atıf yapılmadan istismar edildiğini hissedebilirler.
  • Önyargı: Önyargılı veri kümeleri üzerinde eğitilen yapay zeka modelleri, toplumsal önyargıları sürdürebilir ve artırabilir.
  • Yüz tanıma: Yüz tanıma bir zamanlar eskisi kadar sıcak bir konu olmasa da hala varlığını sürdürüyor. Ve görsellerinizin (gerçek veya değil) yaptığı eylemler veya ifadeler kişiliğinizle bağlantılı olabilir.
  • Bellek: Bir fotoğraf çevrimiçi olduğunda onu tamamen kaldırmak neredeyse imkansızdır. Önbelleklerde, yedeklemelerde ve anlık görüntülerde var olmaya devam edebilir.

Sosyal medya platformlarını kullanmaya devam etmek istiyorsanız bu sizin seçiminizdir, ancak kendinizin, sevdiklerinizin ve hatta hiç tanımadığınız kişilerin fotoğraflarını yüklerken yukarıdakileri göz önünde bulundurun.


Yalnızca tehditleri rapor etmiyoruz; onları kaldırıyoruz

Siber güvenlik riskleri asla bir manşetin ötesine yayılmamalıdır. Malwarebytes’i bugün indirerek tehditleri cihazlarınızdan uzak tutun.



Source link