Deepfores, yapay zeka ve makine öğrenimi kullanılarak oluşturulan bir sentetik ortam türüdür. Basit bir ifadeyle, tasvir edilen olaylar asla gerçekleşmemiş olsa bile, gerçek görünen ve ses çıkaran videolar, görüntüler, ses veya metin üretirler.
Bu değiştirilmiş klipler sosyal medyaya, mesajlaşma uygulamalarına ve video paylaşım platformlarına yayıldı ve gerçeklik ve kurgu arasındaki çizgiyi bulanıklaştırdı.
“Deepfake” terimi, bir Reddit kullanıcısının bu adla bir alt bölüm oluşturduğu 2017 yılında icat edildi. Bu alt bölüm, genellikle açık içerikte ünlülerin yüz sargılarını içeren AI tarafından oluşturulan videoları paylaşmak için kullanıldı.
İlk başta, insanlar eğlence ve eğlence için derin dişler kullandılar, ancak zamanla sahtekarlık, kimlik hırsızlığı, şantaj ve yanlış bilgi yayma suçlularının elinde tehlikeli bir araç haline geldiler.
Daha da önemlisi, artık bir tane oluşturmak için gelişmiş becerilere ihtiyacınız olmamasıdır.
Deepfakes’ın arkasındaki teknoloji
DeepFakes çoğunlukla üretken rakip ağlar (GANS) adı verilen bir teknolojiye güvenir. Esasen, GANS birlikte çalışan iki algoritmayı içerir.
Birincisi, jeneratörsahte içeriği oluşturur – bir video veya görüntü gibi. İkincisi, ayrımcıiçeriğin gerçek veya sahte olup olmadığını anlamaya çalışır. Bu iki algoritma birbirlerini iyileştirmek için itmeye devam ediyor: jeneratör gerçekçi görünümlü sahte yapmakta daha iyi olurken, ayrımcı kusurları tespit etmede daha yetenekli hale geliyor.
Özellikle yüz takma gibi görevler için sıklıkla kullanılan bir başka teknik de otomatik kodlayıcılardır. GANS’ın aksine, otomatik kodlayıcılar bir jeneratör ve ayrımcı ile çalışmaz. Bunun yerine, bir kişinin yüz özelliklerini küçük, yönetilebilir bir formata sıkıştırmaya ve daha sonra bunları başka bir kişinin yüzüne yeniden yapılandırmaya odaklanırlar. Bu yöntem GANS kullanmasa da, özellikle yüzleri değiştirme gibi daha basit görevler için hala ikna edici derin dişler yaratır.
Açık kaynaklı yazılımdan (DeepFacelab, Faceswap) mobil uygulamalara (ZAO, Reface) kadar çeşitli AI araçlarının mevcudiyeti ile, bir derin peynir yapmak artık bir dizüstü bilgisayardan veya akıllı telefondan ve doğru yazılımdan biraz daha fazlasını gerektirir.
Siber suçlular derin dişleri silahlandırıyor
Bir emanet raporuna göre, 2024’te her beş dakikada bir derin bir desen saldırısı meydana geldi. Bir durumda, sosyal mühendislik taktikleri ile birleştiğinde bir DeepFake video konferans görüşmesi, çok uluslu bir şirketin 25 milyon doların üzerinde kaybetmesine yol açtı.
Bu dolandırıcıların kripto şirketleri üzerinde önemli bir etkisi oldu ve ortalama 440.000 dolar kaybına yol açtı.
Manşetler yapan yakın tarihli bir aldatmaca, aktör Brad Pitt olarak poz veren bir dolandırıcı tarafından aldatılan bir Fransız kadın içeriyordu. Scammer, onu romantik bir ilişki içinde olduklarına ikna etmek için AI tarafından oluşturulan görüntüleri kullandı. 18 ay boyunca, kadın Pitt’i içeren tıbbi bir acil durum için olduğuna inanarak dolandırıcıya 830.000 € transfer etti.
Finansal zararın ötesinde, bu tür planlar duygusal sıkıntıya neden olur, dijital iletişime olan güveni zayıflatır ve iş operasyonlarını bozar.
Dünya çapında karmaşık jeopolitik durum nedeniyle, bu teknoloji, özellikle siyasi arenada dezenformasyonu yaymak için de kullanılmıştır. Bu AI tarafından üretilen videolar ve ses kayıtları, adayları tartışmalı ifadeler yapan veya zarar verici davranışlarda bulunarak, seçmenlerin kararlarını sallayan adayları yanlış bir şekilde tasvir edebilir. Böylece demokrasi üzerinde yıkıcı bir etkiye sahip olabilirler.
DeepFakes nasıl tespit edilir
Deepfores sürekli gelişiyor olsa da, hala kusurları vardır, bu da onları tespit etme yeteneğinizi geliştirmenizi sağlar.
Yüz hareketleri: Doğal olmayan bir şekilde statik görünen doğal olmayan yanıp sönen desenleri veya gözleri arayın. Olaylara tepki olarak ince gecikmeler veya uyumsuz ifadeler de bir hediye olabilir.
Aydınlatma ve Gölgeler: Konunun yüzündeki aydınlatmanın çevredeki ortamla eşleşip eşleşmediğini kontrol edin. Hafif veya düzensiz gölgeler ve yansımalar gibi tutarsızlıklar manipülasyon önerebilir.
Görsel-işitsel senkronizasyon: Ağız hareketlerinin doğal olarak sesle hizalandığından emin olun. Dudak senkronizasyonu görünürse veya sesin hafif bozulmaları varsa, bir düzenleme işareti olabilir.
Görsel eserler: Yüzün saç veya arka planla buluştuğu kenarları inceleyin. Olağandışı bulanıklık, çarpık sınırlar, pikselasyon veya hayalet efektleri videonun değiştirildiğini gösterebilir.
Derin desen riskleri nasıl azaltılır
Kendimizi korumak için uygulayabileceğimiz bazı önleyici tedbirler var:
Deep Prefes algılama araçlarını ve yazılımı kullanın: Derin dişleri tespit etmek için tasarlanmış özel araçlardan ve AI güdümlü yazılımlardan yararlanın. Bu araçlar anomaliler için dijital içeriği analiz edebilir ve özgünlüğünü doğrulamaya yardımcı olabilir.
Deepfake trendleri ve teknolojileri konusunda güncel kalın: Deepfake teknolojisindeki en son gelişmeler hakkında kendinizi bilgilendirin. Yeni tekniklerin ve yaygın manipülasyon belirtilerinin farkında olmak, derin dişleri tespit etmenize yardımcı olabilir.
Kimlikleri doğrulamak için MFA uygulayın: Bu, saldırganların, birisinin ikna edici bir derin perfesi oluşturmayı başarsalar bile, hassas hesaplara erişim kazanmasını engelleyebilir.
Hassas iletişim için kod kelimeleri veya doğrulama işlemleri oluşturun: Bu, iletişim kurduğunuz kişinin aslında kim olduğunu iddia ettiklerinden emin olur. Bu, özellikle işlemlerle veya hassas kişisel konularla uğraşırken yararlıdır.
Kişisel Medya Paylaşımını Çevrimiçi Sınırlayın: Çevrimiçi olarak ne kadar çok kişisel medya paylaşırsanız, tehdit aktörlerine derin dişler oluşturmak için o kadar çok malzeme sağlarsınız. Sosyal platformlarda hangi görüntülerin, videoların ve diğer medyanın paylaştığınız konusunda dikkatli olun. Gizlilik ayarlarını, yalnızca güvenilir bireylerin veya grupların bunları görüntüleyebileceği şekilde ayarlayın.
Kimse geleceğin bizim için neye sahip olduğunu bilmiyor, ancak imkansız veya sadece birkaç 20 yıl önce seçilecek olan şey artık herkes için erişilebilir ve bu da kötü niyetleri olan insanlar için erişilebilir olduğu anlamına geliyor.
Teknolojinin ilerlemesiyle, gerçek olanı sahte olandan ayırt etmek giderek zorlaşacak ve kendimizi koruyabileceğimiz sihirli değnek yok. Yapabileceğimiz tek şey dikkatli olmak ve kendimizi korumak için gücümüz içindeki her önlemi almaktır. Ve elbette, internette veya sosyal medyada gördüğünüz her şeye inanmayın.