Yapay Zeka Destekli Ses Klonlama, Derin Sahte Adam Kaçırma İşlemlerini Destekliyor



Bu yılın başlarında bir siber suçlunun, kızını kaçırdığını iddia ettiği Arizona’da yaşayan bir kadından zorla 1 milyon dolar almaya çalıştığı bir olay, güvenlik uzmanlarının yapay zekanın sağladığı ses klonlamanın artan tehlikesi olduğunu söylediği şeyin erken bir örneğidir.

Gasp girişiminin bir parçası olarak, kaçırdığı iddia edilen kişi, kızı uyuşturucu ve fiziksel tacizle tehdit ederken, perişan haldeki annesi Jennifer DeStefano’nun, kızının bağırışlarını, ağlamalarını ve çılgınca yardım ricalarını telefonda duymasına izin verdi.

Ancak, bu ricalar derin sahtekarlıklarla sonuçlandı.

Deepfakes Özdeş Sesler Yaratır

Olayın ayrıntılarını anlatırken DeStefano polise, kaçırıldığı iddia edilen kurbanın sesinin kızınınkiyle ne kadar aynı olması nedeniyle telefondaki kişinin kızını gerçekten kaçırdığına ikna olduğunu söyledi.

Olay, siber suçluların insanları dolandırmaya çalışmak için yapay zeka özellikli araçlardan yararlandığı, sayısı hızla artan örneklerden biridir. Sorun o kadar yaygın hale geldi ki, Haziran ayı başlarında FBI tüketicilere, zararsız video ve fotoğrafları manipüle eden suçluların çeşitli türde şantaj girişimlerinde insanları hedef aldığına dair bir uyarı yayınladı.

Ajans, “FBI, fotoğrafları veya videoları müstehcen içeriğe dönüştürülen küçük çocuklar ve rıza göstermeyen yetişkinler de dahil olmak üzere kurbanlardan raporlar almaya devam ediyor.” “Fotoğraflar veya videolar daha sonra sosyal medyada veya pornografik web sitelerinde, kurbanları taciz etmek veya seks şantaj düzenleri amacıyla halka açık bir şekilde dağıtılıyor.” Federal Ticaret Komisyonu’na göre, derin sahtekarlıkları içeren dolandırıcılıklar, geçen yıl ABD’li tüketicilere 2,6 milyar dolarlık şaşırtıcı bir zarara mal olan sözde sahte dolandırıcılıklara yeni bir boyut kazandırdı.

Trend Micro bu hafta tehdidi vurgulayan bir raporda, çoğu durumda, saldırganların -DeStefano’yu kandıran türden- derin sahte videolar ve sesler oluşturması için gereken tek şeyin çok küçük biyometrik içerik örnekleri olduğunu söyledi. Bir kişinin Facebook, TikTok ve Instagram gibi sosyal medya platformlarında yayınlayabileceği birkaç saniyelik ses bile bir tehdit aktörünün o kişiyi klonlamak için ihtiyaç duyduğu tek şeydir.s sesi. Trend Micro araştırmacılarına göre, çeşitli kaynaklardan toplanan küçük ses biyometriğini kullanarak nispeten kolay bir şekilde ses klonlama yapmalarına olanak tanıyan çok sayıda yapay zeka aracının hazır olması ve daha pek çoğunun yolda olması onlara yardımcı oluyor.

“Birinin derin sahte sesini yaratabilen kötü niyetli aktörlers çocuğu bir giriş betiği kullanabilir (muhtemelenTrend Micro araştırmacıları Craig Gibson ve Josiah Hagen raporlarında, “Çocuğu ağlıyor, çığlık atıyor ve derin bir sıkıntı içindeymiş gibi göstermek için” hedeflenen kurbana sahiplerKurbana büyük miktarda fidye göndermesi için baskı yapmak için çocuğunun ellerinde olması.”

Çok Sayıda Yapay Zeka Taklit Aracı

Yapay zeka özellikli ses klonlama araçlarının bazı örnekleri arasında ElevenLabs’ın VoiceLab, Resemble.AI, Speechify ve VoiceCopy yer alır. Araçların çoğu yalnızca bir ücret karşılığında kullanılabilir, ancak bazıları deneme için ücretsiz sürümler sunar. Buna rağmen, bu araçları kullanmanın maliyeti genellikle ayda 50 dolardan çok daha azdır ve bu da sahte dolandırıcılıklarla uğraşanlar için kolayca erişilebilir olmalarını sağlar.

Trend Micro’nun belirttiğine göre, Dark Web’de çok sayıda video, ses klibi ve diğer kimlik içeren veriler mevcuttur; tehdit aktörleri, DeStefano deneyimli sanal adam kaçırma dolandırıcılıkları ve diğer sahtekarlık dolandırıcılıkları için hedefleri belirlemek üzere kamuya açık bilgilerle ilişkilendirebilir. Araştırmacılar, Dark Reading’e e-postayla gönderilen yorumlarda, aslında, tehdit aktörlerinin saldırılarını bilemek için kullanabilecekleri, sanal adam kaçırma dolandırıcılıklarını etkinleştiren belirli araçların Dark Web’de ortaya çıktığını söylüyor.

ChatGPT gibi AI araçları, saldırganların video, ses ve coğrafi konum verileri dahil olmak üzere verileri birleştirmesine olanak tanır ses klonlama veya diğer dolandırıcılıklarda hedef alabilecekleri insan gruplarını esasen daraltmak için farklı kaynaklardan. Sosyal ağ analizi ve eğilimleri (SNAP) modellemesinin pazarlamacılara müşterilerin belirli eylemlerde bulunma olasılığını belirleme olanağı vermesi gibi, saldırganlar da potansiyel kurbanlara odaklanmak için ChatGPT gibi araçlardan yararlanabilir. Trend Micro araştırmacıları, “Saldırılar, beğeniler gibi kullanıcı verilerinin içerik oluşturma istemine beslenmesiyle geliştiriliyor” diyor. “Müzikal seven, kedi sever, yalnız yaşayan bu kadını yetişkin oğlunun kaçırıldığına ikna edin” diyorlar örnek olarak. ChatGPT gibi araçlar, sahtekarların, bir sahtekarın ses klonlama dolandırıcılığında kullanabileceği tüm konuşmayı tamamen otomatik bir şekilde oluşturmasına olanak tanır.

Ayrıca tehdit aktörlerinin, sanal adam kaçırma gibi sahte dolandırıcılıklarda, esasen bir bireyin telefonunu ele geçirdikleri SIM-jacking’i kullandıklarını da görmeyi bekleyebilirsiniz. Trend Micro, “Sanal adam kaçıranlar, sözde kaçırılan bir kişi üzerinde bu planı kullandığında, telefon numarasına ulaşılamaz hale gelir ve bu da başarılı bir fidye ödemesi şansını artırabilir.” Dedi. Güvenlik profesyonelleri ayrıca tehdit aktörlerinin iletişim yollarını dahil ettiğini görmeyi bekleyebilirler. engellemek daha zor güvenlik satıcısı, fidye yazılımı saldırılarında ve diğer siber şantaj planlarında ses ve video gibi.

Siber Risklerin Farkında Olan Klonlama Satıcıları

Birkaç ses klonlama satıcısı tehdidin farkındadır ve riski azaltmak için önlemler alıyor gibi görünmektedir. Bu yılın başlarında Twitter mesajlarında ElevenLabs, bir artan sayıda ses klonlama kötüye kullanım vakası beta platformunun kullanıcıları arasında. Yanıt olarak şirket, tam kimlik doğrulaması ve sesin telif hakkını doğrulama gibi ek hesap kontrolleri eklemeyi düşündüğünü söyledi. Üçüncü bir seçenek, bir ses örneğini klonlamak için her talebi manuel olarak doğrulamaktır.

Vall-E adlı yapay zeka özellikli bir metinden konuşmaya teknolojisi geliştiren Microsoft, tehdit aktörlerinin teknolojisini ses tanımlamasını taklit etmek veya belirli konuşmacıları taklit etmek için kötüye kullanma potansiyeli konusunda uyardı. Şirket, “Model gerçek dünyada görünmeyen konuşmacılara genelleştirilirse, konuşmacının sesinin kullanımını onaylamasını sağlamak için bir protokol ve sentezlenmiş bir konuşma algılama modeli içermelidir” dedi.

VoiceBox adlı konuşma için üretken bir yapay zeka aracı geliştiren Facebook ana şirketi Meta, olası kötüye kullanım konusundaki endişeleri gerekçe göstererek aracı genel kullanıma sunma konusunda yavaşlamaya karar verdi. Şirket, teknolojinin bir sesi klonlamak için sofistike yeni bir yaklaşım kullandığını iddia etti. ham ses ve beraberindeki transkripsiyon. Meta araştırmacıları, teknolojiyi açıklayan son yazılarında, “Üretken konuşma modelleri için pek çok heyecan verici kullanım durumu var, ancak potansiyel kötüye kullanım riskleri nedeniyle, Voicebox modelini veya kodunu şu anda kamuya açık hale getirmiyoruz.”





Source link