Üretken-yapay-zekanın ortasında Son birkaç ayın çılgınlığıyla birlikte, güvenlik araştırmacıları, yapay zeka tarafından üretilen seslerin veya derin sahte seslerin, dolandırıcıların bunları toplu halde kullanmaya başlayacaklarını üretecek kadar ikna edici ve kolay hale geldiği endişesini yeniden değerlendiriyor.
Son yıllarda, siber suçluların büyük miktarlarda para çalmak için şirket CEO’larının derin seslerini kullandıkları bildirilen birkaç yüksek profilli olay oldu – belgeselcilerin ölümünden sonra Anthony Bourdain’in derin seslerini oluşturduklarından bahsetmiyorum bile. Ancak suçlular, herhangi bir spam aramanın umutsuzca “kefalet parası” arayan kardeşinizin klonlanmış sesini içerebileceği dönüm noktasında mı? Hayır, araştırmacılar diyor ki, en azından henüz.
İkna edici, sağlam ses derin sahtekarlıkları yaratma teknolojisi güçlüdür ve kontrollü ortamlarda veya bir kişinin kapsamlı ses kayıtlarının mevcut olduğu durumlarda giderek yaygınlaşmaktadır. Şubat ayının sonunda, Anakart muhabiri Joseph Cox, beş dakikalık kendi konuşmasını kaydettiğini ve ardından bir bankanın ses doğrulama sistemini yenen ses derin sahteleri oluşturmak için halka açık bir üretken yapay zeka hizmeti olan ElevenLabs’i kullandığına dair bulgularını yayınladı. Ancak üretken yapay zekanın diğer ortamlardaki eksiklikleri gibi, metin oluşturan sohbet robotlarının sınırlamaları da dahil olmak üzere, sesli deepfake hizmetleri hala tutarlı bir şekilde mükemmel sonuçlar üretemiyor.
Almanya’daki CISPA Helmholtz Bilgi Güvenliği Merkezi’nde güvenlik ve rakip makine öğrenimi araştırmacısı olan Lea Schönherr, “Saldırı senaryosuna bağlı olarak, gerçek zamanlı yetenekler ve çalınan ses örneğinin kalitesi dikkate alınmalıdır” diyor. “Çalınan sesin yalnızca birkaç saniyesine ihtiyaç duyulduğu sık sık söylense de, sesin derin sahtekarlığının sonucu üzerinde kalite ve uzunluğun büyük etkisi vardır.”
Kimlik avı gibi dijital dolandırıcılıklar ve sosyal mühendislik saldırıları, görünüşte sürekli büyüyen bir tehdittir, ancak araştırmacılar, saldırganların kurban olarak adlandırdığı ve hedefin bildiği birinin kimliğine bürünmeye çalıştığı dolandırıcılıkların onlarca yıldır var olduğunu, yapay zekaya gerek olmadığını belirtiyor. Ve uzun ömürlü olmaları gerçeği, bu koşuşturmacaların insanları saldırganlara para göndermeleri için kandırmada en azından bir şekilde etkili olduğu anlamına gelir.
“Bu dolandırıcılıklar sonsuza dek sürdü. Çoğu zaman işe yaramıyor, ancak bazen ne sebeple olursa olsun söylediklerine inanmaya hazır bir kurban buluyorlar, ”diyor uzun süredir toplum mühendisliği araştırmacısı ve FBI için eski dijital davranış analisti olan Crane Hassold. “Çoğu kez bu kurbanlar, konuştukları kişinin taklit edilen kişi olduğuna yemin edecekler, oysa gerçekte bu sadece beyinlerinin boşlukları doldurması.”
Hassold, büyükannesinin 2000’li yılların ortalarında saldırganların arayıp kendisi gibi davranarak onu kendilerine 1.500 dolar göndermeye ikna ettikleri bir kimliğe bürünme dolandırıcılığının kurbanı olduğunu söylüyor.
“Büyükannemle, dolandırıcı başlangıçta kimin aradığını söylemedi, Kanada’da bir müzik festivaline katılırken nasıl tutuklandıklarından ve kefalet için para göndermesine ihtiyaç duyduklarından bahsetmeye başladılar. Yanıtı ‘Crane, sen misin?’ ve sonra tam olarak ihtiyaç duydukları şeye sahip oldular” diyor. “Dolandırıcılar, esasen kurbanlarını inanmalarını istedikleri şeye inanmaya hazırlıyorlar.”
Pek çok sosyal mühendislik dolandırıcılığında olduğu gibi, ses kimliğine bürünme dolandırıcıları, hedef bir aciliyet duygusuna kapıldığında ve sadece birine yardım etmeye veya kendi sorumluluğu olduğuna inandıkları bir görevi tamamlamaya çalıştığında en iyi sonucu verir.
“Büyükannem işe giderken bana ‘Umarım iyisindir’ gibi bir sesli mesaj bıraktı. Endişelenme, parayı gönderdim ve kimseye söylemeyeceğim’” diyor Hassold.
Siber güvenlik firması Set Solutions’ın araştırma ve geliştirme direktörü Justin Hutchens, derin sahte ses dolandırıcılığını artan bir endişe olarak gördüğünü, ancak yapay zeka destekli dolandırıcılığın daha da otomatik hale geldiği bir gelecekten de endişe duyduğunu söylüyor.
Hutchens, Open AI’ın ChatGPT gibi platformları için “Yakın gelecekte, derin sahte ses teknolojisini büyük dil modelleri tarafından desteklenen konuşma etkileşimleriyle birleştiren tehdit aktörlerini görmeye başlayacağımızı umuyorum” diyor.
Ancak şimdilik Hassold, ses kimliğine bürünme dolandırıcılıklarının derin sahtekarlıklar tarafından yönlendirildiğini varsaymak için çok hızlı davranılmaması konusunda uyarıda bulunuyor. Ne de olsa, dolandırıcılığın analog versiyonu hala ortalıkta dolaşıyor ve doğru zamanda doğru hedefe ulaşmaya çalışıyor.