iProov’a göre, kuruluşların %47’si bir deepfake saldırısıyla karşı karşıya kalırken, %70’i üretken yapay zeka araçları kullanılarak oluşturulan deepfake saldırılarının kuruluşları üzerinde büyük etki yaratacağına inanıyor.
Yapay zeka algıları umut verici çünkü kuruluşların %68’i siber güvenlik tehditleri yaratmada etkili olduğuna inanırken, %84’ü bunlara karşı korumada etkili olduğunu düşünüyor. Bu, iProov’un teknoloji karar vericileri arasında yaptığı yeni bir küresel ankete göre; bu anket, deepfake tehdidini ele almak için uygulanan çözümlerin %75’inin biyometrik çözümler olduğunu buldu.
Kuruluşlar AI’nın sağlayabileceği artan verimliliği kabul ederken, bu avantajlardan tehdit teknolojisi geliştiricileri ve kötü aktörler de yararlanıyor. Kuruluşların yaklaşık %73’ü deepfake tehdidini ele almak için çözümler uyguluyor ancak araştırmanın kuruluşlar tarafından bunlarla mücadele için yeterli şey yapılmadığı yönündeki baskın endişeyi belirlemesiyle güven düşük. %62’si kuruluşlarının deepfake tehdidini yeterince ciddiye almadığından endişe ediyor.
Deepfake tehdidi gerçek ve mevcut bir tehdittir
Anket, kuruluşların deepfake tehdidinin gerçek ve mevcut bir tehdit olduğunu kabul ettiğini gösteriyor. Bunlar, iftira ve itibar kaybı dahil olmak üzere birçok zararlı şekilde insanlara karşı kullanılabilir ancak belki de en ölçülebilir risk finansal dolandırıcılıktır. Burada, sistemlere veya verilere yetkisiz erişim elde etmek, finansal işlemler başlatmak veya yakın zamanda Hong Kong’da gerçekleşen deepfake dolandırıcılığı ölçeğinde başkalarını para göndermeye kandırmak için bireyleri taklit ederek büyük ölçekli kimlik dolandırıcılığı yapmak için kullanılabilirler.
Gerçek şu ki, deepfake’ler, kişilerin kimliğini uzaktan doğrulaması gereken her durum için bir tehdit oluşturuyor ancak ankete katılanlar, kuruluşların bu tehdidi yeterince ciddiye almadığından endişe ediyor.
“Yıllardır deepfake’leri gözlemliyoruz ancak son altı ila on iki ayda değişen şey, bunların oluşturulabilme kalitesi ve kolaylığı ve kuruluşlara ve bireylere büyük ölçekli yıkımlar yaratmaları oldu,” dedi iProov CEO’su Andrew Bud. “Belki de deepfake’lerin en çok göz ardı edilen kullanımı, gerçek olmadıkları ve hırsızlıklarını bildirecek bir sahipleri olmadığı için büyük ölçüde tespit edilemeyen sentetik kimliklerin oluşturulması ve milyonlarca dolar değerinde kargaşaya ve kuruluşlar ile hükümetlere dolandırıcılık yapılmasıdır.”
“Ve bazılarının inanabileceği şeyin aksine, çıplak gözle kaliteli deepfake’leri tespit etmek artık imkansız. Araştırmamız, ankete katılan kuruluşların yarısının bir deepfake ile karşılaştığını bildirmesine rağmen, bu rakamın çok daha yüksek olma olasılığı var çünkü çoğu kuruluş deepfake’leri tespit etmek için uygun şekilde donatılmamış. Tehdit ortamının hızla yenilik yaptığı bir ortamda, kuruluşlar ortaya çıkan saldırı metodolojilerini ve yüz biyometrisinin uzaktan kimlik doğrulaması için en dayanıklı çözüm olarak nasıl öne çıktığını görmezden gelemez,” diye ekliyor Andrew Bud.
Üretken AI her türlü deepfake’i destekliyor
Çalışma ayrıca küresel sahnede deepfake’lere ilişkin oldukça nüanslı algıları da ortaya koyuyor. APAC (%51), Avrupa (%53) ve LATAM (%53) kuruluşlarının, Kuzey Amerika (%34) kuruluşlarına kıyasla deepfake ile karşılaştıklarını söyleme olasılıkları önemli ölçüde daha yüksek. APAC (%81), Avrupa (%72) ve Kuzey Amerika (%71) kuruluşlarının, LATAM kuruluşlarına kıyasla deepfake saldırılarının kuruluşları üzerinde bir etkisi olacağına inanma olasılıkları önemli ölçüde daha yüksek (%54).
Tehdit manzarasının sürekli değişen arazisi arasında, kuruluşlara sızmak için kullanılan taktikler genellikle kimlik dolandırıcılığında kullanılanları yansıtır. Şaşırtıcı olmayan bir şekilde, deepfake’ler ankete katılanların en yaygın endişeleri arasında şu sırayla üçüncü sıraya yerleşmiştir: parola ihlalleri (%64), fidye yazılımları (%63), kimlik avı/sosyal mühendislik saldırıları (%61) ve deepfake’ler (%61).
Birçok farklı deepfake türü vardır ancak hepsinin ortak bir paydası vardır: Üretken yapay zeka araçları kullanılarak oluşturulurlar. Kuruluşlar, üretken yapay zekanın yenilikçi, güvenli, güvenilir olduğunu ve sorunları çözmelerine yardımcı olduğunu kabul eder. Bunu etik olmayan olmaktan çok etik olarak görürler ve gelecekte olumlu bir etkisi olacağına inanırlar. Ve harekete geçerler: Sadece %17’si yapay zeka riskini kapsayan programlara bütçelerini artırmayı başaramadı. Ek olarak, çoğu yeni yapay zeka araçlarının kullanımıyla ilgili politikalar başlattı.
Kuruluşlar çoğu görev için yüz ve parmak izi biyometrisini tercih ediyor
Biyometri, kuruluşların deepfake tehdidini ele almak için tercih ettiği çözüm olarak ortaya çıktı. Kuruluşlar, yüz ve parmak izi biyometrisini kullanma olasılıklarının en yüksek olduğunu belirttiler ancak biyometri türü görevlere göre değişebilir.
Örneğin, araştırmada kuruluşların yüz tanımayı, hesap erişimi/oturum açma, kişisel bilgiler, hesap değişiklikleri ve tipik işlemler için deepfake saldırılarına karşı koruma sağlamak amacıyla en uygun ek kimlik doğrulama modu olarak gördüğü bulundu.
Çalışmadan açıkça anlaşılıyor ki, kuruluşlar biyometriyi özel bir uzmanlık alanı olarak görüyor; katılımcıların %94’ü biyometrik güvenlik ortağının sadece bir yazılım ürününden daha fazlası olması gerektiğini kabul ediyor.
Ankete katılan kuruluşlar, sürekli izleme (%80), çok modlu biyometri (%79) ve canlılık tespiti (%77) gibi tehdit ortamının hızına ayak uyduran ve gelişen bir çözüm sağlayıcısı aradıklarını belirtti; bunların hepsi, biyometrik çözümleri deepfake saldırılarına karşı yeterli düzeyde koruma gereksinimlerinin çoğunu karşılıyor.