Savunmacılar Deepfake’leri Tespit Etme Geleceği İçin Kemerlerini Bağlıyor



2021’de, koronavirüs pandemisinin ortasında dolandırıcılar, iş e-postası uzlaşma kampanyalarında video konferansı kullanmaya başladı. Sahtekarlık dolandırıcılığının bu versiyonunda, saldırgan CEO gibi bir iş yöneticisinin kişiliğini giydi ve çalışanları para göndermeleri için kandırmak için video kullandı.

FBI, saldırganların yöneticinin sesini taklit etmek için işletme yöneticisinin sabit bir resmini ve derin sinir ağları tarafından oluşturulan sesi kullanarak “çalışanlara banka havalelerini başlatmalarını veya yöneticilerin güvenliği ihlal edilmiş e-postalarını kablolama talimatları sağlamak için kullanmalarını söyleyen” derin sahteler oluşturduğunu belirtti. Elektronik dolandırıcılıkla ilgili 2022 Kongre raporu. FBI’ın İnternet Suç Şikayet Merkezi (IC3) tarafından yayınlanan İnternet Suçları Raporu 2022’ye göre, bu teknik dolandırıcıların 2022’de 2,7 milyar dolardan fazla iş e-postası ele geçirmesine yardımcı oldu.

Pindrop’un kurucu ortağı ve CEO’su Vijay Balasubramaniyan, verilerin, saldırganların daha iyi dolandırıcılıklar oluşturmak için üretken AI teknolojilerini giderek daha fazla kullandığının altını çiziyor ve AI tarafından oluşturulan görüntüleri ve sesleri algılayabilen savunmanın daha yaygın kullanımına olan ihtiyacı artırıyor. kimlik güvenliği firması.

“Şu anda, bu derin sahtekarlıkların çoğunu tespit edebiliyoruz – aslında, sadece derin sahtelikleri tespit etmekle kalmıyor, aynı zamanda derin sahtekarlıkları yaratan motoru da tespit edebiliyoruz… %99 doğrulukla” diyor. “Şu anda onları tespit etmekte çok ama çok iyiyiz, ancak bu alan çok sert ve çok hızlı değişiyor – bu, ayak uydurmak için sürekli çok çalışmanız gereken bir şey.”

Şimdiye kadar, mevcut savunmalar insanlardan daha iyi performans gösteriyor. DALL-e tarafından oluşturulan görüntünün tuhaf elleri ve yapay zeka sentezi tarafından oluşturulan garip ses tonlamaları gibi makine üretiminin açıklayıcı eserleri hızla ortadan kalkıyor ve bunlarla birlikte, insanın makine tarafından oluşturulan içeriği hızlı bir şekilde algılama yeteneği de ortadan kalkıyor. Massachusetts Institute of Technology ve Johns tarafından Ocak 2022’de yayınlanan araştırmaya göre, şu anda insanlar deepfake videoları zamanın yalnızca %57’sinde doğru bir şekilde tespit edebilirken, önde gelen bir makine öğrenimi tespit modeli %84 oranında deepfake’i doğru bir şekilde tespit edebiliyor. Hopkins Üniversitesi.

Dolandırıcılar için potansiyel milyon dolarlık ödeme günleri ile insanlar, AI özellikli dolandırıcılarla mücadele etmek için kendi AI asistanlarına güvenmek zorunda kalacaklar.

İlk Savunma: Canlılığı Algıla

Son teknoloji sadece yüz veya ses eşleştirme değil, canlı bir insanın mikrofonun veya kameranın diğer tarafında olup olmadığını tespit etmektir. Teknoloji, yalnızca verilerin yapay zeka üretiminin ürünü olduğunu gösterebilecek eserler için bir görüntü veya ses dosyasının analizini değil, aynı zamanda dosyanın meta verilerini ve ortamını da analiz etmeyi içerir.

Bir kimlik doğrulama firması olan Jumio’nun baş teknoloji sorumlusu Stuart Wells, kameranın boru hattına bir görüntünün enjekte edilip edilmediğini, arka plan gürültüsünün klip boyunca tutarlı olup olmadığını ve başka sahtecilik belirtileri olup olmadığını tespit etmenin size çok şey anlattığını söylüyor.

“Bu, katmanlı bir savunma” diyor. “Sahip olduğumuz ve peşinden koştuğumuz mimari temel olarak çok modlu biyometri, çok modlu canlılık tespiti ve ardından bir dizi sahtekarlığa karşı koruma teknikleri kullanıyor, çünkü sahtekarlığa karşı koruma tekniklerinizin ne kadar iyi olduğu önemli değil, dolandırıcılar bir boşluk buluyor. onlara.”

Canlılık sadece derin sahtekarlıklara karşı bir savunma değil, aynı zamanda bir sesin doğru zamanda kaydedildiği ve çalındığı, filmde ünlü bir şekilde kullanılan bir teknik olan tekrar saldırılarına karşı bir savunmadır. Spor ayakkabı – “Sesim benim pasaportum. Beni doğrula”yı hatırlıyor musun? – ama aynı zamanda bazen bugün dolandırıcılıkta da kullanılıyor. Çeşitli örnekler, farklı finansal kurumlardaki ses kontrolünü atlamak için yapay zeka tarafından üretilen sesleri kullanmıştır. Wall Street Gazetesi muhabir, Wells Fargo’dan geri ödeme almak için derin sahte ve üretken bir yapay zeka kullanarak finans şirketi Chase’in ses kimliğini Do Not Pay’in kurucusuna atlayarak.

Pindrop’tan Balasubramaniyan, yine de şirketlerin genellikle canlılığı tespit edecek teknolojiye sahip olmadığını söylüyor.

“Gazetecilerin kendi teknolojilerini kullandıkları tüm bu bankalara bakarsanız, kullandıkları teknolojilerde canlılık tespiti yok – bunun bir derin sahte olup olmadığını kontrol etmiyor” diyor. “Aslında, bu organizasyonları perde arkasında test ettik ve birçoğunun bir tekrar saldırısını bile engellemediğini gördük, bu nedenle sadece bir tekrar oluşturabilir ve sistemi rahatça yenebilirsiniz.”

Taktikler Evrimleşmeye Devam Edecek

Bununla birlikte, ön kayıt klipleri yerini ses dönüştürme saldırılarına bırakacak; burada üretken bir yapay zeka sistemi gerçek zamanlı olarak bir dolandırıcının sesini hedefin sesine çevirmek üzere eğitilir ve ayrıca Microsoft’un VALL-E’si gibi daha verimli saldırılar yapılır. bu, 3 saniyelik bir klipten güvenilir – ancak algılanamaz olmayan – bir ses derin sahtesi oluşturabilir.

Jumio’dan Wells, savunucular için bunun kalıcı bir çözüm olmayacağı, sadece siber güvenlik savunucuları için doğal hale gelen kedi-fare oyunu olacağı anlamına geldiğini söylüyor.

“Bu teknoloji gitgide daha iyi olacak” diyor. “Hem derin sahtekarlıkları tespit etme hem de derin sahtekarlıkları tespit etme açısından bu özel alanda bu alanda çalışan insanların sayısı, hem iyilik hem de kötülük için büyük bir yatırım alanı olmaya devam edecek.”

Pindrop’tan Balasubramaniyan, tespit edilemeyen derin sahtekarlıkların mümkün olacağını, ancak bunun yalnızca çok fazla kaynağa ve derin sahtekarlık oluşturmak için çok miktarda malzemeye sahip saldırganlar için mümkün olacağını savunuyor. Bu tür saldırıları tespit etmeye çalışmak yerine, savunucuların ölçeklenebilir derin sahtekarlıkları önlemeye odaklanarak daha iyi hizmet verdiklerini söylüyor.

“Çıtayı o kadar yüksek bir seviyeye yükselttiğiniz bir yol var ki, yalnızca inanılmaz bilgi işlem ve inanılmaz depolamaya ve herkese açık olmayan algoritmalara sahip biri, bilirsiniz, süper gizli bir deepfake yaratabilir” diyor. “Çıtayı bu kadar yükseltirseniz, bu büyük ölçekli bir saldırı değildir. … Ama yine de geniş ölçekte, bu saldırıları tespit edebileceğimizden oldukça eminim.”



Source link