Yapay zeka tabanlı derin sahte algılamanın sınırları


Bu Help Net Security röportajında ​​Reality Defender CEO’su Ben Colman, gerçek dünya uygulamalarında yüksek kaliteli deepfake’leri tespit etmenin zorluklarını tartışıyor. Filigranlamanın, yapay zeka tabanlı algılamanın etkililiğini ve sınırlamalarını ve medya orijinalliğini güvence altına almada yeni ortaya çıkan teknolojilerin potansiyelini ele alıyor.

Colman ayrıca hızla gelişen deepfake taktiklerine karşı halk eğitiminin, sektöre özel yapay zeka uygulamasının ve proaktif araştırma iş birliğinin önemini vurguluyor.

derin sahte algılama

Deepfake oluşturma teknolojilerinin gelişimi göz önüne alındığında, gerçek dünya uygulamalarında tespit yöntemlerinin mevcut sınırlamaları nelerdir? Özellikle yüksek kaliteli, GAN tabanlı deepfake’lerle karşılaşıldığında, filigran veya yapay zeka tabanlı algılama gibi geleneksel teknikler ne kadar etkilidir?

Hem filigran tabanlı (kaynak) tespiti hem de yapay zeka tabanlı (çıkarım) tespiti, her türlü kullanım durumunda deepfake’lerin kökünün kazınmasında son derece etkili olabilir ve öyledir. Ancak ilki, benzersiz uygulama sorunlarıyla karşı karşıyadır; yani platformlardan ve üretken araçlardan “satın alma”. Basitçe söylemek gerekirse, bir yapay zeka oluşturma modeli, etkinleştirmediği için kaynak filigranı ile imzalamıyorsa, bu durumda kaynak kullanımı sınırlayıcı olabilir. Ayrıca, herhangi birinin orijinalliği ne olursa olsun, filigranı kontrol eden platformlar tarafından kullanılan bir filigranla içeriği imzalayabilmesi durumunda, bunun söz konusu filigranın kontrolünü geçersiz kılacağı endişesi de mevcut.

Çıkarıma dayalı tespit açısından, temel gerçek hiçbir zaman bilinmez ve bu şekilde varsayılmaz; dolayısıyla tespit, söz konusu içeriğin manipüle edilip edilmeme ihtimalinin yüzde bir ila doksan dokuzuna dayanır. Çıkarım tabanlı platformun, platformlardan destek almasına gerek yoktur; bunun yerine, çeşitli kullanım durumları ve koşullarında (aynı zamanda dengeleyici olarak çeşitli eşleşen gerçek medyalar) çok çeşitli deepfaking teknikleri ve teknolojileri üzerine eğitilmiş sağlam modellere ihtiyacı vardır.

Çıkarım temelli bir çözüm üretenler, ortaya çıkan tehdit vektörlerinin ve çığır açan yeni modellerin bir adım önünde olmak için, bu tür araştırmaların ürün haline gelmesinden önce veya bu tür yöntemleri tespit modellerine uygulamak için yeni ortaya çıkan yapay zeka araştırmalarına bakabilirler. Ayrıca kaynak taktik kitabından bir sayfa çıkarmak, gelecekteki modellerin üreteceği veriler hakkında eğitim vermek amacıyla halka açık dağıtımdan önce modellere ve teknolojilere erişmek için üretken yapay zeka ve deepfaking platformlarıyla çalışmak da sağlamlığın ana hatlarını çizmenin anahtarıdır.

Medyanın kimliğini doğrulamak için blockchain, meta veriler ve dijital filigran kullanmanın potansiyel faydaları ve sınırlamaları nelerdir? Deepfake algılama doğruluğunu iyileştirme konusunda umut vaat eden yeni teknolojiler veya hibrit yaklaşımlar var mı?

Şiddet içeren görüntülerin veya genellikle bu tür içerikleri kataloglayan bilinen veritabanlarına karşı kontroller gerektiren CSAM’in tespitinden farklı olarak, deepfake’lerin bilinen veritabanları yoktur ve bu tür veritabanları oluşturmak, deepfake’lerin genişliği ve derinliğinin yanı sıra deepfake teknolojileri ve modelleri nedeniyle boşunadır. Bununla birlikte, tekli tespit yöntemleri, siber güvenlikteki “İsviçre peyniri” yaklaşımınız olan birleşik tespit yöntemlerinden daha kötü sonuç verir. Birlikte çalışan çıkarım tabanlı ve kaynak tabanlı algılama yöntemleri birbirini tamamlayabilir ve taranan her medya dosyası için kendi başına olduğundan daha fazla veri sağlayabilir.

Deepfake’ler halihazırda dezenformasyon, siber taciz ve diğer kötü amaçlı faaliyetler için kullanılıyor. Bireysel özgürlükleri ihlal etmeden bilgi bütünlüğünü korumak için derin sahtekarlıkları tespit etmeye yönelik yapay zeka araçları kamu ve devlet sektörlerinde nasıl uygulanabilir?

Yalnızca geçen yıl gördüğümüz gibi, özellikle finans ve kamu sektörlerinde iletişimin güvence altına alınması son derece önemlidir. En kritik giriş noktalarında, deneyimlerimize dayanarak, derin sahtekarlıkların (özellikle ses ve video) çağrı ortamlarında ve web konferansı platformlarında oluşturduğu finansal ve güvenlik riskleri nedeniyle bu kuruluşların birçoğunun zaten bir düzeyde derin sahte algılama uyguladığını söyleyebiliriz. .

Bu alanlarda etkili algılama sağlamak için, bu algılama modellerini eğitmek için kullanılan veri kümelerinin dengeli olması ve aksanlar, lehçeler, cilt tonları (Keşiş cilt tonu ölçeğinde), yüz asimetrisi dahil ancak bunlarla sınırlı olmamak üzere daha büyük bir popülasyonu temsil etmesi gerekir. ve bu veri kümelerinin insanları gerçekten temsil etmesine yardımcı olan faktörlerin kapsamlı bir listesi. Bu yalnızca tamamen sağlam bir sistem için geçerli değildir; diğer hatta deepfake olmayanların adaleti içindir; bir kümenin veya alt kümenin temsil edilmemesinden kaynaklanan yanlış pozitifleri ve negatifleri önler.

Deepfake tehditleriyle mücadelede halk eğitimi bir araç olarak ne kadar etkilidir? Kullanıcıların manipüle edilmiş medyayı tanımasına yardımcı olmak için hangi ek önlemler alınabilir?

Halkın büyük bir kısmı zaten yapay zekanın harikalarını biliyor ancak daha azı zararlarını biliyor. Kamuoyunun daha fazla bilinçlendirilmesi ve eğitimi her zaman büyük önem taşıyacaktır, özellikle de derin sahte olma veya yapay olarak manipüle edilme potansiyeli olan içeriğin tüketildiği yerlerde. Ancak deepfake’ler o kadar inandırıcı ve gerçekçi hale geliyor ki, deneyimli araştırmacılar bile artık sadece bir medya dosyasına bakarak veya dinleyerek gerçek ile sahte olanı ayırt etmekte zorlanıyor. Deepfake’ler bu şekilde gelişmiş hale geldi ve inandırıcılık ve gerçekçilik açısından büyümeye devam edecekler.

Bu nedenle, yukarıda bahsedilen içerik platformlarında veya deepfake’lerin var olabileceği her yerde deepfake tespit çözümlerinin uygulanması çok önemlidir. Kullanıcıların, örneğin ikna edici bir ses dosyasının gerçek olup olmadığını belirlemek için kendi duyularını kullanmaları gerekemez ve gerekmemelidir, özellikle de ses iki yıldan daha kısa bir sürede büyük bir hızla gerçekçilik açısından geliştiğinden. Yani evet, farkındalığı artırmak ve bunu temel siber güvenlik/anti-sosyal mühendislik eğitiminin bir parçası haline getirmek çok önemli, ancak her şeyin sonu değil.

Deepfake yaratıcılarının tespit yöntemlerine hızlı bir şekilde uyum sağladığı göz önüne alındığında, yeni deepfake taktiklerini önceden tespit etmeye ve hafifletmeye yardımcı olabilecek yapay zekadaki gelecekteki gelişmeleri nasıl öngörüyorsunuz?

Daha önce de belirtildiği gibi, araştırmanın nereye doğru gittiğine bakmak ve sektör genelindeki işbirlikleri, yeni tekniklerin ve modellerin hızlı bir şekilde tespit edilmesi açısından kesinlikle çok önemlidir. Kurumsal ve kamu alanlarındaki tehlikeli deepfake’lere karşı iletişimi güvence altına alma misyonumuzu paylaşan, sektördeki en tanınmış şirketlerden bazılarıyla açıkça bu amaçla ortaklık kurduğumuz için şanslıyız. Ortaklıklar ve işbirlikleri yoluyla bu yöntemlere halka açılmadan önce erişimin arttırılması, yeni tehditlerin ve kötü aktörlerin ortaya çıkmasını engelledi ve durduracaktır.



Source link