Klonların Saldırısı: Federaller Ses Sahtekarlığı Savunması Arıyor


Yapay Zeka Ses Klonlaması Durdurulamazsa Bu Politika Yapıcılar İçin Tehlike İşareti Olacaktır

Mathew J. Schwartz (euroinfosec) •
5 Ocak 2024

Klonların Saldırısı: Federaller Ses Sahtekarlığı Savunması Arıyor
Resim: Shutterstock

Yapay zeka araçları kullanılarak oluşturulan ses klonlamasını kolay ve güvenilir bir şekilde tespit edebilecek savunmalar oluşturmak için gerekenlere sahip misiniz? Eğer öyleyse, ABD Federal Ticaret Komisyonu sizden haber almak istiyor.

Ayrıca bakınız: Savaş Sisi | Ukrayna Çatışması Siber Tehdit Ortamını Nasıl Dönüştürdü?

Ajans, geçen Kasım ayında, tüketicileri dolandırıcılık ve biyometrik verilerin daha geniş çapta kötüye kullanılması gibi yapay zeka destekli ses klonlamanın zararlarından korumayı amaçlayan çok disiplinli yaklaşımların (ürünlerden politika ve prosedürlere kadar) geliştirilmesini teşvik etmek amacıyla tasarlanan bir Ses Klonlama Mücadelesi duyurdu. yaratıcı içerik.”

Yarışma, üç temel şartı karşılaması koşuluyla en üstteki katılımcıya 25.000 ABD Doları, ikinci olana 4.000 ABD Doları ve en fazla üç mansiyon ödülünün her birine 2.000 ABD Doları ödül vaat ediyor.

FTC, yapay zeka araçlarının kulağa daha fazla inandırıcı gelen sahte sesler üretme yeteneği geliştikçe, Ses Klonlama Yarışmasının “kötü niyetli ses klonlamayı önleme, izleme ve değerlendirme konusunda çığır açan fikirleri teşvik edeceğini” umduğunu söyledi.

Yarışma 12 Ocak’a kadar yeni katılımlara açık. Katılımcıların bir sayfalık bir özet ve 10 sayfalık ayrıntılı bir açıklama sunmaları gerekiyor. Ayrıca, başvurularının nasıl çalışacağını gösteren bir video da gönderme seçeneğine sahipler.

Şartlar ve koşullar geçerlidir. Nakit ödülleri yalnızca bireyler veya 10’dan az kişiden oluşan küçük gruplar kazanabilir, ancak büyük bir kuruluş herhangi bir ücret ödemeden takdir ödülünü kazanabilir.

FTC, tüm girişlerin belirtilen soruların yanıtlanmasına bağlı olarak aşağıdaki üç kritere göre değerlendirileceğini söyledi:

  • Pratiklik: “Fikir pratikte ne kadar işe yarayabilir ve yönetilebilir ve gerçekleştirilmesi mümkün olabilir?”
  • Denge: “Üst aktörler tarafından uygulanırsa, bu fikir şirketlere yükümlülük ve sorumluluk yüklerken tüketicilerin üzerindeki yükü nasıl en aza indirir?”
  • Dayanıklılık: “Fikir hızlı teknolojik değişime ve gelişen iş uygulamalarına nasıl dayanıklıdır?”

FTC, yalnızca bireylerin uygulaması kolay olan tüketici düzeyinde savunmalar istemiyor. İdeal olarak, mağdurlara şantaj yapmaya çalışan dolandırıcılar gibi şeylerle mücadele etmek ve aynı zamanda bu tür saldırılar tüketicilere ulaşmadan önce aktörlerin kendi seslerinin yasa dışı kullanımıyla mücadele etmek için “yukarı yönde” çalışan savunmalar görmek istiyor. Bu savunmaların kullanıcıların gizliliğini koruyabilmesini sağlamak başka bir amaçtır.

Bu zorlu bir görev gibi görünse de, bu zorluk aynı zamanda yapay zeka ses klonlamasına karşı etkili savunmaların var olup olmadığını test etmek için de tasarlandı.

FTC, “Uygulanabilir fikirler ortaya çıkmazsa, bu, politika yapıcılara, pazardaki uygulamaların zararlı gelişimini önleme zorluğu göz önüne alındığında, bu teknolojinin kullanımına ilişkin daha sıkı sınırlamalar getirmeleri gerektiği konusunda kritik ve erken bir uyarı gönderecektir” dedi.

Dolandırıcılar Güvenlik Savunmalarına meydan okuyor

Kurumun karşılaştığı zorluk, dolandırıcıların en yeni araç ve teknolojileri nasıl kendi avantajlarına çevirmeye devam ettiğini ortaya koyuyor.

Suçlular tarafından giderek daha fazla benimsenen taktiklerden biri, Utah’ta Çinli bir gencin dahil olduğu yakın tarihli bir vakada görüldüğü gibi, bir kişiyi kaçırmış gibi davrandıkları sanal adam kaçırma veya “siber adam kaçırma”yı içeriyor. Uzmanlar, bazı durumlarda suçluların, sözde kaçırılan kişinin gerçek ses kaydını delil olarak kullandıklarını ve bazen de kişinin SIM kartını ele geçirerek, hemen ödeme yapması için baskı yapılan aile veya iş arkadaşlarının kendisine ulaşamamasını sağladıklarını söylüyor. – ya da başka (bkz: Sanal Kaçıranlarla Mücadelede En İyi Siber Gasp Savunmaları).

Yalnızca ikna edici ses üreten değil, aynı zamanda buna uygun, ikna edici görünen deepfake video da üreten yapay zeka araçları, büyüyen bir başka endişe kaynağıdır. Geçtiğimiz hafta Singapur Başbakanı Lee Hsien Loong, dolandırıcıların kripto para dolandırıcılığı yapmak için kendisine benzeyen deepfake videolar kullandığı konusunda uyardı ve Singapurluları kripto hediyeleri veya garantili kripto “yatırım getirisi” iddiaları konusunda uyardı.

Uzmanlar, suçluların halihazırda finansal hizmet firmalarının “müşterinizi tanıyın” kimlik doğrulama uygulamalarını atlatmak için deepfake videolar kullandığını ve sorunun daha da kötüleşeceği konusunda uyarıyor.

“Yapay zeka, birisinin (çoğunlukla bir ihlalde bulunan) benzerliğini ve kimlik işaretlerini taklit etmeyi daha kolay ve ucuz hale getirdiğinden, saldırganların hesapları ele geçirmesi ve parayı, verileri çalması, markaları etkilemesi ve daha fazlasını yapması daha kolay hale gelecektir.” söz konusu SocialProof Security’nin CEO’su Rachel Tobac, eski adıyla Twitter olarak bilinen X’e gönderdiği bir gönderide.





Source link