Kolay Ses Klonlamayla Seçmenleri Yönlendirmek


Yapay Zeka ve Makine Öğrenimi, Yeni Nesil Teknolojiler ve Güvenli Geliştirme

6 Popüler Yapay Zeka Aracı, Kötüye Kullanımı Önlemeye Yetersiz Korkuluklar İçeriyor: Çalışma

Rashmi Ramesh (raşmiramesh_) •
3 Haziran 2024

Seçimlerde Yapay Zeka: Kolay Ses Klonlamayla Seçmenleri Yönlendirmek
Dijital Nefretle Mücadele Merkezi, bir siyasi lideri taklit eden derin sahte bir ses klibi oluşturmanın şaşırtıcı derecede kolay olduğunu buldu. (Resim: Shutterstock)

Donald Trump ve Joe Biden gibi politikacıların seslerinin yaklaşık %80 oranında doğru bir şekilde taklit edilebileceğini söyleyen Dijital Nefretle Mücadele Merkezi araştırmasına göre, herkes ikna edici derin sahte ses oluşturmak için kolayca erişilebilen yapay zeka araçlarını kullanabilir.

Ayrıca bakınız: Uygulamalarınızı Güvenceye Alın: Yapay Zeka Tarafından Oluşturulan Kod Riskini Nasıl Önleyeceğinizi Öğrenin

Raporda, kuruluşun ElevenLabs, Speechify, PlayHT, Descript, Invideo AI ve Veed’in yapay zeka araçlarını nasıl 240 kez test ettiği ve bunları İngiltere Başbakanı Rishi Sunak ve Fransa Cumhurbaşkanı Emmanuel Macron’un da aralarında bulunduğu siyasi liderlerin asla söylemediği şeyleri seslendirmek için nasıl kullandığı ayrıntılarıyla anlatılıyor. aslında dedi. Trump, bomba tehdidi nedeniyle insanları oy vermemeleri konusunda sahte bir şekilde uyardı, Biden seçim sonuçlarını manipüle ettiğini sahte bir şekilde itiraf etti ve Macron, kampanya fonlarını kötüye kullandığını sahte bir şekilde itiraf etti.

Kuruluşun CEO’su Imran Ahmed, “ikna edici” sonuçların “seçimleri sarsabileceğini” söyledi. Alan Turing Enstitüsü tarafından yapılan son analiz, kutuplaşma ve çevrimiçi kaynaklara olan güvenin zedelenmesi gibi ikinci dereceden riskler yaratmasına rağmen yapay zekanın şu ana kadar seçim sonuçları üzerinde sınırlı bir etkiye sahip olduğu sonucuna varmıştır (bkz.: Birleşik Krallık Hükümetine Seçim Yapay Zekasına Yönelik Kılavuz Yayınlaması Çağrısı).

Yapay zeka araçları, ses klipleri oluşturmak için en az bir ses örneğine ihtiyaç duyar. Bazı araç üreticileri, örneklerin halka açık kaynaklardan alınması yerine orijinal olmasını talep ediyor, ancak araştırmacılar bu kısıtlamayı aşmak için jailbreak tekniklerini kullandı.

Kötü aktörler, bu yıl seçmenleri etkilemek için birçok kez ses klonlama ve derin ses sahtekarlığı kullandı.

Şubat ayında bazı New Hampshire Demokrat ön seçmenleri, görünüşte seçmen katılımını azaltmak amacıyla sahte Biden sesi kullanan otomatik çağrılar duydu. Planın beyni, uzun süredir demokratik siyasi ajan olan Steve Kramer, seçmenleri baskı altına almak ve bir adayı taklit etmek gibi kabahatler nedeniyle eyalette 13 cezai suçlamayla karşı karşıya. Federal İletişim Komisyonu Kramer’e 6 milyon dolar para cezası verilmesini önerdi. Kramer iddianamesi, FCC’nin otomatik aramalarda yapay zeka tarafından üretilen seslerin kullanımına yönelik yasağının ardından geldi.

Cumhuriyetçi Ulusal Komite geçen yıl, Biden’ın iktidarda kalması durumunda distopik bir geleceği gösteren yapay zeka tarafından oluşturulmuş bir reklam yayınladı ve başka bir deepfake örneğinde Bollywood oyuncularının Hindistan başbakanını eleştirdiği iddia edildi. Benzer eğilimler Birleşik Krallık, Slovakya ve Nijerya gibi seçimlerle karşı karşıya olan diğer bölgelerde de ortaya çıktı.

Dijital Nefretle Mücadele Merkezi’nin çalışmasının bir parçası olarak test ettiği araçların çok azında, herhangi birinin rahatsız edici derin sahtekarlıklar oluşturmasını önleyecek yerleşik güvenlik önlemleri bulunuyordu. Yalnızca ElevenLabs, kullanıcının ABD ve İngiltere bakanlarının seslerini değiştirmesini engelledi.

Raporda, “Yapay zeka şirketleri, eğer isterlerse, bunu hızlı bir şekilde düzeltebilir” diyor.

yazar hakkında

Rashmi Ramesh

Ramesh’in finans, işletme ve tüketici teknolojisi ile çeşitlilik ve katılım konularında hikaye yazma ve düzenleme konusunda yedi yıllık deneyimi var. Daha önce News Corp’un sahibi olduğu TechCircle, günlük ekonomi gazetesi The Economic Times ve The New Indian Express’te çalışmıştı.






Source link