AI tabanlı saldırılar, sahtekarlık yönetimi ve siber suç
Kötüye kullanım sahtekarlığa, kimliğe bürünme dolandırıcılığına yol açabilir
Rashmi Ramesh (Rashmiramesh_) •
11 Mart 2025

Yeni bir sese mi ihtiyacınız var? Yapay zeka sizi ele geçirdi. Kendinizi korumanız mı gerekiyor? Bu başka bir hikaye. En çok kullanılan AI ses sentez araçlarından bazıları, kötüye kullanıma karşı yalnızca yüzeysel önlemler sunar – eğer varsa, araştırmacılar yakın tarihli bir analizde bulunur.
Ayrıca bakınız: Fidye Yazılımı ve Gasp Saldırılarını Azaltma Uzman Kılavuzu
Popüler AI destekli sesli klonlama araçları, kötüye kullanımı önlemek için yeterli önlemlerden yoksun, bir tüketici raporları çalışması, sahtekarlık ve kimliğe bürünme dolandırıcılığı potansiyeli konusunda endişeleri artırdı. Çalışma, altı şirketten ses klonlama ürünlerini değerlendirdi: tanım, elevenLabs, Lovo, PlayHt, AI’ya benziyor ve konuşuyor ve altı sağlayıcıdan dördünün istismara karşı minimum anlamlı güvenlik önlemleri sunmadığını veya hiç anlamlı güvenlik önlemi sunmadığını buldu.
ElevenLabs, Searchify, PlayHt ve Lovo, bir sesi klonlamak için yasal haklara sahip olduklarını doğrulayan bir kutuyu kontrol etmek gibi sadece temel kullanıcı kendi kendine uyumu gerektirir. Buna karşılık AI, yanlış kullanımı caydırmak için daha sağlam mekanizmalar uyguladı.
Bu şirketlerin bazıları yalnızca bir e -posta adresi ve hesap oluşturma adını gerektirir, bu da kötü amaçlı aktörlerin yazılıma erişmesini kolaylaştırır. Titiz kimlik doğrulaması veya açık rıza mekanizmaları olmadan, kötü aktörler bu araçları finansal sahtekarlık ve kimliğe bürünme de dahil olmak üzere aldatıcı uygulamalar için kullanabilirler.
AI güdümlü ses klonlaması, gerçek insanların son derece gerçekçi taklitlerinin üretilmesinin kolay olduğu noktaya kadar ilerlemiştir. Bu teknoloji, metin anlatımı, konuşma bozuklukları olan bireylere yardımcı olmak ve müşteri desteğini otomatikleştirmek gibi meşru uygulamalara sahiptir; Ayrıca ciddi riskler de sunar (bkz:: Banka hesapları için klonlanmış ses teknolojisi geliyor).
Tüketici raporları politika analisti Grace Gedye, korumaların bulunmamasının kimliğe bürünme dolandırıcılıklarını “süper şarj edebileceğini” söyledi. “Değerlendirmemiz, şirketlerin bilgisi olmadan birinin sesini klonlamayı zorlaştırmak için atabileceği temel adımlar olduğunu gösteriyor – ancak bazı şirketler onları almıyor” dedi.
Federal Ticaret Komisyonu, 2023’te 850.000’den fazla sahtekâr dolandırıcılık bildirdi ve bu da 2,7 milyar dolar kayıpla sonuçlandı. Bunların kaç tanesinin AI ses klonlamasını içermese de, hileli ses derinliklerinin yüksek profilli vakaları zaten ortaya çıkmıştır (bkz:: Klonların Saldırısı: Fedler seslendirme savunmaları arıyor).
Bazı şirketler yazılımlarını aldatıcı amaçlar için açıkça pazarlamaktadır. Tüketici raporları, PlayHT’nin AI ses araçları için meşru bir kullanım durumu olarak “şakaları” teşvik ettiğini buldu. Konuşma benzer şekilde bir uygulama olarak şaka telefon görüşmelerini önerir.
Bazı büyük AI firmaları daha temkinli bir yaklaşım benimser. Microsoft, kimliğe bürünme riskleri ile ilgili endişeler nedeniyle Vall-E 2 ses sentez projesini kamuya açıklamamayı seçti. Openai, benzer tehditlere atıfta bulunarak sesli motoruna erişimi kısıtladı.
FTC, geçen yıl devlet kuruluşlarının ve işletmelerinin yapay zeka tarafından oluşturulan taklit edilmesini yasaklayan bir kuralı sonuçlandırdı, ancak bireysel kimliğe bürünme konusunda daha geniş bir yasak hala teklif aşamasındaydı. Gede, federal tüketici koruma ajanslarını zayıflatmak için devam eden çabalar göz önüne alındığında, devlet düzeyindeki düzenleyici eylemin federal müdahaleden daha olası olabileceğini öne sürdü.