AI Voice Kaçırma: Kulaklarınıza ne kadar iyi güvenebilirsiniz?


AI klonlu bir sesi tanıyabileceğinizden ne eminsiniz? Tamamen emin olduğunuzu düşünüyorsanız, yanlış olabilirsiniz.

AI ses kaçırma

Neden büyüyen bir tehdit

Sadece üç saniye sesle, suçlular artık bir kişinin sesini klonlayabilir, bu da çevrimiçi veya sosyal medyada paylaşılan videolardan kolayca elde edilebilir.

Amerikalı bir anne neredeyse, klonlanmış bir sesin kızının yardım için çığlıklarını taklit ettiği sanal bir kaçırma aldatmacasına kurban düştü. Bu dava, suçluların başvurmaya istekli oldukları acımasızlık seviyesini göstermektedir.

AI ses kaçırma dolandırıcılığı, aile üyelerini veya güvenilir rakamları taklit ederek genellikle yaşlı bireyleri hedeflemiştir. Ama şimdi, bu dolandırıcılıklar da işletmeler için bir tehdit haline geliyor.

Visa’nın SVP’si Mike Lemberger, Kuzey Amerika’nın baş SVP’si Mike Lemberger, “AI destekli sesli dolandırıcılık, zayıf güvenlik protokolleri, kimlik doğrulama yöntemlerinin eksikliği ve yetersiz çalışan eğitimi gibi iş güvenlik açıklarını avlıyor” dedi.

AI ses kaçırmanın finansal etkisi

Şirket finansmanına erişimi olan bir çalışan, CEO’dan geldiğine inandıkları bir çağrı alırlarsa kurban olabilir, özellikle de bu tür dolandırıcılıklar aciliyet duygusu ve hızlı hareket etme ihtiyacı yaratmaya dayanır.

Başarılı olursa, saldırı önemli finansal kayıplara ve müşterilerden, yatırımcılardan ve iş ortaklarından uzun vadede zarar verebilecek güven kaybına neden olabilir. Deloitte’nin Finansal Hizmetler Merkezi, 2027 yılına kadar Genai’nin sahtekarlık kayıplarının ABD’de 40 milyar dolara ulaşmasını sağlayabileceğini öngörüyor.

İtalyan polisi son zamanlarda AI tarafından üretilen sesli deepfes kullanan bir aldatmaca ile bağlantılı yaklaşık 1 milyon € dondu. Dolandırıcılar İtalyan Savunma Bakanı olarak poz verdiler ve ülkenin en iyi tycoons’ından kaçırılan gazetecileri serbest bırakması için para istedi.

AI gelişmeleri ses biyometrilerini aşıyor

Her ne kadar uygun olmasına rağmen, şirketlerin ve endüstrilerin kullanıcıları doğrulamaları için bir yöntem olarak sesli biyometri, özellikle finans sektöründe AI ilerlemeleriyle yetersiz kalıyor. Bu endüstriler, özellikle çağrı merkezlerinde müşterileri doğrulamak için bu teknolojiye güvenirken, onları daha savunmasız hale getirir.

Önde kalmak için işletmeler, ses kimlik doğrulamasının yanı sıra MFA ve AI odaklı sahtekarlık tespitini entegre etmelidir. Bu ek katmanlar olmadan, tek başına ses biyometri Genai’nin yükselişine karşı durmayacak.

“AI’nın insanları taklit etme yeteneği sayesinde her zamankinden daha ikna edici ve daha tehlikeli olan kimlik avı e-postaları göreceğiz. Bunu, derin bir desenli ses ve video oluşturabilen çok modlu AI modelleriyle birleştirirseniz, başka bir insanla her sanal etkileşim için iki aşamalı doğrulamaya ihtiyaç duymamız imkansız değil” dedi Pukar Hamal, Ceo.

AI ses kaçırmaya karşı nasıl korunur

Ses kimlik doğrulamasını yükseltin: Temel ses sistemleri AI tarafından kandırılabilir, çünkü genellikle tek bir ses özelliğine güvenirler. Ton ve ritim gibi bir kişinin sesinin birçok yönünü kontrol eden teknolojiyi kullanın. Bu sistemleri kandırmak daha zordur.

Davranışsal biyometri ekleyin: Ses tanımayı duraklamalar, ton kaymaları ve stres gibi konuşma modellerine bakan davranışsal analizle birleştirin. Bu ince ipuçları AI’nın taklit etmesi zordur, bu da sahte veya manipüle edilmiş sesleri tanımlamayı kolaylaştırır.

Çalışanları eğitmek: AI güdümlü sosyal mühendislik taktiklerini tanımak için personelinizi, özellikle yöneticiler gibi kilit karar vericilerinizi eğitin. Dolandırıcıların sesleri çoğaltmak ve onları harekete geçirmek için manipüle etmek için AI kullanabileceklerini anladıklarından emin olun. Onları, özellikle para veya hassas bilgiler içeren olağandışı talepleri sorgulamaya teşvik edin.

Çevrimiçi paylaşılan kişisel bilgileri sınırlayın: Mümkünse, ses kayıtları da dahil olmak üzere çevrimiçi olarak paylaşılan kişisel bilgi miktarını sınırlayın. Suçlular bu kaynakları sesleri klonlamak ve hedeflenen dolandırıcılık yapmak için kullanabilirler.



Source link