YORUM
Bir sesi kopyalamak için yalnızca üç saniyelik ses yeterlidir. Vuruş veya ses sahtekarlığı, hızla çoğumuzun çok iyi bildiği bir sorun haline geldi ve nüfusun %15’ini etkiledi. Kurbanların dörtte üçünden fazlası para kaybetmekABD’ye göre bu, kişi bazında en kazançlı sahtekarlık dolandırıcılığı türü haline geliyor Federal Ticaret Komisyonu (FTC).
Arayan kimliği sahtekarlığı yapay zeka tabanlı deepfake teknolojisiyle birleştirildiğinde, dolandırıcılar çok küçük bir maliyetle ve çok büyük ölçekte gerçek numaralarını ve konumlarını gizleyebilir ve banka veya yerel belediye gibi güvenilir kuruluşları, hatta arkadaşlarını ve ailelerini son derece ikna edici bir şekilde taklit edebilirler. .
Yapay zeka (AI) her türlü yeni tehdidi sunarken, arayan kimliklerini tahrif etme yeteneği hâlâ karmaşık dolandırıcılık için birincil giriş noktasıdır. Bu aynı zamanda gerçek aramaların kimliğinin doğrulanması konusunda da ciddi zorluklar yarattı. Gelin suç dünyasına dalalım arayan kimliği sahtekarlığı.
Ses Dolandırıcılığındaki Artışın Arkasında Ne Var?
Kimlik sahtekarlığı uygulamaları gibi sahtekarlık teknolojisinin demokratikleşmesi, kötü niyetli aktörlerin meşru arayan kimliklerini taklit etmesini kolaylaştırdı ve bu da sesli aramalar yoluyla gerçekleştirilen dolandırıcılık faaliyetlerinde artışa yol açtı. Bir gazeteciMantıklı ve titiz doğasıyla tanındığını söyleyen , ailesinin güvenliğine yönelik korkusunu ve endişesini istismar eden karmaşık bir dolandırıcılığın kurbanı oldu. Başlangıçta Amazon’dan geliyormuş gibi görünen sahte bir çağrı yoluyla temasa geçildi ve kendisine kimlik hırsızlığı, kara para aklama ve güvenliğine yönelik tehditleri içeren uydurma bir hikayeyi ikna edici bir şekilde sunan FTC araştırmacısı gibi davranan birine transfer edildi.
Bu hikayeler giderek yaygınlaşıyor. Bireyler, gizli, uluslararası veya bilinmeyen bir numaraya şüpheyle yaklaşmaya hazırdır, ancak meşru bir şirketin adının telefonlarında göründüğünü görürlerse, çağrıyı uzlaşmacı bir şekilde yanıtlama olasılıkları daha yüksektir.
Sahteciliğin yanı sıra yapay zeka tarafından oluşturulan derin ses sahtekarlıklarında da bir artış görüyoruz. Geçen yıl Kanada’da suçlular dolandırıldı Başı belada olan sevdiklerinin sesini taklit etmek için yapay zekayı kullanarak yaşlı vatandaşlara 200.000 dolardan fazla para kazandırıyor. ABD’nin Arizona eyaletindeki bir anne de 15 yaşındaki kızından umutsuz bir telefon aldı kaçırıldığını iddia ediyor; çağrının yapay zeka tarafından oluşturulduğu ortaya çıktı. Arayan kimliği sahtekarlığıyla birleştirildiğinde, bu deepfake’leri ortalama bir kişinin yakalaması neredeyse imkansız olacaktır.
Gibi üretken yapay zeka ve yapay zeka tabanlı araçlar Daha erişilebilir hale geldikçe bu tür dolandırıcılık daha yaygın hale geliyor. McAfee’ye göre siber suçluların bir sesi kopyalamak için doğrudan temas kurması gerekmiyor çünkü insanların yarısından fazlası haftada en az bir kez sosyal medyada sesini bir şekilde isteyerek paylaşıyor. Son zamanlarda yüksek profilli deepfake’lerin de vurguladığı gibi, uygulamalar kısa bir ses klibine dayalı olarak sesi kopyalamak gibi zorlu bir işi yaptığından olağanüstü dijital becerilere de ihtiyaç duymazlar. ABD Başkanı Joe Biden ve şarkıcı Taylor Swift.
Yalnızca bireyler değil, tüm kuruluşlar ses dolandırıcılığının kurbanı olabilir. Tek gereken, bir çalışanı, işleri hakkında görünüşte önemsiz bazı ayrıntıları telefonda paylaşmaya ikna etmek için bir tehdit aktörüdür; bu, daha sonra noktaları birleştirmek ve bir siber suçlunun hassas verilere erişmesini sağlamak için kullanılır. Bankacılık, sağlık hizmetleri ve devlet hizmetleri gibi sesli iletişimin müşteri etkileşiminin önemli bir bileşeni olduğu sektörlerde bu özellikle endişe verici bir eğilim. Birçok işletme, kimlikleri doğrulamak ve işlemleri yetkilendirmek için sesli çağrılara güveniyor. Bu nedenle, yapay zeka tarafından oluşturulan ses sahtekarlığına karşı özellikle savunmasızdırlar.
Bu Konuda Ne Yapabiliriz?
Düzenleyiciler, endüstri kuruluşları ve işletmeler, ses dolandırıcılığına karşı toplu eylem ihtiyacını giderek daha fazla kabul ediyor. Bu, bölgeler ve sektörler arasındaki dolandırıcılık modellerini daha iyi anlamaya yönelik istihbaratı, sesli çağrı güvenliğini artırmak için sektör çapında standartların geliştirilmesini ve ağ operatörleri için raporlamayı düzenleyen daha sıkı düzenlemeleri içerebilir.
Dünyanın dört bir yanındaki düzenleyiciler artık yapay zeka tabanlı ses dolandırıcılığıyla ilgili kuralları sıkılaştırıyor. Örneğin, ABD Federal İletişim Komisyonu (FCC), otomatik çağrıların kullanılmasını yasa dışı hale getirdi. AI tarafından oluşturulan veya önceden kaydedilmiş sesler. Finlandiya’da hükümet, arayan kimliği sahteciliğine ve dolandırıcılık çağrılarının alıcılara aktarılmasına karşı korunmak için telekomünikasyon operatörlerine yeni yükümlülükler getirdi. AB, öncelikle müşterilerini güvende tutmak isteyen bankalar ve diğer finansal kuruluşlar tarafından uygulanan benzer tedbirleri araştırıyor. Her durumda, genellikle daha karmaşık, yapay zeka tabanlı taktikler için giriş noktası görevi gören arayan kimliği sahtekarlığı ve smishing (sahte metin mesajları) olaylarına kapıyı kapatma çabaları sürüyor.
Geliştirilmekte olan birçok umut verici tespit aracı, teorik olarak ses sahtekarlığını büyük ölçüde azaltabilir. Bunlar arasında ses biyometrisi, deepfake dedektörleri, AI anormallik tespit analizi, blockchain, sinyalizasyon güvenlik duvarları vb. yer alır. Ancak siber suçlular teknolojik sıçramaları geride bırakma ve onları geride bırakma konusunda ustadır; bu nedenle neyin en iyi şekilde işe yarayacağını yalnızca zaman gösterecek.
Her ölçekteki ve sektördeki işletmeler için siber güvenlik yetenekleri, telekom hizmetleri açısından giderek daha önemli hale gelecektir. İşletmeler, iletişim ağı düzeyinin yanı sıra, çeşitli doğrulama yöntemlerini kullanan çok faktörlü kimlik doğrulama gibi net politikalar ve süreçler oluşturmalıdır.
Şirketler aynı zamanda en yaygın dolandırıcılık taktikleri konusunda da farkındalık yaratmalıdır. Çalışanlara yönelik düzenli eğitimler, dolandırıcılıkların farkına varılması ve bunlara yanıt verilmesine odaklanmalıdır; müşteriler ise bu tür dolandırıcılıkları yapmaları konusunda teşvik edilmelidir. şüpheli aramaları bildir.
Tüketici düzeyinde, Birleşik Krallık’ın iletişim düzenleyicisi, Ofcom2022 yılındaki üç aylık dönemde 41 milyondan fazla kişinin şüpheli çağrı veya mesajlarla hedef alındığını ortaya çıkardı. Başka bir deyişle, markalar ve hükümetler meşru işletmelerin 2020 yılı boyunca asla para veya hassas bilgi istemeyeceği mesajını yinelese de telefon, sürekli dikkat gereklidir.
Klonlama araçlarının kolay ulaşılabilir olması ve giderek artan suç seviyeleri, Electronic Frontier Foundation gibi uzmanların insanların ortak bir ortak karara varmaları gerektiğini öne sürmesine neden oldu. aile şifresi AI tabanlı dolandırıcılık girişimleriyle mücadele etmek için. Bu, yüksek teknoloji sorununa şaşırtıcı derecede düşük fi’li bir çözüm.