Florida’daki bir kadın, kızının sesi Ai ile klonlandıktan ve bir aldatmacada kullanıldıktan sonra bir dolandırıcıya binlerce dolar vermek için kandırıldı.
Sharon Brightwell, tıpkı kızı gibi ses çıkaran birinden çağrı aldığını söylüyor. Diğer ucundaki kadın ağlıyor ve ağlıyordu, annesine hamile bir kadının ciddi şekilde yaralandığı bir trafik kazasına neden olduğunu söyledi. Mesaj attığını ve araba kullandığını ve telefonunun şimdi polis tarafından alındığını söyledi.
“Beni onun olmadığına ikna edebilecek kimse yok. Kızımın ağlamasını biliyorum.”
Daha sonra kızının avukatı olduğunu iddia eden bir adam telefonu devraldı. Sharon’a yetkililerin kızını gözaltına aldığını ve kefalet için 15.000 dolar nakit sağlaması gerektiğini söyledi. O zamandan beri bankaya büyük çekilmenin ne için olduğunu söylememek de dahil olmak üzere ne yapacağına dair çok özel talimatlar verdi, kızının kredi notunu etkileyebileceğini söyledi.
Sharon parayı geri çekti, bir kutuya yerleştirdi ve bir sürücü aldı. Ama bu son değildi. Yeni bir çağrı izledi ve hamile kadının doğmamış çocuğunun kazada öldüğünü, ancak ailenin 30.000 dolar ödemesi halinde Sharon’un kızına dava açmamayı kabul ettiğini bildirdi.
Neyse ki Sharon için torunu her şeye güvenmedi ve kızının numarasını aramaya karar verdi. Bu çağrı, devam eden herhangi bir şeyden habersiz olan işte olan kızı tarafından cevaplandı.
O zamana kadar 15.000 dolar için çok geç kaldı.
“Kocam ve ben son zamanlarda emekliyiz. Bu para bizim tasarrufumuzdu.”
Ne yazık ki, bu ve benzer hikayelerin çoğunu duyuyoruz. Peki, neler oluyor ve kendimizi nasıl koruyabiliriz?
AI ile klonlama sesleri yıllar içinde önemli ölçüde iyileşti ve siber suçlular da dahil olmak üzere herkes için kolayca kullanılabilir hale geldi. Seslerimizin çoğu, sosyal medyaya gönderilen video veya ses aracılığıyla çevrimiçi. Sharon’un durumunda, dolandırıcıların kızının sesinin kopyasını oluşturmak için Facebook veya diğer sosyal medyadan videolar kullandıklarına inanıyorlar.
AI ile çalışan telefon dolandırıcılığı kısa, senaryolu robocall’lardan tam konuşmalara kadar değişebilir. Son çalışmalar, AI tarafından üretilen ses klonlarını tespit etmek için insan algısına dayanmanın artık sürekli olarak güvenilir olmadığını göstermiştir. Sesin ne zaman stresli ve üzüldüğünü belirlemenin daha da zor olduğunu ve çocuğunuz olduğuna inanıyorsunuz.
AI tarafından oluşturulan sesli dolandırıcılıklardan nasıl korunur
- Bilinmeyen arayanlardan gelen çağrılara cevap vermeyin ve sesinizin özelliklerinin bulunduğu çevrimiçi ses ve video yayınladığınız konusunda dikkatli olun. İkna edici bir klon oluşturmak için sadece birkaç saniyelik bir kayıt alır.
- Sadece siz ve sevdiklerinizin bildiği bir aile şifresi üzerinde anlaşın. Hiçbir zaman bu çevrimiçi olarak yayınlamayın veya mesaj göndermeyin, bizzat karar verin ve buna bağlı kalmayın.
- Şifreyi unuttuysanız, sosyal medyada yer almayan uzun zaman önce bir hafıza sorun. Konuştuğunuz kesinlikle sevdikleriniz olduğundan emin olun.
- Yalnızca böyle durumlarla başa çıkmaya çalışmayın. Bir arkadaş, aile üyesi, dost komşusu veya size hassas bir şekilde görüşlerini verebilen veya aldatmaca için düştüyseniz sizi destekleyebilen herkes bulun. Bazen Sharon’un torunu gibi ikinci bir görüşe sahip olmak, herhangi bir parayı teslim etmeden önce iki kez düşünmenize yardımcı olabilir.
Ve duruma güvenmediğinize karar verirseniz:
- Akraba için sahip olduğunuz numarayı arayın veya bunlarla iletişim kurmak için diğer kanalları kullanın.
- İster aldatmaca için olsun ya da olmasanız da, olayı yerel yetkililere, FTC’ye veya ilgili tüketici koruma organlarına bildirin. Her rapor gelecekteki dolandırıcılığı izlemeye ve önlemeye yardımcı olur ve bu suçlulardan birini yakalamaya bile yardımcı olabilirsiniz.
Sadece telefon güvenliği hakkında rapor vermiyoruz – bunu sağlıyoruz
Siber güvenlik riskleri asla bir başlığın ötesine yayılmamalıdır. İOS için MalwareBebytes ve bugün Android için Malwarebytes’i indirerek tehditleri mobil cihazlarınızdan uzak tutun.