Hemen hızlı saldırı, AI tarayıcılarını sahte captchas ile kandırır ve onları kimlik avı sitelerine ve sahte mağazalara götürür.
Guardio Labs’taki siber güvenlik uzmanları, kullanıcılara çevrimiçi olarak yardımcı olmak için tasarlanan yapay zeka (AI) ‘nın dolandırıcılık için nasıl kandırılabileceğini ve buna “scamlexity dedikleri dijital tehditlerin yeni bir dönemi” olarak adlandırdığını ortaya koydu.
HackRead.com ile paylaşılan bulgular, StepFix adlı benzersiz bir saldırı yöntemi detaylandırıyor. Bu teknik sahte bir captcha kullanır, bir kullanıcının robot olmadığını ve kötü niyetli talimatları gizlemek için bir güvenlik kontrolü kullanır. Bir insan sahte kontrolü kolayca tespit edip görmezden gelebilirken, AI onu takip etmek için meşru bir komut olarak görür.

Raporda, ajan AIS olarak adlandırılan bu AI yardımcılarının hassas bilgiler verilmesi veya hatta kullanıcının bilgisi olmadan satın alma işlemi yapılması için aldatılabileceğini vurgulamaktadır. Araştırmacılar, bu AI tarayıcılarının Perplexity’nin Kuyruklu Yıldızı gibi, farklı testlerle yıllardır var olan dolandırıcılıklarla nasıl kandırılabileceğini gösterdiler.
Bir testte, Walmart gibi görünen sahte bir çevrimiçi mağaza oluşturdular. Yapay zekadan bir ürün alması istendiğinde tereddüt etmedi. Sahte web sitesini kontrol etti ve izin istemeden, satın alma işlemini tamamlamak için otomatik olarak kaydedilmiş ödeme bilgilerini girdi.
Araştırmacılar, AI’nın görevini tamamlamaya odaklandığını vurguluyor ki, bir insanın şüpheli bir web sitesi adresi ve bir insanın fark edeceği diğer eksik güvenlik sinyalleri gibi bariz kırmızı bayrakları görmezden gelmişti.

Başka bir senaryoda, AI tarayıcısına bir bankadan benzeyen bir kimlik avı e -postası verildi. AI, kötü niyetli bağlantıyı güvenle tıkladı ve herhangi bir uyarı olmadan kullanıcıyı sahte bir giriş sayfasına götürdü ve kişisel bilgilerini girmelerini istedi. Araştırmacılar buna “mükemmel bir güven zinciri gitti” diyor, çünkü kullanıcı AI’ya güveniyor, asla uyarı işaretlerini görmüyor ve doğrudan bir tuzağa yönlendiriliyor.

Rapor, gelecekte dolandırıcıların milyonlarca insanı kandırması gerekmeyeceği konusunda uyarıyor. Bunun yerine, bir AI modelini kırabilir ve aynı zamanda milyonlarca kullanıcıyı aynı anda tehlikeye atmak için aynı hileyi kullanabilirler. Bu AI sistemlerini daha sonra eklemek yerine en baştan güvenli ve güvenli hale getirmek çok önemlidir, çünkü sonuçlar zararlı olabilir.
Araştırmacılar raporlarında “Ajan AI’ya yerleştirdiğimiz güven mutlak olacak ve bu güven yanlış yerleştirildiğinde maliyet derhal”.
Bu nedenle, AI e -postalarımızı ve finansmanlarımızı ele alacak; Kendimiz için kullandığımız aynı koruma seviyesine ihtiyacı var. Aksi takdirde, güvenilir yapay zekemiz bilgisayar korsanları için görünmez bir suç ortağı olabilir.
“Düşmanlar saldırılar için otonom ajanların kullanımı ve optimizasyonu üzerinde iki katına çıktıkça, insan savunucuları savunma için otonom ajanlara giderek daha fazla güvenecek ve güvenecek.“ dedi Nicole Carignan, Kıdemli Başkan Yardımcısı, Güvenlik ve AI Stratejisi ve Darktrace Field Ciso.
“Belirli AI türleri, şüpheli davranışı tespit etmek ve saniyeler içinde kötü niyetli davranışlara yanıt vermek ve içermek için gerekli mikro karar vermeyi gerçek zamanlı olarak gerçek zamanlı olarak gerçek zamanlı olarak gerçek zamanlayabilir. Yapay zeka sonuçlarında şeffaflık ve açıklanabilirlik, üretken bir insan-ai ortaklığını teşvik etmek için kritik öneme sahiptir,“ Ekledi.