Siber güvenlik araştırmacıları, AI destekli tarayıcılarda, saldırganların yapay zeka ajanlarını kullanıcı bilgisi olmadan kötü amaçlı komutlar yürütmeleri için manipüle etmelerini sağlayan kritik güvenlik açıklarını ortaya çıkardılar, hangi uzmanların dijital güvenlik tehditlerinde yeni bir “dolandırıcılık” çağını dediklerini tanıttı.
Öncelikle şaşkınlığın Kuyruklu Yıldızı AI tarayıcısına odaklanan araştırma, otonom tarama ajanlarının temel güvenlik korkuluklarından yoksun olduğunu ve onları geleneksel dolandırıcılıklara ve yeni AI’ya özgü saldırılara duyarlı hale getirdiğini ortaya koyuyor.
Alışveriş ve e -posta yönetimi gibi görevleri bağımsız olarak işlemek için tasarlanan bu tarayıcılar, gelişmiş manipülasyon teknikleri aracılığıyla kullanıcı verilerini ve finansmandan ödün vermeye kandırılabilir.
Üç saldırı vektörü yaygın güvenlik açığı gösterir
Araştırmacılar, kullanıcılar ve AI asistanları arasındaki tehlikeli güven zincirini ortaya çıkaran üç farklı senaryoyu test ettiler. İlk testte, dakikalar içinde oluşturulan sahte bir Walmart mağazası, AI tarayıcısını yetkisiz bir Apple Watch satın almayı tamamlamaya başarılı bir şekilde kandırdı.
AI aracısı, sitenin hileli olduğu açık işaretlere rağmen, kullanıcı onayı aramadan kaydedilmiş ödeme bilgilerini ve gönderim ayrıntılarını otomatik olarak doldurdu.
İkinci saldırı, Wells Fargo’dan iletişim olarak maskelenen bir kimlik avı e -postası içeriyordu.

AI tarayıcısı, şüpheli mesajı meşru bir yapılacaklar öğesi olarak güvenle işaretledi ve doğrudan aktif bir kimlik avı sitesine gitti ve genellikle bu tür girişimleri işaretleyecek normal insan şüpheciliğini atladı.
Otomatik süreç, kullanıcıların şüpheli gönderen adresleri veya şüpheli URL’ler gibi kırmızı bayrakları tanımlama fırsatını ortadan kaldırdı.
“Prompfix” olarak adlandırılan en sofistike saldırı, geleneksel ClickFix dolandırıcılığının AI dönemi evrimini temsil ediyor.

Bu teknik, görünüşte masum web içeriğine gizli kötü niyetli talimatlar yerleştirir ve özellikle insan kullanıcılarından ziyade AI aracılarını hedefler.
Saldırı, yapay zekayı yetkisiz eylemler gerçekleştirmeye yönlendiren görünmez metin içerirken kendini standart bir Captcha doğrulaması olarak gizler.
Testte, PrcidentFix istismar, AI ajanlarını kullanıcılara hızlı ve verimli bir şekilde yardımcı olmak için temel programlama direktiflerine başvurarak kötü niyetli düğmeleri tıklamaya ikna etti.
Gizli talimatlar AI’ya, özel bir “AI dostu” captcha ile bağımsız olarak çözebileceğini ve potansiyel sürüş ve sistem uzlaşmalarını tetikleyebileceğini söyledi.
Araştırma, bir AI modelinin kırılmasının milyonlarca kullanıcıyı aynı anda tehlikeye atabileceği tehdit manzaralarında temel bir değişimi vurgulamaktadır.

Bireysel kullanıcıları hedefleyen geleneksel saldırıların aksine, bu güvenlik açıkları, kullanıcılar ve AI temsilcileri arasındaki ortak güven ilişkisinden yararlanır ve eşi görülmemiş bir erişime sahip ölçeklenebilir saldırı vektörleri oluşturur.
Güvenlik uzmanları, AI tarayıcılarının yapay zekanın doğasında var olan güvenlik açıklarını devraldığı ve uygun şüphecilik olmadan talimatları yürütme eğilimi de dahil olmak üzere uyarıyor.
Bu sistemlerin otomatik doğası, insan sezgisini güvenlik kararlarından ortadan kaldırarak dijital etkileşimlerde tek başarısızlık noktası oluşturur.
Bulgular, yapay zeka ile çalışan tarama teknolojilerinde güçlü güvenlik çerçevelerine acil ihtiyaç olduğunu vurgulamaktadır.
Microsoft ve Openai de dahil olmak üzere büyük teknoloji şirketleri AI tarayıcı yeteneklerini genişletirken, kapsamlı güvenlik korkuluklarının uygulanması, kullanıcıları bu ortaya çıkan tehdit kategorisinden korumak için kritik hale gelir.
Araştırma, AI ajanları onları özerk bir şekilde ele aldığında tanıdık aldatmaca tekniklerinin önemli ölçüde daha tehlikeli hale geldiğini ve otomatik tarama ortamlarındaki yapay zeka güvenlik açıkları için özel olarak tasarlanmış yeni savunma stratejileri gerektirdiğini göstermektedir.
Bu haberi ilginç bul! Anında güncellemeler almak için bizi Google News, LinkedIn ve X’te takip edin!