AI ile çalışan siber güvenlik araçları, hızlı enjeksiyon saldırıları yoluyla kendilerine karşı döndürülebilir


AI ile çalışan araçlar kendilerine karşı döndü

Yapay zeka ile çalışan siber güvenlik araçları, hızlı enjeksiyon saldırıları yoluyla kendilerine karşı döndürülebilir, bu da rakiplerin otomatik ajanları kaçırmasına ve yetkisiz sistem erişimi kazanmasına izin verir.

Güvenlik araştırmacıları Víctor Mayoral-Vilches & Per Mannermaa Rynning, kötü amaçlı sunucular gizli talimatları görünüşte iyi huylu veri akışlarına enjekte ettiğinde modern AI güdümlü penetrasyon test çerçevelerinin nasıl savunmasız hale geldiğini ortaya koydu.

Key Takeaways
1. Prompt injection hijacks AI security agents by embedding malicious commands.
2. Encodings, Unicode tricks, and env-var leaks bypass filters to trigger exploits.
3. Defense needs sandboxing, pattern filters, file-write guards, and AI-based validation.

Hızlı enjeksiyon olarak bilinen bu saldırı tekniği, her ikisi de aynı bağlam penceresine girdiğinde yürütülebilir komutlar ve veri girişleri arasında ayrım yapamama büyük dil modellerinin (LLMS) temel yetersizliğini kullanır.

Google Haberleri

Hızlı enjeksiyon güvenlik açıkları

Müfettişler, ağ güvenlik açıklarını özerk olarak tarayan, sömüren ve rapor eden açık kaynaklı bir siber güvenlik AI (CAI) ajanı kullandılar.

Rutin bir HTTP GET isteği sırasında, CAI aracısı güvenlik belirteçlerine sarılmış web içeriği aldı:

AI ile çalışan siber güvenlik araçları hızlı enjeksiyona karşı döndü

Aracı, “Sisteme Not” önekini meşru bir sistem talimatı olarak yorumladı, Base64 yükünü otomatik olarak kodladı ve ters kabuk komutunu yürüttü.

İlk temastan itibaren 20 saniye içinde, saldırgan test cihazının altyapısına kabuk erişimi kazandı ve saldırının “ilk keşiften” “sistem uzlaşmasına” hızlı ilerlemesini gösterdi.

Saldırganlar, Base32, onaltılık veya ROT13 gibi alternatif kodlamalar kullanarak basit desen filtrelerinden kaçabilir veya kod yorumlarında ve ortam değişkeni çıktılarındaki yükleri gizleyebilir.

Unicode homograf manipülasyonları kötü niyetli komutları daha da gizler ve ajanın tespit imzalarını atlamak için ajanın Unicode normalleşmesini kullanır.

AI ile çalışan araçlar kendilerine karşı döndü
AI Güvenlik Araçları için Saldırı Peyzajı

Hafifletme

Hızlı enjeksiyona karşı koymak için çok katmanlı bir savunma mimarisi esastır:

  • Yanal hareketi sınırlamak ve uzlaşmalar içerecek şekilde izole edilmiş docker veya konteyner ortamlarının içindeki tüm komutları yürütün.
  • Kıvırcık ve wget ambalajlarda desen algılama uygulayın. $ (ENV) veya $ (ID) gibi kabuk ikame modellerini içeren herhangi bir yanıtı engelleyin ve harici içeriği katı “yalnızca veri” sarmalayıcılara yerleştirin.
  • Dosya yazma sistem çağrılarını ele geçirerek ve şüpheli yükleri reddederek Base64 veya çok katmanlı kod çözme komutları ile komut dosyalarının oluşturulmasını önleyin.
  • Gerçek güvenlik açığı kanıtları ve çekişmeli talimatlar arasında ayrım yapmak için ikincil AI analizi uygulayın. Runtime korkulukları, “yalnızca analiz” ve “yalnızca yürütme” kanallarının katı bir şekilde ayrılmasını zorunlu kılmalıdır.

Yeni baypas vektörleri LLM yetenekleri ilerledikçe görünecek ve erken web uygulaması XSS ​​savunmalarına benzer sürekli bir silah yarışı ile sonuçlanacak.

AI Güvenlik Acenteleri’ni konuşlandıran kuruluşlar, sağlam bir savunma duruşunu korumak için ortaya çıkan hızlı enjeksiyon tekniklerini kapsamlı korkuluklar uygulamalı ve izlemelidir.

Bu hikayeyi ilginç bul! Daha fazla anında güncellemeler almak için bizi Google News, LinkedIn ve X’te takip edin.



Source link