Veri ihlallerine yol açan derhal tabanlı saldırılara karşı savunmasız kurumsal LLM’ler


Güvenlik araştırmacıları, saldırganların kimlik doğrulama sistemlerini atlamasına ve gelişmiş hızlı enjeksiyon teknikleri aracılığıyla hassas kurumsal verilere erişmesine izin verebilecek Enterprise Büyük Dil Modeli (LLM) uygulamalarında endişe verici güvenlik açıkları keşfettiler.

Bulgular, yapay zeka ile çalışan sohbet botları ve otomatik sistemler yerleştiren birçok kuruluşun yanlışlıkla kritik bilgileri kötü amaçlı aktörlere maruz bırakabileceğini ortaya koymaktadır.

Güvenlik açığı, hem sistem talimatlarını hem de kullanıcı sorgularını güvenilir ve güvenilmeyen içerik arasında sıkı bir ayrılık olmadan tek bir metin girişi olarak işleyen LLM’lerin temel mimarisinden kaynaklanmaktadır.

Bu tasarım kusuru, saldırganların güvenlik kontrollerini geçersiz kılabilen ve korunan bilgilere erişebilen özenle hazırlanmış istemler aracılığıyla modelin davranışını manipüle etmeleri için fırsatlar yaratır.

Güvenlik uzmanlarına göre, bu “hızlı enjeksiyon” saldırıları özellikle tehlikelidir, çünkü LLM’leri bu kadar güçlü kılan doğal dil işleme yeteneklerinden yararlanırlar.

Geleneksel yazılım güvenlik açıklarından farklı olarak, bu saldırılar teknik uzmanlık gerektirmez – saldırılar, sistemden konuşma dilini kullanarak hassas bilgileri ortaya çıkarmasını isteyebilir.

Gerçek Dünya Saldırı Senaryoları

Araştırmacılar, Enterprise LLM uygulamalarına karşı saldırı vektörleri ile ilgili birkaç kişi gösterdiler.

Bir senaryoda, saldırganlar, sistem araçlarını doğrudan keyfi parametrelerle çağırarak, normal olarak kullanıcı izinlerini doğrulayacak olağan güvenlik iş akışını etkili bir şekilde atlayarak yetkilendirme kontrollerini başarıyla atladılar.

Bir başka gösterilen saldırı, kurumsal veritabanlarından yetkisiz bilgileri çıkarmak için kötü niyetli bilgi istemlerinin kullanıldığı SQL enjeksiyon teknikleri aracılığıyla veritabanı sorgularının manipüle edilmesini içeriyordu.

Araştırmacılar, saldırganların SQL komutlarını AI sistemine masum sorular içine yerleştirerek hassas kullanıcı verilerini nasıl alabileceğini gösterdi.

Belki de en endişe verici olan araştırma, sistem düzeyinde bazı Enterprise LLM uygulamalarının uzaktan komut yürütme için kullanılabileceğini ve potansiyel olarak saldırganların AI hizmetlerini barındıran altyapı üzerinde kontrol sahibi olmalarına izin verdiğini ortaya koydu.

Birçok kuruluş, sundukları benzersiz güvenlik zorluklarını tam olarak anlamadan LLM tabanlı uygulamaları hızla kullandığından, işletmeler için güvenlik sonuçları önemlidir.

Güvenlik güvenlik açıklarının kod güncellemeleri yoluyla yamalayabileceği geleneksel web uygulamalarının aksine, LLM güvenlik açıklarının modellerin olasılıksal doğası ve doğal dil işleme özellikleri nedeniyle doğal olarak ele alınması zordur.

Araştırma, LLM’lerdeki sıcaklık ayarlarının güvenlik testine başka bir karmaşıklık katmanı eklediğini vurgulamaktadır, çünkü aynı kötü niyetli istem bir örnekte başarılı olabilir, ancak modelin yanıt üretiminde yerleşik rastgelelik nedeniyle başka bir durumda başarısız olur.

Güvenlik profesyonelleri, kuruluşların kapsamlı AI kırmızı ekip uygulamaları uygulamalarını ve LLM davranışını izlemek için ayrıntılı günlük sistemleri korumasını önermektedir.

OWASP AI Test Kılavuzu, kuruluşların AI uygulamaları için uygun güvenlik testi metodolojileri oluşturmalarına yardımcı olmak için geliştirilmiştir.

İşletmeler AI teknolojilerini operasyonlarına entegre etmeye devam ettikçe, bu temel güvenlik açıklarını ele almak, veri ihlallerini önlemek ve AI destekli hizmetlerde müşteri güvenini korumak için çok önemli olacaktır.

Find this News Interesting! Follow us on Google News, LinkedIn, and X to Get Instant Updates!



Source link