Bilgisayar korsanları genai’yi AWS ile kötüye kullanır NHIS Bulut LLMS’yi kaçırmaya


Gelişmeyle ilgili bir gelişmede, siber suçlular, “LLMJacking” adlı yeni bir saldırı vektöründe bulut tabanlı üretken AI (Genai) hizmetlerini giderek daha fazla hedefliyor.

Bu saldırılar, AWS gibi bulut platformlarında barındırılan Büyük Dil Modellerine (LLMS) erişimi ele geçirmek için insan olmayan kimlikler (NHIS) makine hesaplarından ve API anahtarlarından yararlanır.

NHI’lardan ödün vererek, saldırganlar pahalı yapay zeka kaynaklarını kötüye kullanabilir, yasadışı içerik üretebilir ve hatta kurbanları finansal ve itibar maliyetlerini karşılamaya bırakırken hassas verileri de dışarı atabilir.

Entro Labs tarafından yapılan son araştırmalar, bu saldırıların endişe verici hızını ve karmaşıklığını vurgulamaktadır.

Kontrollü deneylerde, araştırmacılar saldırgan davranışını gözlemlemek için GitHub ve Pastebin gibi genel platformlarda geçerli AWS API anahtarlarını kasten ortaya koydular.

Bulut llmsBulut llms
Pastebin üzerindeki parçacıklar

Sonuçlar şaşırtıcıydı: ortalama 17 dakika içinde ve 9 dakikaya kadar tehdit aktörleri keşif çabalarına başladı.

Otomatik botlar ve manuel saldırganlar, bulut AI modellerine erişimlerini kullanmaya çalışarak sızdırılmış kimlik bilgilerini araştırdı.

Keşif ve sömürü taktikleri

Saldırı süreci oldukça otomatiktir, botlar açık olan kimlik bilgileri için kamu depolarını ve forumları tarar.

Keşfedildikten sonra, çalınan anahtarlar izinler için test edilir ve mevcut AI hizmetlerini numaralandırmak için kullanılır.

Bir örnekte, saldırganlar AWS’yi çağırdı GetFoundationModelAvailability Yetkisiz model çağrılarını denemeden önce GPT-4 veya Deepseek gibi erişilebilir LLM’leri tanımlamak için API.

Bu keşif aşaması, saldırganların derhal alarmları tetiklemeden uzlaşmış hesapların yeteneklerini haritalamasını sağlar.

İlginç bir şekilde, araştırmacılar hem otomatik hem de manuel sömürü girişimlerini gözlemlediler.

Bots, Python tabanlı araçları kullanarak ilk erişim denemelerine hakim olurken botocore Kılavuz eylemleri, kimlik bilgilerini doğrulamak veya bulut ortamlarını etkileşimli olarak keşfetmek için web tarayıcılarını kullanan saldırganlarla da meydana geldi.

Bu ikili yaklaşım, fırsatçı otomasyonun karışımının altını çiziyor ve LLMJacking kampanyalarına hedeflenen insan müdahalesini hedefliyor.

Finansal ve operasyonel etki

Rapora göre, LLMJacking’in sonuçları şiddetli olabilir.

Gelişmiş AI modelleri, sorgu başına önemli ücretler alır, yani saldırganlar binlerce dolar hızla yetkisiz kullanım maliyetleri elde edebilir.

Finansal kayıpların ötesinde, tehlikeye atılan kimlik bilgileri altında kötü niyetli içerik oluşturma riski de vardır.

Örneğin, Microsoft kısa süre önce Azure Openai Hizmetlerini DeepFakes gibi zararlı içerikler oluşturmak için kötüye kullanmak için çalıntı API anahtarlarını kullanan bir siber suç işlemesini söktü.

Ortaya çıkan bu tehdide karşı koymak için, kuruluşlar güçlü NHI güvenlik önlemlerini benimsemelidir:

  • Gerçek Zamanlı İzleme: Kod depoları, günlükler ve işbirliği araçlarında açıkta kalan sırlar için sürekli tarama.
  • Otomatik Anahtar Döndürme: Maruz kalma süresini sınırlamak için uzatılmış kimlik bilgilerini derhal iptal edin veya döndürün.
  • En az ayrıcalık erişim: NHI’leri sadece temel izinlerle sınırlandırarak bir ihlalin potansiyel etkisini azaltır.
  • Anomali tespiti: Beklenmedik model çağrıları veya aşırı faturalandırma istekleri gibi olağandışı API etkinliğini izleyin.
  • Geliştirici Eğitimi: Kazara sızıntıları önlemek için ekipleri güvenli kimlik bilgisi yönetim uygulamaları konusunda eğitin.

Üretken AI modern iş akışlarının ayrılmaz bir parçası haline geldikçe, NHI’leri LLMJacking’e karşı güvence altına almak artık isteğe bağlı değil, gereklidir.

Kuruluşlar, bu hızla gelişen tehdit manzarasından AI kaynaklarını korumak için hızla hareket etmelidir.

Are you from SOC/DFIR Teams? – Analyse Malware Incidents & get live Access with ANY.RUN -> Start Now for Free.



Source link