Hackerlar, 19 dakikalık açık anahtarlarla bulut tabanlı AI modellerine erişimini kaçırıyor


Hackerlar 19 dakikada açık anahtarlarla bulut tabanlı AI modellerine erişimi kaçırıyor

Yeni araştırmalar, tehdit aktörlerinin, kimlik bilgisi sızıntısından birkaç dakika sonra, kurumsal AI sistemlerini ele geçirmeye maruz kalan bulut kimlik bilgilerini kullandığını ortaya koyuyor. Son olaylar, saldırganların 19 dakikadan kısa bir sürede büyük dil modeli (LLM) altyapısını tehlikeye atabileceğini göstermiştir.

LLMJacking olarak adlandırılan bu saldırı vektörü, geleneksel güvenlik kontrollerini atlamak ve çalınan üretken AI erişiminden para kazanmak için insan olmayan kimlikleri (NHIS)-API anahtarları, hizmet hesapları ve makine kimlik bilgileri-hedefler.

Llmjacking öldürme zinciri

Güvenlik firması Entro Labs yakın zamanda GitHub, Pastebin ve Reddit genelinde işlevsel AWS anahtarlarını saldırgan davranışını incelemek için ortaya koydu.

Araştırmaları sistematik bir dört fazlı saldırı paternini ortaya çıkardı:

Llmjacking öldürme zinciri

Kimlik Bilgisi Hasat: Otomatik botlar, geçerli kimlik bilgilerini tespit etmek için Python komut dosyalarını kullanarak kamu depolarını ve forumlarını tarar ve NHIS’in% 44’ü kod depoları ve işbirliği platformları yoluyla maruz kalır.

Hızlı Doğrulama: Saldırganlar, hesap değerini değerlendirmek için 9-17 dakika içinde GetCostanDusage gibi ilk API çağrılarını gerçekleştirdiler ve tespitten kaçınmak için GetCalleridentity gibi öngörülebilir çağrılardan kaçındılar.

Farklı maruz kalma yerlerinde ortalama maruz kalan sırların erişimine erişim

Model numaralandırma: Davetsiz Girişler, AWS Bedrock aracılığıyla GetFoundationModelavailability isteklerini, Antropic’in Claude ve Amazon Titan dahil olmak üzere erişilebilir LLM’leri katalogla yürüttüler.

Sömürü: Otomatik Invokemodel denemeleri tehlikeye atılmış uç noktaları hedef aldı ve araştırmacılar deneysel anahtarlarda saatte 1.200’den fazla yetkisiz çıkarım denemesini gözlemliyor.

Storm-2139 siber suç grubu yakın zamanda bu metodolojiyi Microsoft Azure AI müşterilerine karşı silahlandırdı ve karanlık web içeriği oluşturmak için API anahtarlarını söndürdü. Adli günlükler saldırganları gösterir:

  • Kimlik Bilgileri Doğrulama için Kaldıraçlı Python’un İstekleri Kütüphanesi
  • AI/ML kovalarını tanımlamak için AWS S3 LS komutlarını kullandı
  • Ana Kaya Denenmesi: İçerik filtrelerini atlamak için hazırlanmış istemleri olan Invokemodel

Entro’nun simüle edilmiş ihlali, otomatik komut dosyalarını manuel keşifle birleştiren saldırganları ortaya çıkardı – ilk erişimlerin% 63’ü Python SDK’ları kullanırken,% 37’si AWS konsolu aracılığıyla etkileşimli keşif için Firefox kullanıcı ajanları kullandı.

Kapalı olmayan llmjacking varoluşsal riskler:

  • Maliyet sömürüsü: Ana kaya erişimine sahip tek bir uzlaşmış NHI, yetkisiz çıkarım ücretlerinde 46.000 $/güne neden olabilir.
  • Veri Defiltrasyonu: Saldırganlar, gözlemlenen olayların% 22’si sırasında model yapılandırmalarını ve eğitim veri meta verilerini söndürdü.
  • İtibar Hasarı: Microsoft’un Q1 2025 ihlali, tehdit aktörlerinin çalınan Azure Openai Keys’i kullanarak 14.000’den fazla derin yaprak görüntüsü ürettiğini gördü.

Azaltma stratejileri

  • NHIS’i gerçek zamanlı olarak tespit edin ve izleyin
  • Otomatik Gizli Dönüşü uygulayın
  • En az ayrıcalığı zorlamak
  • Olağandışı API etkinliğini izleyin
  • Güvenli NHI yönetimi konusunda geliştiricileri eğitin

Saldırganların 20 dakikadan kısa bir sürede sızıntıları çalıştırmasıyla, gerçek zamanlı gizli tarama ve otomatik rotasyon artık isteğe bağlı önlemler değil, LLM döneminde kritik hayatta kalma mekanizmalarıdır.

Are you from SOC/DFIR Teams? – Analyse Malware Incidents & get live Access with ANY.RUN -> Start Now for Free.



Source link