Yeni LLMjacking Saldırısı, Bilgisayar Korsanlarının Kâr Amacıyla Yapay Zeka Modellerini Ele Geçirmesine Olanak Sağlıyor


Dünyası yapay zeka (AI) hızla gelişiyor ve inovasyon ve ilerleme için inanılmaz bir potansiyel sunuyor. Ancak büyük güç, büyük riski de beraberinde getirir ve Sysdig Tehdit Araştırma Ekibi’nin (TRT) yakın zamanda yaptığı bir keşif, böyle bir riski ortaya çıkarıyor.

Bildirildiğine göre araştırmacılar, LLMjacking adı verilen ve tehdit aktörlerinin bulut ortamına erişim sağladığı ve bulut sağlayıcıları tarafından barındırılan yerel Büyük Dil Modellerine (LLM’ler) erişmeye çalıştığı yeni bir siber saldırı planı keşfettiler.

İçinde Blog yazısıSysdig’in güvenlik araştırmacısı Alessandro Brucato, siber suçluların, büyük olasılıkla güvenliği ihlal edilmiş bulut hesaplarından elde edilen çalıntı bulut kimlik bilgilerini kullanarak eski yazılımları çalıştıran sistemleri, LLM’leri çalıştıran sistemlere sızmak ve yeteneklerinin hazinelerini açığa çıkarmak için hedeflediklerini açıkladı.

Araştırmacılara göre saldırganlar, araştırmaları yayınlanmadan önce Anthropic, AWS Bedrock, Google Cloud Vertex AI, Mistral ve OpenAI dahil olmak üzere on farklı AI hizmetindeki LLM modellerine zaten erişmişti.

Bir durumda Anthropic’in yerel bir Claude (v2/v3) LLM modeli hedef alındı; burada saldırganlar savunmasız bir Laravel Framework sistemini ihlal etti ve bir güvenlik açığından yararlanarak Amazon Web Services (AWS) kimlik bilgilerine erişim sağlayarak izinsiz girişi gerçekleştirdi. CVE-2021-3129. Güvenliği ihlal edilmiş hesaplara erişmek için açık kaynaklı bir Python betiği kullanıldı.

Araştırmacılar, saldırganların güvenliği ihlal edilmiş sistemlerdeki kayıt ayarlarını değiştirdiklerini tespit etti; bu durum, çalıntı LLM erişimini kullanırken kasıtlı olarak tespitten kaçmaya çalıştıklarını gösteriyor ve siber suçluların artan karmaşıklığının altını çiziyor.

Brucato, “Keşfedilmezse, bu tür bir saldırı kurbanın günlük 46.000 doların üzerinde LLM tüketim maliyetine yol açabileceğini” belirtti.

Peki nedeni nedir?

Veri çalmaya veya operasyonları aksatmaya odaklanan geleneksel bilgisayar korsanlığının aksine, LLMjacking kâr odaklı görünüyor. Ancak burada bir terslik var; araştırmacılar, saldırganların Yüksek Lisans Kurumlarında depolanan verilerin peşinde olmadığına inanıyorlar. Bunun yerine yapay zeka modellerinin yeteneklerine erişimi diğer suçlulara satmayı hedefliyorlar.

Bunun nedeni, doğrulama aşamasında hiçbir meşru LLM sorgusunun çalıştırılmaması, yalnızca kimlik bilgilerinin yeteneklerinin ve kotalarının belirlenmesidir. Anahtar denetleyici, LLM API’leri için bir ters proxy sunucusu olan oai-reverse-proxy ile entegre olur ve saldırganların, temeldeki kimlik bilgilerini açığa çıkarmadan güvenliği ihlal edilmiş hesaplara erişim sağladığını gösterir.

Bu keşif, çok yönlü bir yaklaşıma olan ihtiyacın altını çiziyor. yapay zekayı güvence altına almak. Sysdig, izinleri en aza indirmek ve yetkisiz erişimi önlemek için Bulut Güvenliği Duruş Yönetimi veya Bulut Altyapısı Yetki Yönetimi çözümleriyle birlikte güçlü güvenlik açığı ve sır yönetimi uygulamalarının uygulanmasını önerir.

  1. Yapay Zeka Odaklı Siber Suçlar için FraudGPT Chatbot Ortaya Çıkıyor
  2. Yapay Zeka Tarafından Oluşturulan Sahte Ölüm İlanı Web Siteleri Yaslı Kullanıcıları Hedefliyor
  3. Yapay Zeka Destekli Dolandırıcılıklar Küresel Siber Suç Artışını Artırıyor: INTERPOL
  4. WormGPT – Kötü Amaçlı ChatGPT Alternatifi Güçlendirici Dolandırıcılar
  5. Araştırmacılar Üretken Yapay Zeka Uygulamalarından Yararlanan Sıfır Tıklama Solucanlarını Test Ediyor





Source link