Güvenlik Açıkları Yapay Zeka Tedarik Zinciri Saldırılarına Karşı Açığa Çıktı


Hugging Face Platformu Yapay Zeka Tedarik Zinciri Saldırılarına Karşı Savunmasız

Siber güvenlik firması Wiz.io, Hugging Face gibi hizmet olarak yapay zeka (diğer adıyla AI Cloud) platformlarının, tehdit aktörlerinin ayrıcalıkları artırmasına, kiracılar arası erişim elde etmesine ve potansiyel olarak sürekli entegrasyon ve işlemleri devralmasına olanak tanıyan kritik risklere karşı savunmasız olduğunu tespit etti. sürekli dağıtım (CI/CD) boru hatları.

Sorunu Anlamak

Yapay zeka modelleri, AWS/GCP/Azure’un bulut altyapısını tüketmeye benzer şekilde genellikle yapay zeka hizmet sağlayıcılarından dış kaynak olarak alınan güçlü bir GPU gerektirir. Sarılma Yüz‘nin hizmetine Sarılma Yüz Çıkarımı API’si adı veriliyor.

Wiz Research, kötü amaçlı modellerini yükleyerek ve konteyner kaçış tekniklerini kullanarak özel modelleri çalıştıran hizmeti tehlikeye atabilir ve Hugging Face’te depolanan diğer müşterilerin modellerine kiracılar arası erişime izin verebilir.

Platform çeşitli AI model formatlarını desteklemektedir; bunlardan öne çıkan iki tanesi şunlardır: PyTorch (Turşu) ve Safetensörler. Python’un Pickle formatı, güvensiz olması ve güvenilmeyen verilerin seri durumdan çıkarılması üzerine uzaktan kod yürütülmesine izin vermesiyle bilinir, ancak Hugging Face, platformlarına yüklenen Pickle dosyalarını değerlendirerek tehlikeli bulduklarını vurgular.

Ancak araştırmacılar meşru bir Pickle tabanlı modeli klonladılar (gpt2), yükleme sırasında ters kabuk çalıştıracak şekilde değiştirdi ve el yapımı modeli özel bir model olarak yükledi. Çıkarım API’si özelliğini kullanarak modelle etkileşime girdiler, bir ters kabuk elde ettiler ve rastgele kod çalıştıran bir PyTorch modeli oluşturmanın kolay olduğunu, modellerini Hugging Face’e yüklemenin ise Çıkarım API’si içinde kod yürütmelerine olanak sağladığını keşfettiler.

Potansiyel risk

Saldırganların milyonlarca özel yapay zeka modeline ve uygulamasına erişebilmesi nedeniyle olası etki yıkıcıdır. İki kritik risk arasında, kötü amaçlı modellerin güvenilmeyen çıkarım altyapısını çalıştırdığı paylaşılan çıkarım altyapısının ele geçirilmesi riski ve kötü amaçlı yapay zeka uygulamalarının boru hattını ele geçirmeye ve veri zincirini ele geçirdikten sonra bir tedarik zinciri saldırısı gerçekleştirmeye çalışabileceği paylaşılan CI/CD devralma riski yer alır. CI/CD kümesi.

Ayrıca, düşmanlar yapay zeka modellerine saldırabilir, AI/ML uygulamalarıve çeşitli yöntemler kullanarak çıkarım altyapıları. Yanlış tahminlere, yanlış tahminlere veya kötü niyetli modellere neden olan girdileri kullanabilirler. Yapay zeka modelleri genellikle kara kutu olarak ele alınır ve uygulamalarda kullanılır. Ancak bir modelin bütünlüğünü doğrulamak için çok az araç vardır, bu nedenle geliştiricilerin bunları indirirken dikkatli olmaları gerekir.

Wiz Research’ten “Güvenilmeyen bir yapay zeka modeli kullanmak, uygulamanıza bütünlük ve güvenlik riskleri getirebilir ve bu, güvenilmeyen kodun uygulamanıza dahil edilmesine eşdeğerdir” rapor açıkladı.


Sarılma Yüzü- Wiz Araştırması El Ele Veriyor

Açık kaynaklı yapay zeka (AI) merkezi Hugging Face ve Wiz.io, yapay zeka destekli hizmetlerle ilişkili güvenlik risklerini gidermek için işbirliği yaptı. Ortak çaba, yapay zeka teknolojilerinin sorumlu ve güvenli bir şekilde geliştirilmesini ve konuşlandırılmasını sağlamak için proaktif önlemlerin önemini vurguluyor.

Bu konuda yorum yapan, Nick RagoSalt Security Ürün Stratejisinden Sorumlu Başkan Yardımcısı şunları ekledi: Yapay zeka modellerini barındıran kritik bulut altyapısının güvenliğini sağlamak çok önemli ve Wiz’in bulguları da önemli. Ayrıca güvenlik ekiplerinin, yapay zekanın eğitildiği ve hizmet verdiği aracın bir API olduğunu tanıması da zorunludur ve yapay zeka tedarik zincirlerinin güvenliğini sağlamak için bu düzeyde sıkı güvenlik uygulanmalıdır.”

İlgili Bir Senaryo

Bu keşif, yapay zeka tabanlı araçlar kapsamında veri güvenliğine ilişkin endişelerin zaten dile getirildiği bir zamanda gerçekleşti. AvePoint anketi, kuruluşların yarısından azının yapay zekayı güvenli bir şekilde kullanabileceğinden emin olduğunu, %71’inin uygulama öncesinde veri gizliliği ve güvenliği konusunda endişe duyduğunu, %61’inin ise dahili veri kalitesi konusunda endişe duyduğunu gösteriyor.

ChatGPT ve Google Gemini gibi yapay zeka araçlarının yaygın kullanımına rağmen, yarısından azında Yapay Zeka Kabul Edilebilir Kullanım Politikası bulunmaktadır. Ek olarak, kuruluşların %45’i yapay zeka uygulaması sırasında istenmeyen verilere maruz kalma durumuyla karşılaştı.

Yapay zekanın çeşitli endüstrilerde yaygın biçimde benimsenmesi, güçlü güvenlik önlemlerini gerektirmektedir. Bu güvenlik açıkları potansiyel olarak saldırganların yapay zeka modellerini manipüle etmesine, hassas verileri çalmasına veya kritik operasyonları kesintiye uğratmasına olanak tanıyabilir.

  1. Airbus EFB Uygulamasındaki Güvenlik Açığı Uçak Verilerini Riske Atıyor
  2. Güvenlik Açığı Açığa Çıktı Ibis Budget Misafir Odası Kodları
  3. CISA, Microsoft SharePoint Güvenlik Açığı Düzeltme Çağrısında Bulundu





Source link