Ad Alanı Yeniden Kullanım Güvenlik Açığı AI platformlarını uzaktan kod yürütmeye maruz bırakır


AI tedarik zincirinde yeni keşfedilen bir güvenlik açığı-Microsoft Azure AI Foundry, Google Valtex AI ve binlerce açık kaynak projesi de dahil olmak üzere büyük AI platformlarında uzaktan kod yürütme (RCE) elde etmek için saldırganları takip ediyor.

Kötü niyetli aktörler, terk edilmiş veya silinmiş model ad alanlarını yeniden kaydettirerek, model modelleri adıyla lekeli depoları dağıtmak, uç nokta ortamlarını uzlaştırmaya ve yetkisiz erişim sağlayan boru hatlarını kandırabilir.

Tek başına güvenilir model isimleri yetersizdir; Kuruluşlar AI güvenlik uygulamalarını acilen yeniden değerlendirmelidir

Hugging Face, AI modellerini bir yazar/ModelName ad alanı tarafından tanımlanan git depoları olarak barındırır. Bir yazar hesabı silindiğinde veya bir modelin mülkiyeti aktarıldığında, bu orijinal ad alanları mevcut bir havuza geri döner.

Kötü niyetli modeller, yanlış teşhislerden etkilenen sistemlere bir saldırganın yetkisiz erişimine kadar bir dizi istenmeyen sonuçla sonuçlanabilir.

Saldırı vektörü akışının üst düzey görünümü.
Saldırı vektörü akışının üst düzey görünümü.

Model ad alanı yeniden kullanımı, terk edilmiş ad alanını yeniden kaydetmesine ve yolunu yeniden oluşturmasına izin vererek bunu kullanır. Modelleri kesinlikle isme göre referans alan boru hatları, orijinal yerine saldırganın modelini getirecektir.

Geliştiriciler modelleri nasıl çekiyor

Geliştiriciler genellikle kodu kullanıyor:

pythonfrom transformers import AutoModel
model = AutoModel.from_pretrained("AIOrg/Translator_v1")

Bu iki bölümlü kongre (yazar ve model adı), ad alanının orijinal yayıncı tarafından kontrol edildiğini varsayar.

Bununla birlikte, yaşam döngüsü kontrolleri olmadan, terk edilmiş bir ad alanı, aşağı akış dağıtımlarındaki meşru modeli sessizce değiştirerek kaçırılabilir.

Google Vertex AI

Vertex AI’s Model Bahçesi, tek tıklamayla dağıtım için sarılma yüz modellerini entegre eder. Ekibimiz, orijinal yazarları sarılma yüzünde silinmiş birkaç “doğrulanmış” model buldu. Bu tür bir ad alanı yeniden kaydederek ve geri alınmış bir model yükleyerek, ters bir kabuk yükü yerleştirdik.

Yeniden kullanılabilir model Vertex AI'da dağıtılır.
Yeniden kullanılabilir model Vertex AI’da dağıtılır.

Vertex AI’da konuşlandırıldıktan sonra, konteyner bitiş noktasına kabuk erişimi kazandık. Google şimdi yetim ad alanları için günlük olarak tarar ve dağıtımı engellemek için “doğrulama başarısız” işaret eder.

Azure Ai Dökümhane

Azure AI Foundry’s Model Kataloğu, Hugging Facting Modelleri benzer şekilde kaynaklar. Yazarların kaldırıldığı ancak modellerin dağıtılabilir kaldığı yeniden kullanılabilir ad alanlarını belirledik.

Talep edilmemiş bir ad alanının kaydedilmesi ve kötü niyetli bir model yüklemesi, uç noktada ters bir kabuk vererek Azure ortamına ilk dayanak vermiştir. Microsoft o zamandan beri bilgilendirildi ve koruyucu önlemleri değerlendiriyor.

Açık kaynaklı depolar

Sarılma yüz modellerini getiren kod için Github taraması, savunmasız yazar/ModelName tanımlayıcılarına atıfta bulunarak binlerce depoyu ortaya çıkardı.

Açık kaynaklı bir projede varsayılan argüman olarak kullanılan yeniden kullanılabilir bir model adı.
Açık kaynaklı bir projede varsayılan argüman olarak kullanılan yeniden kullanılabilir bir model adı.

Popüler projeler, saldırganların geri alabileceği sabit kodlu varsayılan modeller, aşağı akış dağıtımlarını kötü niyetli hale getiriyor.

Model Kayıt Defteri Tedarik Zinciri

Doğrudan sarılma yüzü çekmelerinin ötesinde, Kaggle’ın model kataloğu ve diğer özel model kayıtları gibi ikincil kayıtlar savunmasız modelleri alabilir.

Bu kayıtlardan gelen kullanıcılar aynı riski devralırlar, asla doğrudan sarılma yüzü ile etkileşime girmez, ancak yine de ortaya çıkar.

Senaryo Neden Kullanıcı Deneyimi HTTP Durum Kodu
Sahiplik silme Yazar hesabı silindi Model döner 404 (Kesinti) 404
Sahiplik transferi Model aktarılan, eski yazar hesabı silindi İstekler yönlendirme (kesinti yok) 307

Aktarım senaryolarında, yeniden yönlendirme, bir saldırgan eski ad alanını geri kazanana ve yönlendirmeyi kırana kadar riski maskeler.

Hafifletme

Yapay zeka tedarik zincirlerini güvence altına almak için kuruluşlar:

  • Sürüm sabitleme: Ararken bir taahhüt karma belirtin from_pretrained("Author/ModelName", revision="abcdef1234") Beklenmedik sürümlerin getirilmesini önlemek için.
  • Model klonlama: Dış kaynaklara canlı bağımlılıkları ortadan kaldırarak doğrulamadan sonra güvenilir modelleri dahili kayıtlara veya depolamaya yansıtın.
  • Kapsamlı tarama: Korunmasız ad alanları için depoları, belgeleri, varsayılan parametreleri ve dokstrasyonları tarayarak model referanslarını kod bağımlılıkları olarak ele alın.

Model ad alanı yeniden kullanımı AI model dağılımında sistemik bir güvenlik açığıdır. Sadece güven için ad alanı tanımlayıcılarına güvenmek yetersizdir. İşbirlikçi eylem – platform sağlayıcıları, ad alanı yaşam döngüsü politikalarını ve daha katı doğrulama uygulamalarını benimseyen geliştiriciler – tedarik zinciri saldırılarına karşı AI ekosistemlerini korumak için gereklidir.

Bu hikayeyi ilginç bul! Daha fazla güncelleme almak için bizi LinkedIn ve X’te takip edin.



Source link