
Siber güvenlik araştırmacıları, MLflow, H2O, PyTorch ve MLeap gibi açık kaynaklı makine öğrenimi (ML) araçlarını ve çerçevelerini etkileyen ve kod yürütmenin önünü açabilecek çok sayıda güvenlik açığını ortaya çıkardı.
JFrog tarafından keşfedilen güvenlik açıkları, tedarik zinciri güvenlik şirketinin ilk olarak geçen ay açıkladığı 22 güvenlik açığından oluşan daha geniş bir koleksiyonun parçası.
Sunucu tarafında kusurlar içeren ilk setin aksine, yeni detaylandırılanlar ML istemcilerinin kullanılmasına izin veriyor ve Safetensors gibi güvenli model formatlarını işleyen kitaplıklarda bulunuyor.

Şirket, “Bir kuruluştaki bir ML istemcisinin ele geçirilmesi, saldırganların kuruluş içinde kapsamlı yatay hareketler gerçekleştirmesine olanak tanıyabilir” dedi. “Bir ML istemcisinin, ML Model Kayıtları veya MLOps İşlem Hatları gibi önemli ML hizmetlerine erişme olasılığı çok yüksektir.”
Bu da, model kayıt defteri kimlik bilgileri gibi hassas bilgilerin açığa çıkmasına neden olabilir ve kötü niyetli bir aktörün depolanan makine öğrenimi modellerine arka kapı açmasına veya kod yürütmesine etkili bir şekilde izin verebilir.

Güvenlik açıklarının listesi aşağıdadır –
- CVE-2024-27132 (CVSS puanı: 7,2) – MLflow’ta, Jupyter Notebook’ta güvenilmeyen bir tarif çalıştırıldığında siteler arası komut dosyası çalıştırma (XSS) saldırısına yol açan ve sonuçta istemci tarafında uzaktan kod yürütülmesine (RCE) yol açan yetersiz bir temizleme sorunu
- CVE-2024-6960 (CVSS puanı: 7,5) – H20’de güvenilmeyen bir ML modeli içe aktarılırken ortaya çıkan güvenli olmayan seri durumdan çıkarma sorunu, potansiyel olarak RCE ile sonuçlanıyor
- PyTorch’un TorchScript özelliğinde, rastgele dosya üzerine yazma nedeniyle hizmet reddine (DoS) veya kod yürütülmesine neden olabilecek, daha sonra kritik sistem dosyalarının veya meşru bir turşu dosyasının (CVE tanımlayıcısı yok) üzerine yazmak için kullanılabilen bir yol geçiş sorunu
- CVE-2023-5245 (CVSS puanı: 7,5) – MLeap’te, sıkıştırılmış biçimde kaydedilmiş bir model yüklenirken ortaya çıkan yol geçiş sorunu, Zip Slip güvenlik açığına yol açarak rastgele dosyanın üzerine yazılmasına ve potansiyel kod yürütülmesine neden olabilir

JFrog, ML modellerinin, Safetensors gibi güvenli bir türden yüklendikleri durumlarda bile rastgele kod yürütme kapasitesine sahip olmaları nedeniyle körü körüne yüklenmemesi gerektiğini belirtti.
JFrog’un Güvenlik Araştırmalarından Sorumlu Başkan Yardımcısı Shachar Menashe, yaptığı açıklamada, “Yapay zeka ve Makine Öğrenimi (ML) araçları, inovasyon için muazzam bir potansiyel barındırıyor, ancak aynı zamanda saldırganların herhangi bir kuruluşa geniş çaplı zarar vermesine de kapı açabilir.” dedi.
“Bu tehditlere karşı korunmak için hangi modelleri kullandığınızı bilmeniz ve güvenilmeyen ML modellerini ‘güvenli’ bir ML deposundan bile asla yüklememeniz önemlidir. Bunu yapmak, bazı senaryolarda uzaktan kod yürütülmesine yol açarak kuruluşunuza büyük zararlar verebilir. “