Makine Öğrenimi (ML) topluluğu için bir gelişme ile ilgili bir gelişmede, ReversingLabs’tan araştırmacılar, AI işbirliği için popüler bir merkez olan Hugging Face Platformunda kötü niyetli ML modellerini ortaya çıkardılar.
“Nullifai” olarak adlandırılan bu yeni saldırı yöntemi, şüphesiz sistemlerde kötü amaçlı kod yürütmek için yaygın olarak kullanılan Python turşu serileştirme formatındaki güvenlik açıklarından yararlanır.
Keşif, saldırganların kötü amaçlı yazılımları dağıtmak için açık kaynaklı platformlardan yararlanırken AI gelişiminde artan siber güvenlik risklerini vurgulamaktadır.
Turşu Dosyaları: Çift kenarlı bir kılıç
Turşu dosyaları, Python geliştiricileri tarafından ML modellerini serileştirme ve serileştirme için yaygın olarak kullanılır ve önceden eğitilmiş modellerin kolay paylaşımını ve yeniden kullanılmasını sağlar.
Bununla birlikte, serileştirme sırasında keyfi Python kodu yürütme yetenekleri onları doğal olarak riskli hale getirir.
Yüzün belgelerini kucaklamadaki uyarılara ve Picklescan adlı bir güvenlik aracının uygulanmasına rağmen, saldırganlar kötü niyetli yükleri bozuk turşu dosyalarına yerleştirerek bu önlemleri atlamayı başardılar.
ReversingLabs ekibi, sarılma yüzünde ters kabuk yükü içeren bu tür iki model tanımladı ve saldırganların tehlikeye atılan sistemlere uzaktan erişim kazanmasına izin verdi.
Bu modeller, varsayılan güvenlik araçları tarafından algılanmayı engelleyen 7Z gibi standart olmayan formatlar kullanılarak sıkıştırıldı.
Yükler stratejik olarak serileştirilmiş veri akışının başlangıcına yerleştirildi ve herhangi bir güvenlik kontrolü onları güvensiz olarak işaretlemeden önce yürütülmeyi sağladı.
Geliştiriciler için güvenlik etkileri
Bu olay, işbirlikçi AI platformları için mevcut güvenlik önlemlerinde kritik bir boşluğun altını çizmektedir.
Hugging Face, Picklescan gibi tarama araçları uygularken, bunlar bilinen tehlikeli işlevlerin kara listelerine güvenir ve gelişen tehditleri veya bozuk dosyaları hesaba katmaz.
![Sarılma Yüz Platformu](https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiSkoL8e5A_D414HRD2tfHxHhRb3yK_dzRSjzIOB2H2DJZLrbFFSzNmLn8f6o0yRhqle-BmKsnVZdXuHIHa1kRPwyj50D_yT1yvafjxhwuIuVaICKYebmVA8I9td-cof-i3MUz8oDOdzGu2qTGTz_wTTstFd4PDxyq8ntGGp6h5cI40nD1BpRMdXU_Y_k4/s16000/Security%20scanning%20and%20execution%20of%20valid%20Pickle%20file.webp)
![Sarılma Yüz Platformu](https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiSkoL8e5A_D414HRD2tfHxHhRb3yK_dzRSjzIOB2H2DJZLrbFFSzNmLn8f6o0yRhqle-BmKsnVZdXuHIHa1kRPwyj50D_yT1yvafjxhwuIuVaICKYebmVA8I9td-cof-i3MUz8oDOdzGu2qTGTz_wTTstFd4PDxyq8ntGGp6h5cI40nD1BpRMdXU_Y_k4/s16000/Security%20scanning%20and%20execution%20of%20valid%20Pickle%20file.webp)
Picklescan’ın kırık turşu dosyalarındaki kötü niyetli işlevleri tespit edememesi riski daha da kötüleştirir.
Araştırmacılar, veri ihlalleri, sistem yolsuzluğu ve hassas ortamlara yetkisiz erişim de dahil olmak üzere bu tür güvenlik açıklarının ciddi sonuçlara yol açabileceği konusunda uyarıyorlar.
Son aylarda 100’den fazla kötü amaçlı ML modelinin sarılma yüzünde bildirildiği gibi, tehdit izole etmekten uzaktır.
Hugging Face, bildirimden sonraki 24 saat içinde belirlenen kötü amaçlı modelleri kaldırarak ve bozuk dosyaları daha iyi tespit etmek için güvenlik araçlarını güncelleyerek bu sorunları ele almak için adımlar attı.
Ayrıca, platform, model dosyalarında yürütülebilir kodu ortadan kaldıran güvenli bir serileştirme biçimi olan Safetensörlerin benimsenmesini teşvik ediyor.
Geliştiriciler için uzmanlar, açık kaynaklı platformlardan model indirirken dikkatli olmayı önerir.
Güvenlik en iyi uygulamaları şunları içerir:
- İndirilen modellerin kaynağını ve bütünlüğünü doğrulamak.
- Mümkün olduğunda turşu gibi doğal olarak güvensiz formatlara güvenmekten kaçınmak.
- Potansiyel tehditleri proaktif olarak tespit etmek için gelişmiş tarama araçlarını MLOPS iş akışlarına dahil etmek.
Nullifai’nin keşfi, AI topluluğunun açık kaynaklı işbirliğinin hem bir güç hem de güvenlik açığı olduğu bir dönemde güvenliğe öncelik vermesi için bir uyandırma çağrısı görevi görür.
Yapay zeka, endüstriler arasında inovasyonu artırmaya devam ettikçe, ekosistemdeki güven ve bütünlüğü korumak için kötü niyetli aktörlere karşı sağlam önlemlerin gerekli olması gerekecektir.
Investigate Real-World Malicious Links & Phishing Attacks With Threat Intelligence Lookup - Try for Free