AI Guardian’ı koruyun, güvenli olmayan kod içerip içermediklerini belirlemek için makine öğrenimi modellerini tarar


Koruma AI, kuruluşların kötü amaçlı kodların ortamlarına girmesini önlemek için ML Modellerinde güvenlik politikaları uygulamasını sağlayan Guardian’ı duyurdu.

Guardian, makine öğrenimi modellerini tarayarak güvenli olmayan kod içerip içermediklerini belirleyen, açık kaynaklı bir Koruma AI aracı olan ModelScan’i temel alıyor. Guardian, Protect AI’nin açık kaynak teklifinin en iyilerini bir araya getirir ve model güvenliğinin kurumsal düzeyde uygulanmasına ve yönetilmesine olanak tanır ve tescilli tarama yetenekleriyle kapsamı genişletir.

AI/ML’nin büyüyen demokratikleşmesi, büyük ölçüde Hugging Face gibi platformlarda açık kaynaklı ‘Temel Modellerin’ erişilebilirliğinden kaynaklanıyor. Ayda milyonlarca kez indirilen bu modeller, çok çeşitli yapay zeka uygulamalarının desteklenmesi açısından hayati önem taşıyor. Ancak bu eğilim aynı zamanda güvenlik risklerini de beraberinde getiriyor; çünkü bu depolardaki açık dosya alışverişi, kötü amaçlı yazılımların kullanıcılar arasında istenmeyen yayılmasına yol açabilir.

Koruma AI CEO’su Ian Swanson, “ML modelleri bir kuruluşun altyapısındaki yeni varlık türleridir, ancak kullanılmadan önce virüslere ve kötü amaçlı kodlara karşı bir PDF dosyasıyla bile aynı titizlikle taranmazlar” dedi. “Hugging Face’ten aylık olarak milyonlarca kez indirilen binlerce model var ve bu modeller tehlikeli kodlar içerebiliyor. Guardian, müşterilerin açık kaynak model güvenliği üzerindeki kontrolü geri almalarını sağlıyor.”

Açıkça paylaşılan makine öğrenimi modellerinin güvenlik duruşu, bir kuruluşu Model Serileştirme saldırısına karşı kritik risk altına sokar. Bu, serileştirme (kaydetme) sırasında ve dağıtımdan önce bir modelin içeriğine kötü amaçlı kod eklendiğinde meydana gelir; bu da Truva Atı’nın modern bir versiyonunu oluşturur. Bu görünmeyen kötü amaçlı kod bir modele eklendiğinde verileri ve kimlik bilgilerini çalmak, verileri zehirlemek ve çok daha fazlasını yapmak için çalıştırılabilir. Bu riskler Hugging Face gibi büyük depolarda barındırılan modellerde yaygındır.

Geçtiğimiz yıl, Protect AI, sistemlerin tedarik zinciri saldırılarına karşı korunmasına yardımcı olmak amacıyla AI/ML modellerini potansiyel saldırılara karşı tarayan açık kaynaklı bir araç olan ModelScan’i piyasaya sürdü. O zamandan bu yana, Koruma AI, güvenli olmayan modelleri belirlemek amacıyla Hugging Face’te barındırılan 400.000’den fazla modeli değerlendirmek için ModelScan’i kullandı ve bu bilgi tabanını her gece yeniledi.

Bugüne kadar 3300’den fazla modelin hileli kod yürütme yeteneğine sahip olduğu tespit edildi. Bu modeller indirilmeye ve ML ortamlarına dağıtılmaya devam ediyor, ancak benimsenmeden önce modelleri risklere karşı taramak için gereken güvenlik araçları olmadan.

Diğer açık kaynak alternatiflerinin aksine, Koruma AI’nın Guardian’ı, Hugging Face ve diğer model depolarını kullanan makine öğrenimi geliştirme ve dağıtım süreçleri arasında köprü kurarak güvenli bir ağ geçidi görevi görür. Açık kaynaklı modelleri kötü amaçlı kodlara karşı proaktif olarak taramak için Keras lambda katmanları için özel bir tarayıcı da dahil olmak üzere özel güvenlik açığı tarayıcılarını kullanır ve kurumsal ağlarda güvenli, politikayla uyumlu modellerin kullanılmasını sağlar.

Gelişmiş erişim kontrolü özellikleri ve kontrol panelleriyle Guardian, güvenlik ekiplerine model girişi üzerinde kontrol sağlar ve model kökenleri, yaratıcıları ve lisanslama hakkında kapsamlı bilgiler sağlar. Guardian ayrıca mevcut güvenlik çerçeveleriyle sorunsuz bir şekilde bütünleşir ve kuruluşlarda kapsamlı AIML tehdit yüzeyi görünürlüğü için Koruma Yapay Zeka Radarını tamamlar.



Source link