Bir model yüklerken bir saldırganın yüklenmesi anlamına gelir


Muhtemelen rastgele bir uygulama indirmeden veya tanıdık olmayan bir e -posta eki açmadan önce iki kez düşünürsünüz. Ancak, ekibiniz bir makine öğrenimi modelini indirip yüklediğinde ne olduğunu düşünmek için ne sıklıkla duruyorsunuz?

AI Model Güvenlik Riskleri

Yakın tarihli bir çalışma neden yapmanız gerektiğini gösteriyor. Politecnico Di Milano’dan araştırmacılar, paylaşılan bir model yüklemenin güvenilmeyen kodları çalıştırmak kadar riskli olabileceğini buldular. Testlerinde, popüler makine öğrenme araçlarında daha önce bilinmeyen altı kusur ortaya çıkardılar. Her biri, bir modelin yüklendiği anda bir saldırganın bir sistemin kontrolünü ele geçirmesine izin verebilir.

Bu bulgular, kuruluşların benimsemeye istekli olan modellerin içinde gizlenen yeni bir tedarik zinciri tehdidi türünü ortaya koymaktadır.

Güvenlik kontrolleri düzensiz

Araştırmacılar, makine öğrenme modelleri ve paylaşıldıkları merkezleri oluşturmak ve kurtarmak için kullanılan araçlara baktılar. Güvenlik kontrollerinin büyük ölçüde değiştiğini buldular. Bazı platformlar dosyaları bilinen tehditler için tararken, diğerleri izole ortamlara güvenir veya kullanıcılara risklerin kendilerini ele almaları için güvenir.

Araçlar güvenlik ayarlarını içerse bile, beklendiği gibi çalışmayabilirler. Bazı formatlar daha güvenli olarak tanıtılır, çünkü kod yerine verilere dayanırlar. Uygulamada, çalışma bu formatların hala saldırganların nasıl işlendiklerine bağlı olarak zararlı kod çalıştırmasına izin verebileceğini buldu.

Boşluklar özellikle ilgilidir, çünkü bu araçların güvenli sürümlerinin benimsenmesi yavaştır. Araştırmacılar, makine öğrenimi çerçevelerinin eski sürümlerinin güvenlik güncellemeleri içeren daha yeni olanlardan çok daha sık indirildiğini gördüler. Bu, eski sistemlerin düzeltmeler mevcut olduktan çok sonra kullanımda kaldığı yazılım güvenliğinde yaygın bir sorunu yansıtır.

Algı gerçeklikle eşleşmiyor

Ekip ayrıca bu riskleri nasıl gördüklerini anlamak için 62 makine öğrenimi uygulayıcısını araştırdı. Modellerle düzenli olarak çalışanlar arasında, yüzde 73’ü yerleşik güvenlik taramasını teşvik eden tanınmış merkezlerden daha rahat yükleme modelleri hissettiklerini söyledi.

Ancak, bu güven genellikle yanlış yerleştirilir. Bazı durumlarda çalışma, güvenlik tarama araçlarının kötü niyetli modelleri tespit edemediğini göstermiştir. Diğer durumlarda, dosyalar sadece tarama aracı biçimlerini desteklemediği için güvenli olarak etiketlendi. Algı ve gerçek koruma arasındaki bu uyumsuzluk, aşırı güvene yol açabilir ve sistemleri maruz bırakabilir.

CISOS’un atabileceği adımlar

CISOS, makine öğrenme modellerini çevrelerine giren diğer kod parçası gibi tedavi etmelidir. Takımlarını şu adrese itmelidirler:

  • Makine öğrenimi modelleri için güvenilir kaynakları kullanın ve kökenlerini doğrulayın.
  • Yeni modelleri test ederken veya dağıtırken katı izolasyonu koruyun.
  • Bilinen kusurlara maruz kalmayı azaltmak için çerçeveleri ve ilgili araçları güncel tutun.
  • Kullanmadan önce modellerin nasıl tarandığı ve onaylandığına dair politikalar belirleyin ve bu politikaların ne kadar iyi çalıştığını inceleyin.



Source link