İşletmenizin MLSECOP’ları uygulamada karşılaşacağı 6 zorluk


Güvenlik programlarını uygularken uyarlamayan kuruluşlar, hem eski hem de gelişmekte olan çeşitli tehditlere maruz kalma riski taşırlar.

MLSECOP’lar, AI ve ML gelişimini titiz güvenlik yönergeleriyle birleştirerek güvenlik çevrelerindeki bu kritik boşluğu ele almaktadır. Sağlam bir MLSEPOPS temeli oluşturmak hem proaktif olarak güvenlik açıklarını azaltmak hem de daha önce keşfedilmemiş kusurların iyileştirilmesini basitleştirmek için gereklidir.

AI/ML sistemleri güvenilir, esnek ve güvenli kalmalıdır. Açık Yazılım Güvenlik Vakfı’ndan bir beyaz makaleye göre, MLSECOP’lar güvenlik ekiplerinin operasyon ölçeği olarak korumalarda pişirilmesine yardımcı olabilir.

MLSECOPS Uygulama Zorlukları

Kuruluşlar daha sağlam ML ve AI güvenliği oluşturmaya başladıkça, altı büyük zorlukla karşılaşacaklar. Liderlik ve güvenlik stratejistlerinin, modellerindeki risklerden şüphelenmeleri durumunda sorunları ve ne yapılacağını bilmeleri önemlidir.

1. benzersiz, değişen tehdit manzarasını tanımlamak

MLSECOP’lara bir kuzen olan Devsecops’un güvenlik uygulamalarının çoğu, AI tehdit manzarasına uygulandığında düz düşüyor.

DevSecops, güvenlik uygulayıcılarının yıllardır anladığı geleneksel yazılım güvenlik açıkları etrafında inşa edilmiştir: çoğu kuruluş için yeni olma nedeniyle, geri dönüşler, hatalar, aksaklıklar, vb. AI ve ML sistemleri, güvenlik ekiplerinin mevcut süreçlerine ek olarak dikkate almaları için bir dizi yeni tehdit vektörüyle birlikte gelir. Bunlar veri zehirlenmesi, çekişmeli girdiler, model hırsızlığı veya kurcalama ve hatta model inversiyonu ve üyelik çıkarım gibi gizliliğe özgü saldırıları içerebilir.

Bu yeni tehditlere karşı savunmak, özellikle ML yaşam döngüsü için tasarlanmış kontroller oluşturmak anlamına gelir. Güvenlik uzmanları, tek seferlik hackleme antremanları yerine tekrarlanan, problama saldırıları için hazırlanmalıdır. Stres testi modelleri çok önemlidir.

2. Sürekli eğitimin gizli karmaşıklığı

AI modelleri gelişir, bu da MLSECOPS güvenliğine başka bir karmaşıklık katmanı ekler. Bir model verilerle her eğitildiğinde ve yeniden eğitildiğinde, ML ekosistemine potansiyel olarak yeni güvenlik açıkları tanıtılmaktadır. Bu, bir modelin bir gün değil, bir gün güvenli olabileceği anlamına gelir.

Bununla mücadele etmek için, modelin her yeniden eğitilmesi net yeni bir ürün sürümü olarak ele alınmalıdır. BT ve güvenlik liderliği, modellerinin en son sürümüne eşlik edecek materyaller oluşturmayı bile düşünebilir – uygulama üreticileri, modelin hangi verileri eğittiğini ve bu sürümün sondan nasıl farklı olduğunu özetlemek için sürüm ayrıntılarını her yeni sürümle paylaşıyor. Model eğitimi sürekli olarak izlenmezse, MLSECOPS programlarının güvenliği zamanla sürüklenecektir.

3. ML modellerinde opaklık ve yorumlanabilirliği yönetme

ML modelleri genellikle yaratıcılarına bile “kara kutular” dır, bu nedenle cevaplara nasıl ulaştıklarına dair çok az görünürlük vardır. Güvenlik profesyonelleri için bu, geleneksel olarak siber güvenliğin temel bir yönü olan davranışı denetleme veya doğrulama yeteneği anlamına gelir.

AI ve ML sistemlerinin bu opaklığını dolaşmanın yolları vardır: güvenilir yürütme ortamları (TEES). Bunlar, kuruluşların modelleri kontrollü bir ekosistemde tekrar tekrar test edebilecekleri ve tasdik verileri oluşturabilecekleri güvenli çevrelerdir.

Tees, kuruluşların uygun model davranışı için önceden belirlenmiş standartlar ve kılavuzlar oluşturmak için onaylama verilerini kullanmalarını sağlar ve modelin araştırmacılarının bir AI sisteminin güvenilir olup olmadığına karar vermelerini sağlar. Tee şeffaf modeller için yapmasa da, düzensiz veya bilinmeyen davranış risklerinin üretim ortamlarına ulaşmamasını sağlar.

4. Güvenli Eğitim Veri Boru Hattı Oluşturma

Modeller statik değildir ve aldıkları verilerle şekillenir. Bu nedenle, veri zehirlenmesi, yeniden eğitilmesi gereken ML modelleri için sürekli bir tehdittir.

Kuruluşlar, sürekli olarak güvenli bir veri hattını uygulamak için otomatik kontrolleri eğitim sürecine yerleştirmelidir. TEE’den gelen bilgileri ve modellerin nasıl davranması gerektiğine dair yönergeler, AI ve ML modelleri her yeni bilgiler verildiğinde bütünlük ve doğruluk açısından değerlendirilebilir.

Aynı şey kullanıcıların modeli de verdiği veri için de söylenebilir ve güvenlik liderleri, MLSECOPS programlarının esnekliği hakkında düzenli olarak kontroller yapmalıdır.

5. Model provenans ve tekrarlanabilirlik

Güncellenen eğitim verileri, yapılandırma kayması ve gelişen kütüphaneler, bir modelin istikrarını ve performansını izlemeyi zorlaştırır. Modelin önceki sürümlerinin, özellikle model kararında bir sorun ortaya çıktığında, izlenmesi veya hatta çoğaltılması imkansız hissedebilir.

Çözüm, güvenlik ekiplerinin sürüm kontrolü ve zaman içinde modelde değişiklik yapmasına izin verecek bir modelin soyunu oluşturmaktır. Bu, veri kümelerini, eğitim konfigürasyonlarının ayrıntılı anlık görüntülerini ve bir modelin bağımlılıklarını içerebilir. Modelin değişen doğası ve verileri nedeniyle kesin üreme mümkün olmadığında, kuruluşlar yaklaşık tekrarlanabilirliği hedeflemelidir. Bir modeli yeniden test etme ve karşılaştırılabilir sonuçlar elde etme yeteneği, bu modelin ilerlemesine olan güveni koruyacaktır.

6. Risk değerlendirmesinde zorluklar

Geleneksel yazılım için çalışan risk değerlendirme çerçeveleri, AI ve ML programlarının değiştirilebilir doğası için geçerli olmayacaktır. Geleneksel değerlendirmeler ML’ye özgü ödünleşmeleri, örneğin, doğruluk vs adalet, güvenlik ile açıklanabilirlik veya şeffaflık ile verimlilik ile açıklayamamaktadır.

Bu zorlukta gezinmek için, işletmeler modelleri duruma göre değerlendiriyorlar, risklerini tartmak için görevlerine bakmalı, durumlarını ve bağlamını kullanmalıdır. Bu kesinlikle risk değerlendirmesi yapmanın geleneksel bir yolu değildir, ancak modelin operasyonu ile ilgili kararlar bir önceliklendirme kültürü tarafından yönlendirilmelidir. Fonksiyonel işbirliği de değerlendirme için anahtardır ve ML mühendislerini, güvenlik ekiplerini ve politika liderlerini modeli denetlemek için çekmek güvenliği artıracaktır.

Hareketli hedefe vurmak

Bir işletme AI ve ML iş akışlarından yararlanmak istiyorsa, MLSECOP’ları da bu programın ayrılmaz bir parçası olarak görmelidirler.

Bu altı zorluk AI güvenliğinin karmaşıklığını vurgular, ancak kuruluşların gerçekten hava geçirmez, güvenilir MLSECOP’lar oluşturmaları için bir fırsat yaratırlar.

Güvenliğe doğru ilk adım, mevcut güvenlik uygulamalarının sınırlamalarını kabul etmek ve AI ve ML’nin benzersizliğini ele almak için yeni kurallar oluşturmaktır. Sonunda, kuruluşlar MLSECOP’ları sorumlu AI dağıtımının temel taşı olarak görecekler, ancak bu, güvenlik liderlerinin bugün güvenlik ve güven için daha yüksek bir standart için harekete geçmesini gerektiriyor.



Source link