Aiboms yeni SBOMS: AI risk yönetiminde eksik bağlantı


Bu yardımcı net güvenlik görüşmesinde, Manifest Cyber CEO’su Marc Frankel, zehirli eğitim verileri ve Gölge AI gibi AI’ye özgü risklerin, geleneksel araçların tespit edilemediği güvenlik sorunlarına nasıl yol açabileceğini tartışıyor. Yapay zeka faturalarının (AIBOMS) SBOM’ları veri kümelerine, model ağırlıklarına ve üçüncü taraf entegrasyonlarına şeffaflık sağlamak için nasıl genişlettiğini, yönetişimi ve olay tepkisini geliştirdiğini açıklıyor.

Frankel ayrıca kuruluşların yönetici sınıfı görünürlüğünü elde etmek ve AI tedarik zinciri hijyeni korumak için atması gereken adımları da özetlemektedir.

Aiboms

Zehirli eğitim verileri, model sürüklenmesi veya gölge AI kullanımı gibi yapay zekaya özgü risklerin geleneksel takımlarla göz ardı edildiği, ancak daha sonra önemli bir iş veya güvenlik sorunu olarak ortaya çıktığı gerçek dünya bir örneğiyle bize yol açabilir misiniz?

Kesinlikle. LAION-5B durumu bunun oldukça korkunç bir örneğidir. LAION-5B, kararlı difüzyon, Dall-E 2 ve işletmelerin bugün kullandığı sayısız diğer görüntü üretme sistemleri gibi son derece popüler modellerin temelini oluşturan büyük bir 5.85 milyar görüntü metni veri kümesidir. Stanford araştırmacıları, LAION-5B’nin uygun filtreleme olmadan internetten kazınmış yaklaşık 1.600 çocuk cinsel istismarı materyali içerdiğini keşfetti. Korkunç kısım, bunun sadece bir veri kümesi sorunu olmadığıdır. LAION-5B üzerinde eğitilen her AI modeli potansiyel olarak bu zehirli verileri miras aldı ve geleneksel güvenlik tarama araçlarının onu tespit etmenin kesinlikle bir yolu yoktu.

Bunu daha da kötüleştiren, LAION-5B sayısı ortaya çıktığında, çoğu şirketin uygulamalarının hangi uygulamalarının etkilendiğini izlemenin sistematik bir yolu olmadığıdır. “Organizasyonumuzda herhangi bir yerde istikrarlı difüzyon kullanıyor muyuz?” veya “Uygulamalarımızdan hangisi etkilenebilir?” Çoğu kuruluş, veri soyunu orijinal eğitim setine kadar izlemesiyle, hangi uygulamaların etkilenen modelleri içerdiğini bile belirleyemedi.

AIBOM’lar yazılım sbomlarından yapı ve işlev bakımından nasıl farklılık gösterir? Eğitim veri kümeleri, model ağırlıkları veya üçüncü taraf API’ler gibi hangi bileşenler CISO’ların izlemesi için en kritiktir? Bir AIBOM’un şeffaflık veya olay tepkisinin önemli ölçüde iyileştirilmesi durumunda bir kullanım durumunu paylaşabilir misiniz?

AIBOM’lar geleneksel SBOM’larla aynı formatları takip eder, ancak model ailesi, kabul edilebilir kullanım, AI’ya özgü lisanslar vb. Gibi AI’ya özgü içerik ve meta veriler içerir. Büyük bir savunma yüklenicisinde bir güvenlik lideri iseniz, model geliştiricileri ve menşe ülkelerini belirleme yeteneğine ihtiyacınız olacak. Bu, Çin gibi yakın düşman ülkelerinden kaynaklanan modelleri kullanmamanızı sağlayacaktır.

Özellikle finans, sağlık veya kritik altyapı gibi sektörlerde ne tür rekabetçi veya operasyonel faydalar yaşıyor? Tedarik, ortaklıklar veya ürün farklılaşmasında AI uyumluluğu olgunluğundan nasıl yararlanıyorlar?

Birkaç tane var. İlk ve en önemlisi, modelleri onaylamak için gereken süreyi ve çabayı önemli ölçüde azaltır. Bugün tipik bir girişimde, bir geliştirici yeni bir model kullanmak istiyorsa, istek haftalar alabilecek bir onay için bir inceleme sürecinden geçer. Bu inceleme süreci son derece deneyimli ve değerli bir ekip veya ekip üyesi tarafından yapılmalıdır. AIBOM’ları kullanmak ve kurumsal politikaların uygulanması bunu otomatik olarak iki tıklama soruna dönüştürür.

İkincisi yönetişimdir. Erken Aibom benimseyenler “Deepseek’i herhangi bir yerde mi kullanıyoruz?” Gibi soruları cevaplayabilir. Veya “Modellerimle ilişkili bir fikri mülkiyet riski var mı?” saniyeler içinde. Dünya çapında, AB’nin AI Yasası’ndan Kaliforniya Meclisi Bill 2013’üne ve son zamanlarda Taslak Ulusal Savunma Yetkilendirme Yasası’na (NDAA), AI satıcılarını AI uygulamaları etrafında şeffaflık sağlamaya zorlamaktadır.

Son olarak, üçüncüsü güvenlik. LAION-5B tipi bir senaryo veya Deepseek veya kaçınılmaz bir sonraki AI güvenlik tehdidi olduğunda, AIBOM benimseyenler için iyileştirilecek ortalama süreler ve ortalama süreler, AI envanterleri olmayan işletmelerinkinden daha düşük büyüklük sıraları olacaktır.

Dağıtımlı AI sistemleri söz konusu olduğunda “yönetici sınıfı görünürlüğü” neye benziyor? Kurul düzeyinde paydaşların riske maruz kalmayı ve hesap verebilirliği anlamalarına yardımcı olmak için CISOS’un ne gibi metrikler, gösterge tabloları veya yönetişim eserleri zorlamalıdır?

Yönetici sınıfı AI görünürlüğü, kurulların haftalar değil gerçek zamanlı olarak iş açısından kritik sorulara açık cevaplar almasını sağlar. Temellerle başlayın:

  • “Modellerimizden herhangi biri Çin, Rusya veya İran’dan geliyor mu?”
  • “Yapay zekemizden herhangi biri artık desteklenmeyen eski modeller üzerine inşa ediliyor mu?”
  • “Bu modelleri ve veri kümelerini sektörümüzde kullanma hakkımız var mı?”
  • “AI gemimizden herhangi biri yazılım güvenlik açıklarına sahip mi?”
  • “Tüm modellerimizin ve veri kümelerimizin tam envanteri nerede?”

Bu temelleri indirdikten sonra, şöyle daha üst düzey sorular sormaya başlamanın zamanı geldi:

  • “Geliştirici kodumuzda Shadow AI’yi tanımlama sürecimiz nedir?”
  • “Bu gelişmekte olan yönetmeliklere uyum sürecimiz nedir?”
  • “Zehirli bir veri kümesi veya model keşfedersek yanıt süremiz ne olurdu?”

Çoğu kurul bugün bu temel soruları cevaplayamıyor çünkü yapay zekada şeffaflık yok. Onlara hızla cevap verebilecek kuruluşların büyük bir rekabet avantajı vardır. AI’yi daha hızlı bir şekilde konuşlandırabilir, olaylara tam olarak yanıt verebilir ve operasyonlarını bozmadan düzenleyici uyumluluğu koruyabilirler.

Yürütme sınıfı görünürlüğü ile teknik raporlama arasındaki fark basittir: yöneticilerin güvenlik açığı önemli değil, iş etkisini ve risk önceliklendirmesini anlamaları gerekir.

Gizli AI varlıklarını yüzeye çıkarmak ve yönetmek için kuruluşlar hangi adımları atabilir? AI tedarik zinciri hijyeninde envanter ve sınıflandırma nasıl rol oynar?

İlk adım AI’larını envanter. AI bağımlılıklarınızı envanter için AIBOM’lardan yararlanın, onaylanan ve istenen ve reddedilen neyin izlenmesini izleyin ve nerede konuşlandırıldığını anladığınızdan emin olun.

İkincisi, çalışanların keşfetmesini beklemek yerine AI’yi aktif olarak aramaktır. Kuruluşlar, koddaki AI’yı tanımlamak ve otomatik olarak ortaya çıkan aibom oluşturmak için yeteneklere ihtiyaç duyarlar. Bu, aibom oluşturmak ve meydana geldiğinde otomatik olarak yeni AI kullanımını ortaya çıkarmak için MLOPS boru hattının bir parçası olarak entegre edilmelidir.

Üçüncüsü, sorumlu AI politikalarını geliştirmek ve benimsemektir. Bazıları oldukça sağduyuludur: OFAC ülkelerinden katkıda bulunanlar, kopyalanmış lisans yok, Huggingface’de üç aylık bir sicili olmayan modellerin kullanımı yok ve güncellemeler olmadan bir yıl boyunca model kullanımı yok. Ardından, bu politikaları otomatik ve ölçeklenebilir bir sistemde uygulamak.

Anahtar, reaktif keşiften proaktif izlemeye geçmektir. Çoğu kuruluş, yalnızca bir şeyler ters gittiğinde veya manuel denetimler sırasında AI kullanımını keşfeder. Bu noktada, zaten riske maruz kalıyorsunuz. Otomatik tespit ve politika uygulama AI yönetişimi bir uyum tatbikatından operasyonel zekaya dönüştürerek daha hızlı ve daha güvenli bir AI benimsemesini sağlayarak dönüştürmektedir.



Source link