NIST, yapay zeka sistemlerinde siber güvenlik risklerini yönetmek için yeni kontrol dengelemeleri yayınladı


Ulusal Standartlar ve Teknoloji Enstitüsü (NIST), yapay zeka sistemleriyle ilişkili artan siber güvenlik zorluklarını ele almak için yeni bir konsept makalesinin piyasaya sürülmesi ve AI sistemlerini güvence altına almak için tasarlanmış NIST SP 800-53 kontrol kaplamaları geliştirmek için önerilen eylem planı ile ilgili kapsamlı bir girişim sundu.

Yeni çerçeve kritik yapay zeka güvenlik boşluklarını ele alıyor

Konsept makalesi, AI teknolojileri giderek kritik altyapı ve iş operasyonlarına entegre hale geldikçe, NIST’in standart siber güvenlik kontrollerine acil ihtiyaç duyulmasına verilen yanıtını temsil etmektedir.

Önerilen kontrol denetimleri, NIST’in yerleşik SP 800-53 güvenlik kontrol çerçevesi üzerine inşa edilecek ve kanıtlanmış metodolojisini AI sistemleri tarafından sunulan benzersiz riskleri ele almak için genişletecektir.

Girişim, içerik oluşturan üretken AI uygulamaları, karar verme için kullanılan öngörücü AI sistemleri ve hem tek hem de çok ajan AI mimarileri dahil olmak üzere birden fazla AI dağıtım senaryosunu hedefler.

Ek olarak, çerçeve, AI geliştiricileri için belirli kontrolleri ele alır ve güvenliğin, sonradan düşünülmesi yerine AI geliştirme yaşam döngüsü boyunca yerleşik olması gerektiğini kabul eder.

NIST, topluluk katılımını ve bu kritik güvenlik kontrollerinin işbirlikçi gelişimini kolaylaştırmak için “NIST AI (#NIST-Overlayles-Securing-ai)” başlıklı özel bir Slack kanalı başlattı.

Bu platform, siber güvenlik ve AI topluluklarından paydaşların uzmanlıklarına katkıda bulunmalarını, NIST baş araştırmacılarıyla kolaylaştırılmış tartışmalara katılmalarını ve gelişen çerçeve hakkında gerçek zamanlı geri bildirim sağlamalarını sağlar.

İşbirlikçi yaklaşım, NIST’in AI sistemlerinin güvence altına alınmasının, güvenlik araştırmacıları, AI geliştiricileri, sistem yöneticileri ve risk yönetimi profesyonelleri de dahil olmak üzere çeşitli perspektiflerden girdi gerektirdiğini kabul eder.

Slack kanalı aracılığıyla katılımcılar düzenli güncellemelere erişebilir, teknik tartışmalara girebilir ve gerçek dünya uygulama deneyimlerine dayanarak nihai kontrol denetimlerini şekillendirebilir.

Bu girişimin zamanlaması, hızlı enjeksiyon saldırıları, model zehirlenmesi, AI arayüzleri aracılığıyla veri eksfiltrasyonu ve AI karar verme süreçlerini manipüle etmek için tasarlanmış rakip saldırılar dahil olmak üzere AI’ya özgü güvenlik açıklarının tanınması ile çakışır.

Geleneksel siber güvenlik çerçeveleri, bu yeni saldırı vektörlerini ele alırken genellikle yetersiz kalır ve özel kontroller için acil bir ihtiyaç yaratır.

Önerilen kaplamalar, kuruluşların AI dağıtımlarını korumak için uygulayabilecekleri eyleme geçirilebilir güvenlik kontrolleri sağlarken, AI Risk Yönetimi Çerçevesi (AI RMF 1.0) gibi mevcut NIST çerçevelerini tamamlayacaktır.

Bu girişim, AI siber güvenliğine standartlaştırılmış yaklaşımların oluşturulmasında önemli bir adımdır ve potansiyel olarak dünya çapındaki kuruluşların AI uygulamasının güvenlik zorluklarına nasıl yaklaştılar.

Bu haberi ilginç bul! Anında güncellemeler almak için bizi Google News, LinkedIn ve X’te takip edin!



Source link