NIST, kullanımda siber güvenlik risklerini ve AI sistemlerinin gelişmelerini yönetmek için kontrol denetimlerini serbest bırakır


NIST, kontrol denetimlerini serbest bırakır

Ulusal Standartlar ve Teknoloji Enstitüsü (NIST), yapay zeka uygulamaları için standart siber güvenlik çerçeveleri oluşturmada önemli bir kilometre taşını işaretleyerek, AI sistemlerini güvence altına almak için önerilen NIST SP 800-53 kontrol denetimlerini özetleyen kapsamlı bir konsept makalesini açıklamıştır.

14 Ağustos 2025’te piyasaya sürülen bu girişim, hem AI sistemi geliştirme hem de dağıtım aşamalarında yapılandırılmış risk yönetimi yaklaşımlarına yönelik artan ihtiyaca, üretken AI, öngörücü AI ve çok ajan AI mimarilerini kapsamaktadır.

Key Takeaways
1. NIST released Control Overlays for AI cybersecurity risk management.
2. Covers generative/predictive AI and single/multi-agent systems.
3. COSAIS project launched with Slack channel for stakeholder collaboration

AI güvenlik kontrolleri için kapsamlı çerçeve

Yeni yayınlanan konsept makalesi, NIST SP 800-53 kontrol çerçevesi aracılığıyla çeşitli AI uygulamalarında siber güvenlik risklerini yönetmek için bir temel oluşturuyor.

Google Haberleri

Önerilen kaplamalar özellikle dört kritik kullanımı hedeflemektedir: içerik oluşturan üretken AI sistemleri, tahmin ve analiz için öngörücü AI modelleri, tek ajan AI uygulamaları ve koordineli yapay zeka varlıklarını içeren çok ajan AI sistemleri.

Bu kontrol denetlemeleri, veri zehirlenmesi saldırıları, model ters çevirme teknikleri ve çekişmeli makine öğrenme tehditleri dahil olmak üzere AI sistemlerinde bulunan benzersiz güvenlik açıklarını ele almak için mevcut NIST siber güvenlik çerçevesini genişletir.

Çerçeve, AI modeli doğrulama prosedürleri, eğitim veri bütünlüğü kontrolleri ve algoritmik şeffaflık gereksinimleri gibi temel teknik bileşenleri içerir.

Bu kaplamaları uygulayan kuruluşların, AI sistemi davranışı için sürekli izleme mekanizmaları oluşturmaları, AI geliştirme ortamları için uygun erişim kontrolleri uygulaması ve model eğitimi ve dağıtım süreçleri için kapsamlı denetim yollarını koruması gerekecektir.

Kontrol Denetimi

Kaplamalar ayrıca, düzenli güvenlik değerlendirmeleri ve özellikle AI ile ilgili güvenlik olayları için hazırlanmış olay müdahale prosedürleri de dahil olmak üzere AI risk yönetimi için açık yönetişim yapıları oluşturmanın önemini de vurgulamaktadır.

NIST, paydaş işbirliğini ve gerçek zamanlı geri bildirim koleksiyonunu kolaylaştırmak için özel bir Slack kanalının (#NIST-Overlayles-Securing-ai) yanı sıra AI Projesi (COSAIS) için Kontrol Denetlemeleri’ni başlattı.

Topluluk odaklı bu yaklaşım, siber güvenlik profesyonellerinin, AI geliştiricilerinin ve risk yönetimi uzmanlarının, NIST baş araştırmacılarıyla kolaylaştırılmış tartışmalar yoluyla doğrudan kaplama geliştirme sürecine katkıda bulunmalarını sağlar.

Uygulama stratejisi, üretim ortamlarında AI sistemlerini güvence altına almanın pratik zorlukları hakkında bilgi verebilecek endüstri paydaşlarından aktif katılımı teşvik etmektedir.

İşbirlikçi çerçeve, nihai kontrol denetlemelerinin, yerleşik NIST siber güvenlik standartlarına ve kurumsal risk yönetimi için en iyi uygulamalarla uyum sağlaması durumunda gerçek dünyadaki güvenlik gereksinimlerini yansıtmasını sağlar.

Safely detonate suspicious files to uncover threats, enrich your investigations, and cut incident response time. Start with an ANYRUN sandbox trial → 



Source link