Ajansal Yapay Zeka, Yapay Zeka ve Makine Öğrenimi, Yeni Nesil Teknolojiler ve Güvenli Geliştirme
NIST, Devlet ve Kritik Altyapıda Kullanılan Yapay Zeka Sistemlerini Korumak İçin Girdi Arıyor
Chris Riotta (@chrisriotta) •
12 Ocak 2026

ABD Ulusal Standartlar ve Teknoloji Enstitüsü, kullanımları ve potansiyel riskleri hükümet ve kritik altyapı ağlarında genişledikçe, ajansal yapay zeka sistemlerinin güvenliğinin nasıl sağlanacağı konusunda kamuoyunun katkısını arıyor.
Ayrıca bakınız: Kavram Kanıtı: Bot mu, Alıcı mı? Perakendede Kimlik Krizi
Perşembe günü yayınlanan bir bildirimde, NIST’in Yapay Zeka Standartları ve İnovasyon Merkezi, endüstriden, araştırmacılardan ve sistem operatörlerinden, ajan yapay zeka sistemlerine bağlı güvenlik riskleri ve azaltma stratejileri hakkında değerlendirme yapmalarını isteyen bir bilgi talebi yayınladı. Enstitü, yapay zeka aracılarını, bir veya daha fazla üretken yapay zeka modelini, bazen birden fazla koordineli alt aracı aracılığıyla planlama ve isteğe bağlı eyleme olanak tanıyan iskele yazılımıyla birleştiren herhangi bir yapay zeka sistemi dağıtımı olarak tanımlıyor.
Ajanslı AI sistemleri, geleneksel yazılımlardan veya ajan olmayan AI araçlarından önemli ölçüde farklı olan güvenlik risklerini ortaya çıkarabilir. Ajans sistemleri, kamu güvenliğini zayıflatabilecek, tüketici güvenini aşındırabilecek ve gelişmiş yapay zeka teknolojilerinin benimsenmesini engelleyebilecek korsanlık, arka kapı saldırıları ve diğer istismarlara karşı hassas olabilir.
Güvenlik liderleri, Information Security Media Group’a, federal kurumların GenAI’yi ve yeni ortaya çıkan teknoloji yeteneklerini onları korumak için tasarlanan kontrollerden daha hızlı dağıtması nedeniyle bu risklerin halihazırda gerçekleşmeye başladığını söyledi. Qualys’in siber tehdit istihbaratı baş ürün müdürü April Lenhard, yapay zeka zayıflıklarının gerçek dünyadaki olaylarda giderek daha görünür hale geldiğini söyledi.
Lenhard, “Federal yapay zeka güvenliğinin bir sonraki aşaması, uyarıları takip etmeyi bırakıp görev odaklı riskleri yönetmeye doğru ilerlemektir” dedi. Veri zehirlenmesi, anında enjeksiyon ve model kayması gibi risklere yönelik kontroller olmadan GenAI veya AI analitiğini dağıtan kurumlar, “kendilerini potansiyel olarak uyarıları yeniden yazan, hassas verileri sızdıran ve hatta savunmaları devre dışı bırakan düşmanlara maruz bırakıyor.”
NIST isteği, veri zehirlenmesi ve dolaylı anlık enjeksiyonun yanı sıra kasıtlı olarak yerleştirilmiş arka kapılarla dağıtılan modellerin riski de dahil olmak üzere ajan yapay zeka sistemlerinin güvenli olmayan kullanımıyla bağlantılı çeşitli potansiyel tehditleri açıklıyor. Kuruluş, tavizsiz modellerin bile spesifikasyon oyunları veya yanlış hizalanmış hedeflerin peşinde koşma yoluyla gizliliği, bütünlüğü veya kullanılabilirliği tehdit edecek şekilde davranabileceğine dair endişelerini işaret etti.
NIST, bilgi talebinin, AI ajan sistemlerini yüksek etkili hükümet fonksiyonlarına derinlemesine entegre olmadan önce daha iyi güvence altına almak için kurumun teknik kılavuzlar, değerlendirme yöntemleri ve en iyi uygulamaları geliştirmesine yardımcı olmayı amaçladığını söyledi. Bildirimde, ajansal yapay zekanın ek kontroller gerektiren yeni zorluklar ortaya çıkarmasına rağmen, en az ayrıcalık ve sıfır güven mimarileri gibi yerleşik siber güvenlik ilkelerinden yararlanılarak mevcut hafifletme teknikleri açıklanıyor. Yeni teknoloji, araç kullanımında kısıtlamalar, daha sıkı veri sınırları ve model davranışının sürekli izlenmesini gerektirebilir.
NIST aynı zamanda bulut, şirket içi ve uç sistemler de dahil olmak üzere dağıtım ortamlarında güvenlik risklerinin nasıl değiştiğine ve birden fazla modelde eylemleri koordine eden çok aracılı sistemleri tanıtarak eklenen karmaşıklığa ilişkin girdi arıyor.
Bu talep, Beyaz Saray yönetiminin geçen yıl federal kurumlarda yapay zeka kullanımını hızla genişletmesi, görev desteği, analitik ve hizmet sunumu için üretken ve ajansal yapay zeka yeteneklerinin benimsenmesini hızlandırmak için tasarlanmış kurumlar arası deneysel girişimler ve pilot programlar başlatmasıyla geldi. Bu çabalar, yapay zeka dağıtımını artırırken yinelemeyi azaltmayı amaçlayan paylaşımlı hizmet tarzı girişimleri de içeriyor (bkz: Çin, Yapay Zeka ve Federal Geri Çekilme 2026 Siber Gündemini Belirledi).
Paydaşların yanıtlarını Regulatory.gov aracılığıyla iletmeleri için 9 Mart’a kadar süreleri var.