Yapay Zeka ve Makine Öğrenimi, Yeni Nesil Teknolojiler ve Güvenli Geliştirme
Ajans, Nesil Yapay Zeka Risk Yönetimi ve Kırmızı Ekip Çalışmaları Hakkında Bilgi Çağrısında Bulundu
Rashmi Ramesh (raşmiramesh_) •
20 Aralık 2023
ABD Ulusal Standartlar ve Teknoloji Enstitüsü, yapay zekaya yönelik koruma önlemleri isteyen Ekim ayındaki Beyaz Saray yürütme emrinin uygulanması konusunda kamuoyundan rehberlik talep ediyor.
Ayrıca bakınız: BT ve Güvenlikte Yapay Zekanın Geleceği Nedir?
Başkan Joe Biden’ın emri, kuruma, yapay zeka geliştiricileri için, “özellikle çift kullanımlı temel modeller” için, kırmızı takım testleri yürütme konusunda yönergeler oluşturma talimatı veriyor. Biden, ulusal güvenlik, ulusal ekonomik güvenlik veya ulusal kamu sağlığı ve güvenliği açısından potansiyel olarak ciddi riskler oluşturabilecek yapay zeka modelleri geliştiren şirketlerin test sonuçlarını federal hükümetle paylaşmalarını talep ederek Soğuk Savaş dönemindeki yürütme yetkilerine başvurdu (bkz: Biden’ın Sağlam Yapay Zeka Yönetici Kararı Neden 2024’te Yetersiz Kalabilir?).
Ticaret Bakanı Gina Raimondo, “Başkan Biden netti: Yapay zeka neslimizin belirleyici teknolojisidir ve insanları risklerinden korurken yapay zekanın gücünden iyilik için yararlanma yükümlülüğümüz var” dedi.
Beyaz Saray, harici kırmızı ekip oluşturmayı “yeni yapay zeka risklerini tanımlamak için etkili bir araç” olarak görüyor ve yakın zamanda DEF CON sırasında gerçekleştirilen halka açık bir kırmızı ekip oluşturma etkinliğini destekledi. Beyaz Saray, türünün ilk örneği olan etkinlikte, sistemlerin oluşturduğu riskleri anlamak amacıyla sistemlerin istenmeyen çıktılar üretmesini sağlayıp sağlayamayacaklarını görmek için binlerce katılımcının “LLM’leri dürttüğünü ve dürttüğünü” söyledi.
Sipariş aynı zamanda NIST’e üretken yapay zeka risk yönetimi çerçevesi ve üretken yapay zeka ve çift kullanımlı temel modeller için güvenli bir yazılım geliştirme çerçevesi için fikir birliği endüstri standartları bulma konusunda da yön verdi.
Kamuoyu, bilgi talebine ilişkin geri bildirimlerini 2 Şubat’a kadar paylaşabilecek.
Bilgi talebi, ajansın, NIST’in ait olduğu Ticaret Bakanlığı’na verilen emirle, sentetik içeriğin etiketlenmesi ve tespit edilmesine yönelik mevcut ve potansiyel olarak gelecekteki araçlar hakkında bir rapor geliştirmek üzere atanan bir görevi üstlendiğini söylüyor. Karar, üretken yapay zekanın çocuklara yönelik cinsel istismar materyalleri veya gerçek kişilerin rızası olmadan mahrem görüntüleri gibi zararlı içerik üretmesini önlemeye yönelik yöntemler arıyor. 2019 tarihli bir rapor, deepfake çevrimiçi videoların %96’sının kadınların yer aldığı rıza dışı pornografi içerdiğini ortaya çıkardı.
Ulusal güvenlik, ekonomik güvenlik, kamu sağlığı veya güvenliği açısından ciddi risk oluşturan temel modeller geliştiren şirketlerin, modellerini eğitirken federal hükümete bildirimde bulunmaları ve sonuçları paylaşmaları ilk kez “olumlu bir gereklilik” olarak görülüyor. Hunton Andrews Kurth’un ortağı ve şirketin küresel gizlilik ve siber güvenlik uygulamalarının başkanı Lisa Sotto, kırmızı takım güvenlik testlerinin yapıldığını söyledi. Information Security Media Group’a bunun ABD’deki yapay zeka modellerinin gelişimi üzerinde “derin” bir etkisi olacağını söyledi.
NIST, yapay zekayı doğrudan düzenlemese de, düzenlemeyi bilgilendirmede ve teknolojinin sorumlu kullanımı ve geliştirilmesinde önemli rol oynayan çerçevelerin, standartların, araştırmaların ve kaynakların geliştirilmesine yardımcı olur. Bu yılın başlarında yayımlanan yapay zeka risk yönetimi çerçevesi, yapay zeka teknolojileriyle ilişkili risklerin yönetilmesi için kapsamlı bir çerçeve sağlamayı amaçlıyor. Yapay zeka algoritmalarındaki önyargıya ilişkin son raporu, kuruluşların potansiyel azaltma stratejileri geliştirmelerine yardımcı olmayı amaçlıyor ve Mart ayında başlatılan Güvenilir ve Sorumlu Yapay Zeka Kaynak Merkezi, NIST’in yapay zeka faaliyetleri hakkında merkezi bir bilgi deposudur.