AI RMF bir NIST için Kongre’den talimat çerçeveyi geliştirmek için özel sektör ve kamu sektörü ile yakın işbirliği içinde üretilmiştir. Teknolojiler gelişmeye devam ettikçe yapay zeka ortamına uyum sağlamak ve toplumun yapay zeka teknolojilerinden yararlanırken aynı zamanda potansiyel zararlarından korunması için farklı derecelerde ve kapasitelerde kuruluşlar tarafından kullanılması amaçlanmaktadır.
Ticaret Sekreteri Yardımcısı Don Graves, “Bu gönüllü çerçeve, AI teknolojilerinin Amerika Birleşik Devletleri, diğer ülkeler ve kuruluşların AI güvenilirliğini artırırken riskleri demokratik değerlerimize dayalı olarak yönetmesini sağlayacak şekilde geliştirilmesine ve dağıtılmasına yardımcı olacaktır” dedi. “Herkes için sivil hakları, sivil özgürlükleri ve eşitliği kısıtlamak veya bunlara zarar vermek yerine – geliştirirken AI inovasyonunu ve büyümesini hızlandırmalı.”
Geleneksel yazılımla karşılaştırıldığında, yapay zeka bir dizi farklı risk taşır. Yapay zeka sistemleri, zaman içinde bazen önemli ölçüde ve beklenmedik şekilde değişebilen ve sistemleri anlaşılması zor şekillerde etkileyen veriler üzerinde eğitilir. Bu sistemler aynı zamanda doğası gereği “sosyo-teknik”tir, yani toplumsal dinamiklerden ve insan davranışlarından etkilenirler. Yapay zeka riskleri, bu teknik ve toplumsal faktörlerin karmaşık etkileşiminden ortaya çıkarak, çevrimiçi sohbet robotlarıyla deneyimlerinden iş ve kredi başvurularının sonuçlarına kadar değişen durumlarda insanların yaşamlarını etkileyebilir.
Çerçeve, kuruluşları yapay zeka ve risk hakkında farklı düşünmeleri için donatıyor. Kurumsal kültürde bir değişikliği teşvik ederek, kuruluşları yapay zekaya yeni bir bakış açısıyla yaklaşmaya teşvik eder — yapay zeka riskleri ve potansiyel olumlu ve olumsuz etkileri hakkında nasıl düşünüleceği, iletileceği, ölçüleceği ve izleneceği dahil.
AI RMF, kuruluşların AI risklerini ele almasını sağlayacak esnek, yapılandırılmış ve ölçülebilir bir süreç sağlar. Yapay zeka risklerini yönetmek için bu süreci takip etmek, bireyler, gruplar, topluluklar, kuruluşlar ve toplum üzerindeki olumsuz etki olasılığını azaltırken yapay zeka teknolojilerinin faydalarını en üst düzeye çıkarabilir.
Standartlar ve Teknoloji Müsteşarı ve NIST Direktörü Laurie E. Locascio’ya göre, çerçeve, NIST’in yapay zeka teknolojilerine olan güveni artırmaya yönelik daha büyük çabasının bir parçası – teknolojinin toplum tarafından geniş çapta kabul görmesi için gerekli.
Locascio, “Yapay Zeka Risk Yönetimi Çerçevesi, her sektördeki ve her büyüklükteki şirketlere ve diğer kuruluşlara yapay zeka risk yönetimi yaklaşımlarını hızlı bir başlangıç yapma veya geliştirme konusunda yardımcı olabilir” dedi. “Güvenilir ve sorumlu yapay zekayı operasyonel hale getirmek için sorumlu uygulamaları ve eyleme geçirilebilir rehberliği entegre etmenin yeni bir yolunu sunuyor. AI RMF’nin en iyi uygulamaların ve standartların geliştirilmesine yardımcı olmasını bekliyoruz.”
AI RMF iki bölüme ayrılmıştır. İlk bölüm, kuruluşların yapay zeka ile ilgili riskleri nasıl çerçeveleyebileceğini tartışıyor ve güvenilir yapay zeka sistemlerinin özelliklerini özetliyor. Çerçevenin özü olan ikinci bölüm, kuruluşların pratikte yapay zeka sistemlerinin risklerini ele almasına yardımcı olmak için dört özel işlevi (yönetme, haritalama, ölçme ve yönetme) açıklar. Bu işlevler, bağlama özgü kullanım durumlarında ve yapay zeka yaşam döngüsünün herhangi bir aşamasında uygulanabilir.
Özel sektör ve kamu sektörü ile yakın işbirliği içinde çalışan NIST, AI RMF’yi 18 ay boyunca geliştirmek. Belge hakkında yansıtır 400 set resmi yorum NIST, 240’tan fazla farklı kuruluştan alındı çerçevenin taslak sürümleri. NIST bugün yayınlandı bazı kuruluşlardan açıklamalar çerçeveyi kullanmayı veya tanıtmayı zaten taahhüt etmiş olan.
Ajans ayrıca bugün gönüllü olarak bir refakatçi yayınladı Çerçevede gezinme ve kullanma yolları öneren AI RMF Başucu Kitabı.
NIST, çerçeveyi periyodik olarak güncellemek için yapay zeka topluluğuyla birlikte çalışmayı planlıyor ve herhangi bir zamanda başucu kitabına yapılacak eklemeler ve iyileştirmeler için önerileri memnuniyetle karşılıyor. 2023 Şubat ayının sonuna kadar alınan yorumlar, 2023 baharında yayınlanacak olan başucu kitabının güncellenmiş bir versiyonuna dahil edilecektir.
Ayrıca NIST, kuruluşların AI RMF 1.0’ı uygulamaya koymasına yardımcı olmak için Güvenilir ve Sorumlu bir AI Kaynak Merkezi başlatmayı planlıyor. Ajans, kuruluşları kendi özel bağlamlarında nasıl kullanacaklarına dair profiller geliştirmeye ve paylaşmaya teşvik ediyor. Gönderimler şu adrese gönderilebilir: [email protected].
NIST, ek rehberlik geliştirmek için şirketler, sivil toplum, devlet kurumları, üniversiteler ve diğerleriyle çalışmalarını sürdürmeye kararlıdır. Ajans bugün bir bu iş için yol haritası.
Çerçeve, NIST’in geniş ve büyüyen portföyünün bir parçasıdır. AI ile ilgili çalışma ölçüm ve değerlendirmeye, teknik standartlara ve yapay zeka politikasına katkılara odaklanmanın yanı sıra temel ve uygulamalı araştırmaları içerir.