NIST, yapay zeka yeteneklerini ve etkilerini değerlendirmek ve doğrulamak için ARIA’yı duyurdu


Ulusal Standartlar ve Teknoloji Enstitüsü (NIST), yapay zekanın yeteneklerinin ve etkilerinin anlaşılmasını geliştirmeye yardımcı olmayı amaçlayan yeni bir test, değerlendirme, doğrulama ve doğrulama (TEVV) programı başlatıyor.

NIST ARIA

Yapay Zeka Risklerinin ve Etkilerinin Değerlendirilmesi (ARIA), kuruluşların ve bireylerin, belirli bir yapay zeka teknolojisinin uygulamaya konduktan sonra geçerli, güvenilir, emniyetli, güvenli, özel ve adil olup olmayacağını belirlemelerine yardımcı olmayı amaçlamaktadır. Program, NIST’in güvenilir yapay zekaya ilişkin Yönetici Emri’nin 180 günlük işareti ve ABD Yapay Zeka Güvenliği Enstitüsü’nün stratejik vizyonunu ve uluslararası güvenlik ağını açıklamasıyla ilgili yakın zamanda yaptığı birkaç duyurudan kısa bir süre sonra geldi.

ABD Ticaret Bakanı Gina Raimondo, “Yapay zekanın toplumumuz üzerinde yarattığı ve yaratacağı etkileri tam olarak anlamak için yapay zekanın gerçekçi senaryolarda nasıl çalıştığını test etmemiz gerekiyor ve bu programla yaptığımız da tam olarak bu” dedi.

Raimondo şöyle devam etti: “ARIA programı ve Başkan Biden’ın yapay zekaya ilişkin Yönetici Emri kapsamında Ticaret’in sorumluluklarını desteklemeye yönelik diğer çabalarla, NIST ve ABD Yapay Zeka Güvenliği Enstitüsü, konu yapay zekanın risklerini azaltmak ve faydalarını en üst düzeye çıkarmak olduğunda her türlü kolu kullanıyor.”

Standartlar ve Teknolojiden Sorumlu Ticaret Müsteşarı ve NIST Direktörü Laurie E. Locascio, “ARIA programı, yapay zeka teknolojisinin kullanımı arttıkça gerçek dünyadaki ihtiyaçları karşılamak üzere tasarlandı” dedi. “Bu yeni çaba, ABD Yapay Zeka Güvenlik Enstitüsü’nü destekleyecek, NIST’in araştırma topluluğuyla zaten geniş olan ilişkisini genişletecek ve yapay zekanın gerçek dünyadaki işlevselliğini test etmek ve değerlendirmek için güvenilir yöntemler oluşturmaya yardımcı olacak.”

ARIA, NIST’in Ocak 2023’te yayınladığı Yapay Zeka Risk Yönetimi Çerçevesini genişletiyor ve yapay zeka riskini ve etkilerini analiz etmek ve izlemek için niceliksel ve niteliksel tekniklerin kullanılmasını öneren çerçevenin risk ölçüm fonksiyonunun operasyonelleştirilmesine yardımcı oluyor. ARIA, bir sistemin toplumsal bağlamlarda güvenli işlevselliği ne kadar iyi koruduğunu ölçmek için yeni bir dizi metodoloji ve ölçüm geliştirerek bu risklerin ve etkilerin değerlendirilmesine yardımcı olacak.

NIST Bilgi Teknolojisi Laboratuvarı’nın ARIA program lideri Reva Schwartz, “Etkilerin ölçülmesi, bir modelin laboratuvar ortamında ne kadar iyi çalıştığından daha fazlasıdır” dedi. “ARIA, yapay zekayı modelin ötesinde ele alacak ve insanların düzenli kullanım altında gerçekçi ortamlarda yapay zeka teknolojisiyle etkileşime girdiğinde neler olacağı da dahil olmak üzere sistemleri bağlam içinde değerlendirecek. Bu, bu teknolojilerin net etkilerine ilişkin daha geniş ve daha bütünsel bir bakış açısı sağlıyor.”

ARIA’nın sonuçları, güvenli, emniyetli ve güvenilir yapay zeka sistemlerinin temelini oluşturmak için ABD Yapay Zeka Güvenlik Enstitüsü aracılığıyla NIST’in kolektif çabalarını destekleyecek ve bilgilendirecek.

Devamını oku: Bilmeniz gereken 25 siber güvenlik yapay zeka istatistiği



Source link