Yapay Zeka ve Makine Öğrenimi, Hükümet, Sektöre Özel
NTIA Yöneticisi, Yapay Zekanın Tam Potansiyelini Ortaya Çıkarmak İçin Sorumluluk Gerektiğini Söyledi
Chris Riotta (@chrisriotta) •
27 Mart 2024
Biden yönetimi, yüksek riskli yapay zeka sistemlerine yönelik zorunlu denetimler yapılması ve yanlış giden uygulamalara ilişkin sorumluluğun yapay zeka tedarik zincirinde nerede olması gerektiği konusunda daha fazla netlik sağlanması çağrısında bulunuyor.
Ayrıca bakınız: 2024'e Bakış: AML ve Mali Suçlara Uyumlulukta Küresel Eğilimler
Tavsiyeler, Çarşamba sabahı yayınlanan ve “sonuçlarla bağlantılı bir girdi zinciri olarak” hesap verebilirlik çağrısında bulunan Ulusal Telekomünikasyon ve Bilgi İdaresi raporundan geliyor.
“Gerçek hesap verebilirliğe ulaşmak ve yapay zekanın tüm faydalarından yararlanmak için Amerika Birleşik Devletleri ve dünyanın yeni ve daha yaygın olarak bulunabilen hesap verebilirlik araçlarına ve bilgilerine, bağımsız bir yapay zeka sistemi değerlendirme ekosistemine ve taahhütlerini yerine getiremeyenler veya taahhütlerini yerine getirmeyenler için sonuçlarına ihtiyacı var. 77 sayfalık raporda, riskleri doğru bir şekilde yönetmeniz gerektiği belirtiliyor.
NTIA Yöneticisi Alan Davidson yaptığı açıklamada, “Yapay zekanın tüm potansiyelini ortaya çıkarmak için hesap verebilirliğe ihtiyacımız var” dedi ve ajansın tavsiyelerinin “işletmelere, düzenleyicilere ve kamuoyuna, yapay zeka geliştiricilerini ve uygulayıcılarını yapay zeka risklerinden sorumlu tutma konusunda yetki vereceğini” ekledi.
Öneriler, Başkan Joe Biden'ın, Savunma Üretim Yasası'nın, yüksek riskli yapay zeka modellerinin geliştiricilerinin bu tür araçları eğitirken hükümete bildirimde bulunmalarını zorunlu kılan Ekim ayındaki yürütme emriyle uyumludur (bkz.: Beyaz Saray, Kapsamlı Yapay Zeka Yönetici Kararını Yayınladı).
NTIA yetkilileri Salı öğleden sonra gazetecilere verdiği demeçte, özel sektörün belirli yüksek riskli sistemlerin bağımsız denetimlerini memnuniyetle karşılaması gerektiğini çünkü bu denetimlerin halkın ve piyasanın güvenini artıracağını söyledi.
Raporda ayrıca, sağlık ve finans gibi yüksek riskli sektörlerde kullanılan yapay zeka modellerine yönelik iddiaların olası yayın öncesi sertifikasyonunun yanı sıra, modelin hala yapımcılarının iddia ettiği şeyi yaptığını doğrulamak için periyodik yeniden sertifikalandırma yapılması çağrısında da bulunuluyor.
NTIA, federal hükümetin, Gıda ve İlaç İdaresi tarafından zorunlu kılınan gıda etiketlerine benzer standartlaştırılmış bilgiler sunacak olan “AI beslenme etiketleri” gibi yeni kavramlar aracılığıyla standart bilgi açıklamalarını iyileştirmek için özel sektörle işbirliği yapması gerektiğini söyledi. Rapor, federal kurumlara, mevcut sorumluluk kurallarının ve standartlarının yapay zeka sistemlerine en iyi şekilde nasıl uygulanabileceği konusunda öneriler geliştirmeleri çağrısında bulunuyor.
Mahkemeler ve yasa yapıcılar, tedarik zincirinde kullanıcılara geliştiricilerden gelen yapay zeka modellerinden kaynaklanan zararların sorumluluğunun nerede olduğunu nihai olarak tanımlayabilir; ancak kurum, mevcut düzenlemenin nasıl uygulanacağını belirlemek için hukuk uzmanları ve paydaşlardan oluşan bir toplantı önermektedir. Raporda, NTIA'nın onayladığı üçüncü taraf hesap verme sorumluluğu değerlendirme yönteminin, maruz kalma ve sorumluluktan korunmaya bağlı olabileceği belirtiliyor.
Ek öneriler arasında federal hükümete yapay zeka araçlarıyla ilişkili sektörler arası riskleri ele alma kapasitesinin güçlendirilmesi görevi verilmesi, aynı zamanda yüksek riskli yapay zeka konuşlandırmalarının ulusal bir kaydının geliştirilmesi ve ulusal yapay zeka olumsuz olayları için raporlama veri tabanının geliştirilmesi yer alıyor.