ABD Hükümeti Sizden—Evet, Sizden—Üretici Yapay Zeka Kusurlarını Avlamanızı İstiyor


Las Vegas’taki 2023 Defcon hacker konferansında, önde gelen AI teknoloji şirketleri, binlerce katılımcıyı üretken AI platformlarına çekmek ve bu kritik sistemlerdeki zayıflıkları bulmak için algoritmik bütünlük ve şeffaflık gruplarıyla ortaklık kurdu. ABD hükümetinden de destek alan bu “kırmızı takım” çalışması, giderek daha etkili ancak opak olan bu sistemleri incelemeye açma yolunda bir adım attı. Şimdi, etik AI ve algoritmik değerlendirme kar amacı gütmeyen kuruluşu Humane Intelligence bu modeli bir adım daha ileri götürüyor. Çarşamba günü, grup ABD Ulusal Standartlar ve Teknoloji Enstitüsü’ne katılım çağrısında bulunarak, herhangi bir ABD sakinini AI ofis üretkenlik yazılımını değerlendirmek için ülke çapında bir kırmızı takım çalışmasının eleme turuna katılmaya davet etti.

Elemeler çevrimiçi olarak gerçekleşecek ve NIST’in AI zorlukları olarak bilinen AI Risklerini ve Etkilerini Değerlendirme veya ARIA kapsamında hem geliştiricilere hem de genel halktan herkese açık olacak. Eleme turunu geçen katılımcılar, Ekim ayı sonunda Virginia’daki Bilgi Güvenliğinde Uygulamalı Makine Öğrenimi Konferansı’nda (CAMLIS) yüz yüze bir kırmızı takım etkinliğine katılacak. Amaç, üretken AI teknolojilerinin güvenliği, dayanıklılığı ve etiğinin titiz testlerini yürütme yeteneklerini genişletmektir.

Humane Intelligence ile çalışan AI yönetişimi ve çevrimiçi güvenlik grubu Tech Policy Consulting’in CEO’su Theo Skeadas, “Bu modellerden birini kullanan ortalama bir kişi, modelin amaca uygun olup olmadığını belirleme yeteneğine sahip değil” diyor. “Bu nedenle değerlendirmeleri yürütme yeteneğini demokratikleştirmek ve bu modelleri kullanan herkesin modelin ihtiyaçlarını karşılayıp karşılamadığını kendi kendine değerlendirebilmesini sağlamak istiyoruz.”

CAMLIS’teki son etkinlik katılımcıları AI sistemlerine saldırmaya çalışan kırmızı bir takım ve savunma üzerinde çalışan mavi bir takım olarak ikiye ayıracak. Katılımcılar, kırmızı takımın sistemlerin beklenen davranışlarını ihlal eden sonuçlar üretip üretemediğini ölçmek için bir ölçüt olarak NIST’in AI 600-1 olarak bilinen AI risk yönetimi çerçevesini kullanacak.

“NIST’in ARIA’sı, yapay zeka modellerinin gerçek dünya uygulamalarını anlamak için yapılandırılmış kullanıcı geri bildirimlerinden yararlanıyor,” diyor Humane Intelligence kurucusu ve aynı zamanda NIST’in Yükselen Teknolojiler Ofisi’nde müteahhit ve ABD İç Güvenlik Bakanlığı Yapay Zeka güvenliği ve emniyet kurulu üyesi olan Rumman Chowdhury. “ARIA ekibi çoğunlukla sosyoteknik test ve değerlendirme konusunda uzmandır ve [is] “Bu arka planı, üretken yapay zekanın titiz bilimsel değerlendirmesine doğru alanı geliştirmenin bir yolu olarak kullanmak.”

Chowdhury ve Skeadas, NIST ortaklığının Humane Intelligence’ın önümüzdeki haftalarda ABD hükümet kurumları, uluslararası hükümetler ve STK’larla duyuracağı bir dizi AI kırmızı takım iş birliğinden sadece biri olduğunu söylüyor. Bu çaba, artık kara kutu algoritmaları geliştiren şirketlerin ve kuruluşların, bireylerin AI modellerindeki sorunları ve eşitsizlikleri bulmaları için ödüllendirilebildiği “önyargı ödülü zorlukları” gibi mekanizmalar aracılığıyla şeffaflık ve hesap verebilirlik sunmasını çok daha yaygın hale getirmeyi amaçlıyor.

“Topluluk programcılardan daha geniş olmalı,” diyor Skeadas. “Politika yapıcılar, gazeteciler, sivil toplum ve teknik olmayan kişiler bu sistemlerin test edilmesi ve değerlendirilmesi sürecine dahil olmalı. Ayrıca azınlık dilleri konuşan veya azınlık olmayan kültür ve bakış açılarına sahip kişiler gibi daha az temsil edilen grupların bu sürece katılabildiğinden emin olmalıyız.”



Source link