Yapay Zeka ve Makine Öğrenimi, Yeni Nesil Teknolojiler ve Güvenli Geliştirme
Önde Gelen Kurumların Koalisyonu, Politika Yapıcılara Odaklanmış Yapay Zeka Kuralları Geliştirmeleri İçin Baskı Yapıyor
Chris Riotta (@chrisriotta) •
27 Eylül 2024
Teknoloji devleri ve endüstri liderlerinden oluşan bir koalisyon, federal hükümeti yapay zeka için yalnızca kritik politika boşluklarını dolduracak yeni düzenlemeler oluşturmaya çağırıyor.
Ayrıca bakınız: Copilot+PC’lerle yeniliği hızlandırın – en hızlı, en akıllı Windows PC
GM, IBM, Mastercard, Meta ve NFL’nin de aralarında bulunduğu işletme ve kurumların oluşturduğu bir konsorsiyum olan Veri ve Güven İttifakı, Cuma günü politika yapıcıları yapay zeka düzenleyici uyumlaştırmasını iyileştirmeye çağıran ve aşırı düzenlemenin inovasyonu engelleyebileceği konusunda uyarıda bulunan bir kılavuz yayınladı.
İttifak, düzenleyicilerin yapay zekayı yönetecek yeni mevzuatı yürürlüğe koymadan önce mevcut politikaları gözden geçirmesini tavsiye ederek şunları belirtti: “Yeni düzenleme yalnızca düzenleyici boşlukları gidermek için gerektiğinde getirilmelidir.” Öneriler ayrıca yasa yapıcıları, ortaya çıkan teknolojiyi geniş çapta düzenlemeye çalışmak yerine yapay zekanın belirli kullanım durumlarında ortaya çıkardığı “potansiyel zararlara odaklanmaya” teşvik ediyor.
IBM’in baş ticari sorumlusu Rob Thomas, “Yapay zekanın en yüksek riskli kullanımlarına odaklanan ve şirketleri yarattıkları ve dağıttıkları yapay zekadan sorumlu tutan akıllı düzenleme, yapay zekanın büyük potansiyelini ortaya çıkarırken tüketicileri korumanın en iyi yoludur” dedi. bir beyan.
Öneriler, Senato liderlerinin, algoritmik karar vermede önyargı gibi yapay zeka ile ilişkili risklere karşı Beyaz Saray’dan daha güçlü koruma sağlanması yönündeki baskıları sırasında geldi. Çoğunluk Lideri Chuck Schumer, D.Y. ve Senatör Edward Markey, D-Mass., Pazartesi günü Yönetim ve Bütçe Ofisi’ne bir mektup yazarak “güçlendirilmiş, yapay zeka destekli algoritmalara karşı daha güçlü korumalar” çağrısında bulundular. [that] Yetersiz eğitimli ve test edilmiş algoritmalar nedeniyle marjinalleştirilmiş toplulukların zaten deneyimlediği ayrımcılığın güçlendirilmesi ve büyütülmesi riski.”
“Bir bireyin iş başvurusunda bulunması, hastanede tedavi görmesi, bir eğitim kurumuna kabul edilmesi veya ipotek almaya hak kazanması gibi ‘sonuçsal kararlar’ almak için algoritmalar kullanan kuruluşların riskleri ve zararları özellikle yüksektir. ” diyor mektupta.
Öneriler, politika yapıcıları, olumlu sonuçlar veren uygulamaların aşırı düzenlenmesinden kaçınarak yüksek riskli yapay zeka kullanım senaryolarına odaklanmaya teşvik ediyor. İttifak, çerçeveyi, düzenlemeyi mevcut düzenlemelerdeki boşlukları ele alacak şekilde dar bir şekilde uyarlamayı, yüksek riskli kullanım durumlarına öncelik vermeyi ve yapay zeka kurallarını mevcut politikaya yerleştirmeyi içeren “sonuçsal karar yaklaşımı” olarak tanımlıyor.
Yapay zeka gözetimindeki boşluklar tespit edildiğinde ittifak, politika yapıcıların potansiyel zararlarla bağlantılı belirli yapay zeka kullanım durumlarını tanımlamaya odaklanmasını tavsiye ediyor.