Yeni Endeks Yapay Zeka Modellerinin Karanlık ve Hiç Şeffaf Olmadığını Buluyor



ABD Başkanı Joe Biden tarafından imzalanan yapay zekaya (AI) ilişkin yeni yönetici emri, sektörün yapay zekanın güvenilir ve yararlı olmasını nasıl sağlaması gerektiğini özetliyor. Bu emir, yapay zeka şirketleri ile Beyaz Saray arasında temmuz ve eylül aylarında yapılan ve yapay zeka şirketlerinin teknolojinin yetenekleri ve sınırlamaları konusunda nasıl daha şeffaf olacağına dair vaatlerle sonuçlanan yüksek profilli görüşmelerin ardından geldi.

Şeffaf olacağına dair söz vermek ileriye doğru atılmış iyi bir adımdır ancak bu sözlerin ne kadar iyi tutulduğunu ölçmenin bir yolu olması gerekir. Yöntemlerden biri, Stanford Üniversitesi Temel Modelleri Araştırma Merkezi tarafından geliştirilen Temel Modeli Şeffaflık Endeksi olabilir. Endeks, 10 yapay zeka modelini, modellerin nasıl eğitildiği, modelin özellikleri ve işlevleri hakkındaki bilgiler ve modellerin nasıl dağıtılıp kullanıldığı dahil olmak üzere 100 farklı ölçüme göre derecelendirdi. Puanlar kamuya açık verilere dayanılarak hesaplandı; ancak şirketlere puanı değiştirmek için ek bilgi sağlama fırsatı verildi.

Yaygın olarak kullanılan bazı temel modellerden bahsederken şeffaflık nasıl görünüyor? Harika değil.

Stanford araştırmacıları bulgularının özetinde şöyle yazdı: “Hiçbir büyük temel model geliştiricisi yeterli şeffaflığı sağlamaya yakın değil, bu da yapay zeka endüstrisinde temel bir şeffaflık eksikliğini ortaya koyuyor.”

Meta’nın Llama 2’si, 100 üzerinden 54 ile endekste en yüksek toplam puanı aldı.

OpenAI’nin GPT-4’ü 48 puan aldı – OpenAI’nin “mimari (model boyutu dahil), donanım, eğitim bilgisayarı, veri kümesi yapısı, [and] Bu yılın başlarında GPT-3’ten GPT-4’e geçerken “eğitim yöntemi”.

OpenAI’nin GPT-4’ü ve Google’ın PaLM2’si gibi genel amaçlı yaratımlar olan güçlü yapay zeka sistemleri çoğunlukla kara kutu sistemleridir. Bu modeller büyük hacimli veriler üzerinde eğitilir ve baş döndürücü bir dizi uygulamada kullanılmak üzere uyarlanabilir. Ancak yapay zekanın nasıl kullanıldığı ve bireyleri nasıl etkileyebileceği konusunda endişe duyan giderek artan sayıda insan için, bu modellerin nasıl eğitilip kullanıldığına dair çok az bilginin mevcut olması bir sorun.

Araştırmacılara göre kullanıcı verilerinin korunması ve modelin temel işlevleri konusunda biraz daha şeffaflık var. Yapay zeka modelleri, kullanıcı verilerinin korunmasına (%67), temel modellerinin nasıl geliştirildiğine ilişkin temel ayrıntılara (%63), modellerinin yeteneklerine (%62) ve sınırlamalarına (%60) ilişkin göstergelerde iyi puan aldı.

Yeni yönetim emri şeffaflığın artırılması için yapılması gereken çeşitli şeyleri açıklıyor. Yapay zeka geliştiricilerinin güvenlik testi sonuçlarını ve diğer bilgileri hükümetle paylaşması gerekecek. Ulusal Standartlar ve Teknoloji Enstitüsü, yapay zeka araçlarının kamuya açıklanmadan önce emniyetli ve emniyetli olmasını sağlamak için standartlar oluşturmakla görevlendirildi.

Model geliştiren şirketler Kamu sağlığı ve güvenliği, ekonomi veya ulusal güvenlik açısından ciddi riskler oluşturan şirketlerin, modeli eğitirken federal hükümete bildirimde bulunması ve modelleri halka açık hale getirmeden önce kırmızı takım güvenlik testlerinin sonuçlarını paylaşması gerekecek.



Source link