ABD Kuruluşu, Yayımlanmadan Önce OpenAI ve Antropik Modelleri Değerlendirecek


Yapay Zeka ve Makine Öğrenmesi, Yeni Nesil Teknolojiler ve Güvenli Geliştirme

AI Güvenlik Enstitüsü Güvenliği Değerlendirecek ve İyileştirmeler Önerisinde Bulunacak

Rashmi Ramesh (raşmiramesh_) •
30 Ağustos 2024

ABD Kuruluşu, Yayımlanmadan Önce OpenAI ve Antropik Modelleri Değerlendirecek
ABD Yapay Zeka Güvenlik Enstitüsü, güvenlik açısından OpenAI ve Anthropic modellerini değerlendirecek. (Görsel: Shutterstock)

Önde gelen yapay zeka şirketleri OpenAI ve Anthropic, güvenlik değerlendirmeleri için önemli modellere erken erişim sağlamak amacıyla ABD federal bir kuruluşuyla anlaşma yaptı.

Ayrıca bakınız: InfoSec: Tutarlılığı Sağlamak İçin Üçüncü Taraf Risk Yönetimine Yapay Zeka Uygulamak

Ticaret Bakanlığı’na bağlı Ulusal Standartlar ve Teknoloji Enstitüsü’nün bir parçası olan ABD Yapay Zeka Güvenlik Enstitüsü ile imzalanan mutabakat zaptı, aynı zamanda tüm katılımcıların güvenlik ve risk azaltma yöntemlerine yönelik modellerin nasıl değerlendirileceği konusunda araştırma yapmak üzere iş birliği yapmalarına da olanak tanıyacak.

ABD Yapay Zeka Güvenliği Enstitüsü Direktörü Elizabeth Kelly, anlaşmaların “sadece bir başlangıç” olduğunu, ancak yapay zekanın geleceğini sorumlu bir şekilde yönetmeye çalışırken önemli bir kilometre taşı olduğunu belirterek, güvenliğin çığır açan teknolojik yenilikleri desteklemek için “zorunlu” olduğunu sözlerine ekledi.

Haber, OpenAI başkanı Sam Altman’ın sosyal medya platformu X ile ilgili anlaşmayı duyurmasından haftalar sonra geldi ve anlaşmanın “Yapay Zeka değerlendirmelerinin bilimini ileriye taşıyacağını” söyledi (bkz: ABD Yapay Zeka Güvenlik Kurumu, OpenAI’nin Yeni Modeline Erken Erişim Sağlayacak).

Yapay Zeka Güvenliği Enstitüsü, Biden yönetiminin büyük dil modelleri üzerinde araştırmalar için test metodolojileri ve test ortamları geliştirmek ve aynı zamanda federal hükümet kullanımı için kullanım durumlarını operasyonel hale getirmek amacıyla verdiği yapay zeka yönetmeliğinin bir parçası olarak Şubat ayında kuruldu.

Son anlaşmanın bir parçası olarak, kurum hem piyasaya sürülmelerinden önce hem de sonra yeni OpenAI ve Anthropic modellerine erişebilecek. Enstitü, şirketlere güvenlik iyileştirmeleri önerecek ve ayrıca önerileri şekillendirmek için İngiltere’deki muadiliyle çalışmayı planlıyor.

ABD ve Birleşik Krallık, federal ve eyalet meclislerinin yeniliği engellemeden güvenlik bariyerleri koymayı düşündüğü bir dönemde, yapay zeka sistemlerinin güvenliğiyle ilgili artan ortak endişeleri ele almak ve işbirliği yapmak amacıyla bu yılın başlarında güvenlik testleri geliştirmek için ortaklık kurdu.

Altman, sosyal medyada yaptığı bir paylaşımda, “birçok nedenden ötürü” yapay zeka düzenlemesinin “ulusal düzeyde” gerçekleşmesinin önemli olduğunu söyledi. ABD’nin liderliğini sürdürmesi gerekiyor!” Bu açıklama, Kaliforniya eyalet milletvekillerinin Vali Gavin Newsom’ın masasına gelişmiş yapay zeka modelleri için ülkedeki ilk güvenlik standartlarını belirleyen bir yasa tasarısını göndermesinden bir gün sonra geldi. Bu yasa tasarısı, OpenAI’nin karşı çıktığı ve Anthropic’in ihtiyatla desteklediği bir yasa tasarısıydı.

Anthropic’in kurucu ortağı ve politika başkanı Jack Clark, “ABD Yapay Zeka Güvenlik Enstitüsü ile yaptığımız iş birliği, modellerimizi yaygın bir şekilde dağıtmadan önce titizlikle test etmek için onların geniş uzmanlıklarından yararlanıyor” dedi.

NIST duyurusunda, OpenAI ve Anthropic ile yapılan ortaklıkların ABD hükümeti ile teknoloji endüstrisi arasında “türünün ilk örneği” olduğu belirtildi. OpenAI ve Anthropic, modellerini Birleşik Krallık ile paylaşıyor.

Her iki şirket de yapay zekayı sorumlu bir şekilde geliştirmek ve kullanmak için gönüllü taahhütlerde bulunan 16 imzacı arasında yer alıyor. Birçoğu ayrıca siber güvenliğe yatırım yapma ve yapay zeka tarafından oluşturulan içeriği filigranlama yoluyla etiketleme konusunda çalışma taahhüdünde bulundu.





Source link