Birleşik Krallık ve Güney Kore hükümetleri, ABD, Çin ve BAE firmaları da dahil olmak üzere teknolojiyi güvenli bir şekilde geliştirmek için 16 küresel yapay zeka (AI) şirketinden gönüllü taahhütler aldı.
Yapay Zeka Seul Zirvesi’nin ilk gününde imzalanan Sınır Yapay Zeka Güvenliği Taahhütleri, risklerin yeterince azaltılamaması durumunda şirketlerin yapay zeka sistemleri geliştirmeyeceğini veya dağıtmayacağını söyledi ve yaklaşımlarının şeffaf ve şeffaf olmasını sağlamak için almaları gereken bir dizi önlemin ana hatlarını çizdi. sorumlu.
Buna, tüm yapay zeka yaşam döngüsünün her aşamasında modellerinin oluşturduğu risklerin değerlendirilmesi de dahildir; en şiddetli tehditlerle başa çıkmak için kabul edilemez risk eşiklerinin belirlenmesi; Eşik değerlerin ihlal edilmemesini sağlamak için azaltımların nasıl tanımlanacağını ve uygulanacağını ifade etmek; ve sürekli olarak güvenlik değerlendirme yeteneklerine yatırım yapıyorlar.
Aralarında Google, Meta, Amazon, Microsoft, Anthropic, OpenAI, Mistral AI, IBM, Samsung, xAI, Naver, Cohere ve Zhipu.ai’nin de bulunduğu imzacılar aynı zamanda hükümetten, sivilden dış aktörlerin nasıl olduğunu açıklamayı da gönüllü olarak taahhüt ettiler. Toplumun ve kamuoyunun risk değerlendirme sürecine dahil edilmesinin yanı sıra tüm süreç boyunca kamunun şeffaflığı da sağlanmaktadır.
Ancak, “riski artıracak veya hassas ticari bilgileri toplumsal faydayla orantısız derecede ifşa edecek” durumlarda şirketlerin herhangi bir bilgi sağlaması gerekmeyeceğinden, kamu şeffaflığına yönelik taahhüt sınırlıdır; ancak yine de bu durumlarda hükümetler veya atanmış kurumlar gibi “güvenilir aktörlere” daha ayrıntılı bilgi vermeleri beklenecek.
Şirketler ayrıca, öncü yapay zeka modellerinin dahili ve harici olarak yeniden gruplandırılması da dahil olmak üzere, yapay zeka güvenliği konusunda mevcut sektördeki en iyi uygulamaları uygulamaya olan bağlılıklarını da doğruladılar; Tescilli ve yayınlanmamış model ağırlıklarını korumak için siber güvenliğe ve içeriden gelen tehdit önlemlerine yatırım yapmak; üçüncü tarafların sorunları ve güvenlik açıklarını keşfetmesini ve raporlamasını teşvik etmek; Sınırdaki yapay zeka modelleri ve sistemlerinin oluşturduğu toplumsal risklere ilişkin araştırmalara öncelik verilmesi; ve dünyanın en büyük zorluklarının üstesinden gelmeye yardımcı olmak için öncü yapay zeka modellerini ve sistemlerini geliştirmek ve dağıtmak.
16 şirketin tümü, Fransa’daki bir sonraki Yapay Zeka Zirvesi öncesinde tüm bu sorunları nasıl yöneteceklerine ilişkin güvenlik çerçevelerini yayınlayacaklarını söyledi.
Birleşik Krallık başbakanı Rishi Sunak, “Dünyanın pek çok farklı bölgesinden çok sayıda önde gelen yapay zeka şirketinin yapay zeka güvenliği konusunda aynı taahhütleri kabul etmesi, dünyada bir ilk” dedi.
“Bu taahhütler, dünyanın önde gelen yapay zeka şirketlerinin güvenli yapay zeka geliştirme planlarında şeffaflık ve hesap verebilirlik sağlamasını sağlıyor. Bu dönüştürücü teknolojinin faydalarını açığa çıkaracak olan yapay zeka güvenliğine ilişkin küresel standartlar için bir emsal teşkil ediyor.”
Dijital sekreter Michelle Donelan, yapay zekanın gerçek potansiyelinin ancak risklerin doğru bir şekilde kavranması durumunda ortaya çıkacağını ekledi: “Yapay zekanın güvenli bir şekilde geliştirilmesini sağlamak hepimizin sorumluluğundadır ve bugünkü anlaşma, artık yapay zeka şirketlerinin taahhütlerini güçlendirdiğimiz ve daha iyi hale getirdiğimiz anlamına geliyor. dünya çapında temsil.
“Daha güçlü yapay zeka modellerinin çevrimiçi hale gelmesi ve dünya çapında daha fazla güvenlik testinin yapılmasıyla birlikte, yapay zekanın ekonomik büyüme için dönüştürücü potansiyelini yakalayabilmemiz için riskleri yönetme sorumluluğunu üstleniyoruz.”
Seul’de verilen gönüllü taahhütler, Birleşik Krallık hükümetinin altı ay önce Bletchley Park’ta düzenlediği ilk Yapay Zeka Güvenliği Zirvesi sırasında ülkeler ve şirketler tarafından verilen önceki taahhütlerin üzerine inşa ediliyor.
Bu, katılan 28 hükümetin tamamının, yapay zeka ile ilgili riskler konusunda işbirliklerini derinleştirmeyi taahhüt eden bağlayıcı olmayan bir bildiri olan Bletchley Deklarasyonunu imzalamasını ve bazı yapay zeka firmalarının modellerini Birleşik Krallık Yapay Zeka Güvenlik Enstitüsü’ne açmayı kabul etmesini içeriyordu ( AISI) dağıtım öncesi testler için.
Ülkeler ayrıca, Turing Ödülü sahibi bir yapay zeka akademisyeni ve BM Bilimsel Danışma Kurulu üyesi olan Yoshua Bengio’nun, sınır yapay zekanın riskleri ve yeteneklerine ilişkin mevcut araştırmaları değerlendiren ilk sınır yapay zeka ‘Bilimin Durumu’ raporuna liderlik etmesi için destek vermeyi kabul etti; bunun geçici bir versiyonu Mayıs 2024’te yayınlandı.
Yeni güvenlik taahhütleri hakkında yorum yapan Bengio, bu kadar çok sayıda önde gelen yapay zeka şirketinin kaydolduğunu görmekten memnuniyet duyduğunu ve aşırı risk teşkil eden modelleri durdurma taahhütlerini özellikle memnuniyetle karşıladığını ancak bunların daha resmi düzenleyici önlemlerle desteklenmesi gerektiğini söyledi. çizginin aşağısında.
“Bu gönüllü taahhüdün elbette diğer düzenleyici önlemlerle birlikte yapılması gerekecek, ancak yine de bu, yapay zeka güvenliğini teşvik etmek için uluslararası bir yönetişim rejiminin oluşturulmasında ileriye doğru atılmış önemli bir adıma işaret ediyor” dedi.
Şirketin risk eşiklerini belirleme taahhüdü hakkında yorum yapan kar amacı gütmeyen yapay zeka modeli güvenliği METR’nin kurucusu ve araştırma başkanı Beth Barnes şunları ekledi: “Yapay zeka gelişiminin kabul edilemez derecede tehlikeli hale geleceği ‘kırmızı çizgiler’ üzerinde uluslararası anlaşmaya varmak hayati önem taşıyor kamu güvenliğine.”
Dört büyük yapay zeka temel modeli geliştiricisi, Bletchley zirvesi sırasında sistemlerini dağıtım öncesi testlere açma konusunda anlaşırken, Politico Nisan 2024’ün sonlarında üçünün henüz AISI’ye üzerinde anlaşmaya varılan yayın öncesi erişimi sağlamadığını bildirdi.
Computer Weekly, yapay zeka şirketlerinden zorunlu taahhütlerin ne zaman alınacağı ve dağıtım öncesi erişimle ilgili sorunlar göz önüne alındığında yapılan gönüllü taahhütlerin yeterli olduğuna inanıp inanmayacağı konusunda Bilim, Yenilik ve Teknoloji Departmanı (DSIT) ile temasa geçti, ancak bunu yapmadı. yayınlanma zamanına göre bir yanıt alın.