AI Seul Zirvesi: 27 ülke ve AB, AI riskine kırmızı çizgiler çizecek


İki düzineden fazla ülke, güvenli, yenilikçi ve kapsayıcı yapay zekayı teşvik etme anlaşmasının bir parçası olarak, öncü yapay zeka (AI) modellerinin zararlı etkilerini sınırlamak için ortak risk eşikleri geliştirmeyi taahhüt etti.

AI Seul Zirvesi’nin ikinci gününde 27 hükümet ve Avrupa Birliği (AB) tarafından imzalanan Yapay zeka güvenliğini, yenilikçiliği ve kapsayıcılığı geliştirmeye yönelik Seul bakanlığının beyanı AI güvenliği konusunda uluslararası işbirliğini derinleştirme konusundaki kararlılıklarını ortaya koyuyor.

Bu, yapay zeka modelleri veya sistemlerinin oluşturduğu risklerin, uygun azaltımlar olmadan ciddi olabileceği durumlarda risk eşikleri üzerinde toplu olarak anlaşmaya varılmasını içerecektir; kendi yetki alanlarında yapay zeka için birlikte çalışabilir risk yönetimi çerçeveleri oluşturmak; ve yapay zeka modellerinin güvenilir dış değerlendirmelerinin teşvik edilmesi.

Açıklamada, ciddi riskler söz konusu olduğunda, sistemlerin insan gözetiminden kaçmasına veya açık insan onayı veya izni olmadan başka şekilde özerk bir şekilde hareket etmesine olanak tanıyacak yapay zeka modeli yeteneklerinin potansiyeli vurgulandı; devlet dışı aktörlerin kimyasal veya biyolojik silah geliştirmelerini ilerletmelerine yardımcı olmanın yanı sıra.

“Yapay zeka risklerinin tüm yelpazesine karşı korunmanın zorunlu olduğuna” dikkat çekilen açıklamada, dünya çapında kurulan yapay zeka güvenlik enstitülerinin en iyi uygulamaları ve değerlendirme veri setlerini paylaşmak ve birlikte çalışabilir güvenlik testleri oluşturmak için işbirliği yapmak için kullanılacağı da belirtildi. yönergeler.

“Sınır yapay zeka modelleri veya sistemlerinin oluşturduğu riskleri değerlendirme kriterleri; yeteneklerin, sınırlamaların ve eğilimlerin, kötü niyetli düşman saldırılarına ve manipülasyona karşı sağlamlık da dahil olmak üzere uygulanan güvenlik önlemlerinin, öngörülebilir kullanımların ve yanlış kullanımların, konuşlandırma bağlamlarının (bir cihazın dahil olduğu daha geniş sistem dahil) dikkate alınmasını içerebilir. Yapay zeka modeli entegre edilebilir, ulaşılabilir olabilir ve diğer ilgili risk faktörleri olabilir” dedi.

Bununla birlikte, açıklamada belirli bir husus bulunmasa da, imzacıların Birleşmiş Milletler (BM) kararları ve uluslararası insan hakları da dahil olmak üzere ilgili uluslararası yasalara bağlılıkları teyit edildi.

İngiltere dijital sekreteri Michelle Donelan, Seul’de varılan anlaşmaların, ülkelerin çeşitli yapay zeka risklerine karşı daha dirençli olmak için “somut adımlar” atacağı “yapay zeka güvenlik gündeminin ikinci aşamasının” başlangıcını işaret ettiğini söyledi.

“Şirketler için bu, modellerini yayınlamayacakları risk eşiklerini belirlemekle ilgili” dedi. “Ülkeler açısından risklerin şiddetli hale geldiği eşikleri belirlemek için işbirliği yapacağız. Birleşik Krallık, bu görüşmeleri ilerletmek için küresel sahnede öncü rol oynamaya devam edecek.”

Yenilik ve kapsayıcılık

Açıklamada ayrıca “yenilik” ve “kapsayıcılık”ın önemi de vurgulandı. Birincisi için, hükümetlerin yapay zeka yatırımına ve araştırma finansmanına öncelik vermesi gerektiğini özellikle vurguladı; küçük ve orta ölçekli işletmeler, yeni kurulan şirketler, akademi ve bireyler için yapay zeka ile ilgili kaynaklara tesislerin erişimi; ve yapay zekayı geliştirirken sürdürülebilirlik.

“Bu bağlamda, yapay zeka geliştiricilerini ve uygulayıcılarını enerji ve kaynak tüketimi gibi potansiyel çevresel ayak izlerini dikkate almaya teşvik ediyoruz” dedi. “Yapay zeka kullanıcılarının ve geliştiricilerinin yenilikçiliği ve üretkenliği artıracağından emin olmak için iş gücümüzün becerilerinin nasıl artırılabileceğine ve yeniden becerilendirilebileceğine ilişkin önlemleri araştırmaya yönelik işbirlikçi çabaları memnuniyetle karşılıyoruz.

“Ayrıca, şirketlerin kaynak açısından verimli yapay zeka modelleri veya sistemleri ile düşük güçlü yapay zeka çipleri uygulamak ve yapay zeka geliştirme ve hizmetleri boyunca çevre dostu veri merkezlerini işletmek gibi girdilerin geliştirilmesini ve kullanımını teşvik etme çabalarını teşvik ediyoruz.”

Sürdürülebilirlik hususları hakkında yorum yapan Güney Kore Bilim ve BİT Bakanı Lee Jong-Ho şunları söyledi: “Dünya çapındaki yapay zeka güvenlik enstitüleri arasındaki küresel iş birliğini güçlendireceğiz ve enerji ve enerji üzerindeki küresel olumsuz etkilerin hafifletilmesine yardımcı olmak için düşük güçlü yapay zeka çiplerinin başarılı örneklerini paylaşacağız. AI’nın yayılmasının neden olduğu çevre.

“ROK’ta elde edilen başarıları daha da ileriye taşıyacağız” [the Republic of Korea] ve Birleşik Krallık’ı Fransa’daki bir sonraki zirveye taşıyacağız ve daha fazla fırsat ve fayda yaratırken yapay zekanın potansiyel risklerini ve yan etkilerini en aza indirmeyi sabırsızlıkla bekliyoruz.”

Kapsayıcılıkla ilgili olarak açıklamada, hükümetlerin kapasite geliştirme ve dijital okuryazarlığı artırma yoluyla yapay zeka ile ilgili eğitimi teşvik etmeye kararlı oldukları; dünyanın en acil sorunlarından bazılarının üstesinden gelmek için yapay zekayı kullanmak; ve gelişmekte olan ülkelerin katılımını teşvik eden yönetişim yaklaşımlarının teşvik edilmesi.

Birinci gün

Zirvenin ilk gününde, AB ve 10 ülkeden oluşan daha küçük bir grup, altı ay önce 28 hükümet ve AB tarafından Birleşik Krallık’ın Yapay Zeka Güvenliği Zirvesi’nin açılışında imzalanan Bletchley Yavaşlaması’na dayanan Seul Deklarasyonunu imzaladı.

Bletchley Deklarasyonu yapay zeka güvenliği konusunda kapsayıcı eylemin önemine dikkat çekerken, Seul Deklarasyonu bu alanda “aktif çok paydaşlı işbirliğinin önemini” açıkça teyit etti ve ilgili hükümetlerin yapay zekaya geniş bir yelpazedeki paydaşları “aktif olarak” dahil etme taahhüdünde bulundu. ile ilgili tartışmalar.

Aynı 10 ülke ve AB ayrıca, kamu destekli araştırma enstitülerinin teknik çalışmaları ile yapay zeka güvenliğine yönelik genel yaklaşımlar arasında “tamamlayıcılık ve birlikte çalışabilirliği” sağlamak için bir araya gelmesini sağlayacak olan Yapay Zeka Güvenliği Bilimi Konusunda Uluslararası İşbirliğine Yönelik Seul Niyet Beyanı’nı da imzaladı. Bu zaten ABD ve İngiltere enstitüleri arasında gerçekleşiyor.

Aynı gün, 16 küresel yapay zeka şirketi, teknolojiyi nasıl güvenli bir şekilde geliştireceklerine ilişkin gönüllü bir dizi önlem olan Sınır Yapay Zeka Güvenlik Taahhütlerini imzaladı.

Spesifik olarak, tüm yapay zeka yaşam döngüsünün her aşamasında modellerinin oluşturduğu riskleri gönüllü olarak değerlendirmeyi taahhüt ettiler; en şiddetli tehditlerle başa çıkmak için kabul edilemez risk eşiklerinin belirlenmesi; Eşik değerlerin ihlal edilmemesini sağlamak için azaltımların nasıl tanımlanacağını ve uygulanacağını ifade etmek; ve sürekli olarak güvenlik değerlendirme yeteneklerine yatırım yapıyorlar.

Temel gönüllü taahhütlerden biri kapsamında, riskler yeterince azaltılamıyorsa şirketler yapay zeka sistemleri geliştirmeyecek veya dağıtmayacak.

Kâr amacı gütmeyen yapay zeka modeli güvenliği METR’in kurucusu ve araştırma başkanı Beth Barnes, şirketlerin risk eşiklerine bağlılıkları hakkında şunları söyledi: “Yapay zeka gelişiminin kabul edilemez derecede tehlikeli hale geleceği ‘kırmızı çizgiler’ üzerinde uluslararası anlaşmaya varmak hayati önem taşıyor” kamu güvenliğine.”



Source link