Yapay Zeka Seul Zirvesi: 10 ülke ve AB, güvenli, kapsayıcı yapay zeka konusunda yeniden taahhütte bulundu


Güney Kore’nin Yapay Zeka Seul Zirvesi’nde bir araya gelen on hükümet ve Avrupa Birliği (AB), yapay zeka konusunda uluslararası işbirliğine yönelik “ortak kararlılıklarını” ortaya koyan ve çok çeşitli sesleri “aktif olarak dahil etme” ihtiyacını teyit eden ortak bir yavaşlama imzaladı Devam eden yönetim tartışmalarında.

21 Mayıs 2024’te imzalanan güvenli, yenilikçi ve kapsayıcı yapay zekaya yönelik Seul Deklarasyonu, altı ay önce 28 hükümet ve AB tarafından Birleşik Krallık’ta düzenlenen Yapay Zeka Güvenliği Zirvesi’nde imzalanan Bletchley Yavaşlaması’na dayanıyor.

Teknolojinin güvenilirliğini ve güvenliğini sağlamak için kapsayıcı, insan merkezli bir yaklaşıma duyulan ihtiyacı doğrulayan Bletchley Yavaşlaması, ülkeler arasındaki uluslararası işbirliğinin, ortak kaygıya neden olan yapay zeka güvenlik risklerini belirlemeye odaklanacağını söyledi; bu risklere ilişkin ortak bilimsel ve kanıta dayalı bir anlayış oluşturmak; risk bazlı yönetişim politikalarının geliştirilmesi; ve yetenekler gelişmeye devam ettikçe bu anlayışın sürdürülmesi.

Bletchley Deklarasyonu yapay zeka güvenliği konusunda kapsayıcı eylemin önemine dikkat çekerken, Avustralya, Kanada, AB, Fransa, Almanya, İtalya, Japonya, Kore Cumhuriyeti, Singapur Cumhuriyeti, Birleşik Krallık tarafından imzalanan Seul Deklarasyonu, ve ABD – bu alanda “aktif çok paydaşlı işbirliğinin önemini” açıkça teyit etmiş ve hükümetin AI ile ilgili tartışmalara geniş bir yelpazedeki paydaşları “aktif olarak” dahil etme taahhüdünde bulunmuştur.

Son Yapay Zeka Zirvesi’nin ardından hükümet yetkililerinin ve teknoloji sektörü temsilcilerinin olumlu yaklaşımına rağmen, sivil toplum ve sendikalarda işçilerin ve yapay zekadan doğrudan etkilenen diğer kişilerin hariç tutulması konusunda endişeler vardı ve bu kuruluşların 100’den fazlası açık bir bildiriye imza attı. Etkinliği “kaçırılmış bir fırsat” olarak damgalayan mektup.

Bazı yeni eklemeler olsa da, en son Seul Yavaşlaması öncelikle Bletchley’de verilen taahhütlerin çoğunu, özellikle de uluslararası iş birliğini derinleştirmenin ve yapay zekanın örneğin insan haklarını ve çevreyi korumak için sorumlu bir şekilde kullanılmasını sağlamanın önemine ilişkin olarak yineliyor.

Aynı zamanda risk temelli yönetişim yaklaşımlarının geliştirilmesine yönelik önceki taahhüdünü de yineledi; artık bunların birbiriyle birlikte çalışabilir olması gerektiğini ekledi; ve Birleşik Krallık ve ABD’nin ayrı Yapay Zeka Güvenlik Enstitüleri gibi, son Zirve sırasında kurulan uluslararası bilimsel araştırma kurumları ağını daha da geliştirmek.

Bununla bağlantılı olarak, aynı 10 ülke ve AB, halihazırda kurulmuş olan kamu destekli araştırma enstitülerinin teknik çalışmaları arasında “tamamlayıcılık ve birlikte çalışabilirlik” sağlamak üzere bir araya gelmesini öngören, Yapay Zeka Güvenliği Bilimi Konusunda Uluslararası İşbirliğine Yönelik Seul Niyet Beyanı’nı imzaladı. ve AI güvenliğine genel yaklaşımlar – ABD ve İngiltere enstitüleri arasında halihazırda gerçekleşmekte olan bir şey.

Dijital sekreter, “Geçen yıl dünyayı Bletchley’de bir araya getirdiğimizden beri Birleşik Krallık, yapay zeka güvenliği konusunda küresel harekete öncülük ediyor ve dünyanın ilk Yapay Zeka Güvenliği Enstitüsü’nü duyurduğumda, diğer ülkeler de kendi silahlarını kurarak bu silahlanma çağrısını takip etti” dedi. Michelle Donelan.

“Bu liderlikten yararlanarak, denizaşırı meslektaşlarımızla küresel bir ağ aracılığıyla işbirliği yapmak, yapay zekadaki inovasyonun emniyet, emniyet ve güveni temel alarak devam edebilmesini sağlamak için temel olacaktır.”

Seul Zirvesi öncesinde Birleşik Krallık Yapay Zeka Güvenliği Enstitüsü (AISI), önde gelen yapay zeka şirketlerine ve Körfez Bölgesi teknoloji yeteneklerine erişim sağlamak için San Francisco’da yeni ofisler kuracağını duyurdu ve ilk güvenlik testi sonuçlarını kamuya açıkladı.

Değerlendirdiği beş isimsiz büyük dil modelinden (LLM) hiçbirinin, insanlar onları denetlemeden daha karmaşık, zaman alıcı görevleri yerine getiremediğini ve hepsinin, güvenlik önlemlerinin temel “jailbreak”lerine karşı oldukça savunmasız kaldığını buldu. Ayrıca bazı modellerin, bu güvenlik önlemlerini aşmaya yönelik özel girişimler olmasa bile zararlı çıktılar üretebileceğini de tespit etti.

Ada Lovelace Enstitüsü (ALI), Mayıs 2024 ortasındaki bir blog yazısında AISI’nin genel etkinliğini ve yapay zeka güvenlik alanındaki model değerlendirmelerindeki baskın yaklaşımı sorguladı ve ayrıca Enstitü’nün yalnızca şunları yapabileceği anlamına gelen gönüllü test çerçevesini sorguladı: Firmaların anlaşmasıyla modellere ulaşabilirsiniz.

“Gönüllü rejimin sınırları erişimin ötesine geçiyor ve aynı zamanda değerlendirmelerin tasarımını da etkiliyor” dedi. “Konuştuğumuz birçok değerlendiriciye göre, mevcut değerlendirme uygulamaları kamu veya düzenleyici kurumlardan ziyade şirketlerin çıkarlarına daha uygun. Büyük teknoloji şirketlerinde ticari teşvikler, onların (toplumsal açıdan daha önemli bir etkiye sahip olabilecek güvenlik sorunları yerine) itibar riski oluşturan performans ve güvenlik sorunlarına ilişkin değerlendirmelere öncelik vermelerine yol açıyor.”



Source link