Yapay Zeka Zirvesi: 28 hükümet ve AB, yapay zekanın güvenli bir şekilde geliştirilmesi konusunda anlaştı


Birleşik Krallık’taki Yapay Zeka Güvenliği Zirvesine katılan tüm hükümetler, teknolojinin riskleri ve fırsatları hakkında ortak bir bildiri yayınlayarak, teknolojinin güvenilirliğini ve emniyetini sağlamak için kapsayıcı, insan merkezli bir yaklaşıma duyulan ihtiyacı doğruladı.

Katılımcı 28 hükümetin yanı sıra Avrupa Birliği (AB) tarafından da imzalanan Bletchley Deklarasyonu, yüksek düzeyde yetenekli genel amaçlı yapay zeka modeli olarak tanımladıkları “sınır” yapay zeka risklerini ele alma konusundaki ortak yaklaşımlarını özetlemektedir. çok çeşitli görevler üstlenir ve ileriye dönük olarak yoğunlaştırılmış uluslararası işbirliğini taahhüt eder.

Yapay zekanın sağlıktan eğitime, ulaşımdan adalete kadar “günlük yaşamın birçok alanında” giderek yaygınlaştığını kabul eden Bletchley Deklarasyonu, Yapay Zeka Güvenlik Zirvesi’nin “harekete geçmek ve güvenli kalkınma ihtiyacını onaylamak için eşsiz bir an” sunduğunu kaydetti. Yapay zekanın geliştirilmesi ve yapay zekanın dönüştürücü fırsatlarının ülkelerimizde ve küresel olarak kapsayıcı bir şekilde iyilik ve herkes için kullanılması için çalışıyoruz”.

Bu nedenle, bu 28 ülkenin işbirliğinin odak noktası, ortak ilgi alanındaki yapay zeka güvenlik risklerinin belirlenmesi, bu risklere ilişkin ortak bir bilimsel ve kanıta dayalı anlayış oluşturulması ve yetenekler gelişmeye devam ettikçe bu anlayışın sürdürülmesi olacaktır.

Bu odak aynı zamanda her bir ülkede yapay zeka için risk temelli politikaların oluşturulmasını da içerecektir (her ne kadar ulusal yaklaşımların kendi özel koşullarına ve geçerli yasal çerçevelere göre farklılık gösterebileceğini belirtse de), bu politikalar arasında güvenlik testi için değerlendirme ölçümleri ve araçları da yer alacaktır. kamu sektörünün yapay zeka yeteneklerini ve bilimsel araştırma tabanını oluşturmanın yanı sıra.

Birleşik Krallık dijital sekreteri Michelle Donelan, daha derin işbirliği taahhüdü doğrultusunda açılış konuşmasında, altı ay içinde Güney Kore’de ikinci bir Yapay Zeka Güvenlik Zirvesi etkinliğinin düzenleneceğini, ardından bir yıl sonra da Fransa’da bir başkasının düzenleneceğini duyurdu.

Birleşik Krallık hükümetinin bir hafta önce Yapay Zeka Güvenliği Enstitüsü kuracağını duyurmasını memnuniyetle karşılayan ABD Ticaret Bakanı Gina Raimondo, Biden yönetiminin NIST bünyesinde kendi Yapay Zeka Güvenliği Enstitüsü’nü kuracağını ve bu enstitünün standartların geliştirilmesinde rol üstleneceğini duyurdu. güvenlik güvenliği ve test için.

Kendisi, bu enstitünün – Birleşik Krallık’taki mevkidaşı ile “resmi bir ortaklık” kurmanın yanı sıra – akademi, endüstri ve kar amacı gütmeyen kuruluşlardaki ortaklarla sınırdaki yapay zekanın güvenliğini artırma konusunda çalışmayı kolaylaştırmak için bir konsorsiyum kuracağını da sözlerine ekledi.

“Yapay zekanın dönüştürücü olumlu potansiyelinin bilincinde olarak ve yapay zeka konusunda daha geniş uluslararası işbirliği sağlamanın bir parçası olarak, mevcut uluslararası forumları ve diğer ilgili girişimleri bir araya getiren ve daha geniş uluslararası tartışmalara açık bir şekilde katkıda bulunan kapsayıcı bir küresel diyaloğu sürdürmeye kararlıyız, Bletchley Bildirgesi’nde, teknolojinin faydalarından iyilik ve herkes için sorumlu bir şekilde yararlanılabilmesini sağlamak amacıyla sınır yapay zeka güvenliği konusunda araştırmalara devam edilmesi gerektiği ifade edildi.

Yapay zekadan kaynaklanan birçok riskin “doğası gereği uluslararası” olduğunu ve bu nedenle en iyi şekilde uluslararası işbirliği yoluyla ele alınabileceğini ekledi.

“Güvenli olan ve mevcut uluslararası forumlar ve diğer ilgili girişimler aracılığıyla herkesin iyiliğini destekleyen, insan odaklı, güvenilir ve sorumlu yapay zekayı sağlamak için kapsayıcı bir şekilde birlikte çalışmaya ve ortaya çıkan geniş risk yelpazesini ele almak için işbirliğini teşvik etmeye kararlıyız.” AI tarafından” diye yazdı imzacılar.

“Bunu yaparken, ülkelerin yapay zeka ile ilgili riskleri hesaba katan ve faydaları en üst düzeye çıkaran inovasyon yanlısı ve orantılı bir yönetişim ve düzenleyici yaklaşımın önemini dikkate alması gerektiğinin farkındayız.

“Bu, uygun olduğu durumlarda, ulusal koşullara ve geçerli yasal çerçevelere dayalı olarak risk sınıflandırmaları ve kategorizasyonlarının yapılmasını içerebilir.”

Bletchley Bildirgesi, kamu hizmetleri, bilim, gıda güvenliği, temiz enerji, biyoçeşitlilik, sürdürülebilirlik ve insan haklarından yararlanma dahil olmak üzere yapay zekanın olumlu bir etkiye sahip olabileceği bir dizi alanın ana hatlarını çizerken, teknolojinin önemli riskler taşıdığını vurguluyor. halihazırda kullanılmakta olduğu “gündelik yaşam alanları” da dahil.

Yapay zeka konuşlandırmalarının mevcut genişliği göz önüne alındığında imzacılar, yapay zeka sistemlerinin potansiyel etkilerini incelemek ve ele almak için “ilgili uluslararası çabaları” memnuniyetle karşıladıklarını ve “insan haklarının korunması, şeffaflık ve açıklanabilirlik, adalet, hesap verebilirlik, düzenleme, güvenlik, uygun insan gözetimi, etik, önyargının azaltılması, mahremiyet ve veri korumanın ele alınması gerekiyor”.

Teknolojinin kasıtlı olarak kötüye kullanılması veya sistemlerin insan amacına uygun hale getirilmesinin bir sonucu olarak istenmeyen kontrol sorunları konusunda da “önemli riskler” bulunduğunu ekledi: “Siber güvenlik ve biyoteknoloji gibi alanlardaki bu tür risklerden özellikle endişe duyuyoruz. sınır yapay zeka sistemlerinin dezenformasyon gibi riskleri artırabileceği yerlerin yanı sıra. Bu yapay zeka modellerinin en önemli yeteneklerinden kaynaklanan, kasıtlı veya kasıtsız ciddi, hatta felaket düzeyinde zarar potansiyeli vardır.

“Yapay zekanın hızlı ve belirsiz değişim hızı göz önüne alındığında ve teknolojiye yatırımın hızlanması bağlamında, bu potansiyel risklere ve bunlara yönelik eylemlere ilişkin anlayışımızı derinleştirmenin özellikle acil olduğunu onaylıyoruz.”

Sabah konuşan girişimci ve Birleşik Krallık hükümetinin 100 milyon £’luk Sınır Yapay Zeka Görev Gücü’nün başkanı Ian Hogarth, yapay zeka etrafındaki teknolojik ilerlemenin toplumu koruma yeteneğimizi aştığı bir durumdan özellikle endişe duyduğunu söyledi.

Yapay zekadan kaynaklanan “felaket sonuçlarının” kesinliği ve ciddiyeti hakkında çok çeşitli inançlar olsa da, “bu odadaki hiç kimse hesaplama gücündeki bir sonraki sıçramanın nasıl yeni model yeteneklerine veya yeni model yeteneklerine dönüşeceğini veya dönüşeceğini kesin olarak bilmiyor” diye ekledi. zarar verir”.

Ancak Yapay Zeka Güvenliği Zirvesi öncesinde yayınlanan bir mektupta, 100’den fazla sivil toplum kuruluşu, etkinliğin büyük teknolojinin hakim olduğu kapalı bir mağaza olduğu ve en çok grupların dışlandığı gerekçesiyle etkinliği “kaçırılmış bir fırsat” olarak damgalayan açık bir mektup imzaladı. İşçiler gibi yapay zekadan etkilenmesi muhtemel.

Önemli imzacılar arasında Connected by Data; Sendika Kongresi (TUC); ve Mozilla’nın yanı sıra üçü mektubun koordinasyonunu sağlayan Açık Haklar Grubu (ORG); Uluslararası Af Örgütü; Eticas Teknoloji; Tim Berners-Lee’nin kurduğu Açık Veri Enstitüsü; Birleşik Krallık Yapay Zeka Konseyi’nin eski başkanı Tabitha Goldstaub; ve Eylül 2023’ün başlarında hükümet tarafından sessizce dağıtılmadan önce Veri Etiği ve Yenilik Merkezi’nin (CDEI) danışma kurulunun geçici başkanı olan Cambridge Üniversitesi’nde makine öğrenimi profesörü Neil Lawrence.

Dünyanın dört bir yanından yüz milyonlarca işçiyi temsil eden sendika federasyonları da imza attı; bunlar arasında 60 sendikayı ve 12,5 milyon Amerikalı işçiyi temsil eden Amerikan Çalışma ve Sanayi Kuruluşları Kongresi (AFL-CIO); 41 Avrupa ülkesindeki 93 sendika örgütünden 45 milyon üyeyi temsil eden Avrupa Sendikalar Konfederasyonu (ETUC); ve 167 ülke ve bölgede 191 milyon sendika üyesini temsil eden Uluslararası Sendikalar Konfederasyonu.



Source link