Milletvekilleri, bir sonraki Birleşik Krallık hükümetinin yapay zeka konusunda yasa çıkarmaya hazır olması gerektiğini söylüyor


Temsilciler Meclisi Bilim, İnovasyon ve Teknoloji Komitesi (SITC), bir sonraki Birleşik Krallık hükümetinin, kamu çıkarlarını hızlı ilerleyen teknolojik gelişmelerden korumak için düzenleyicilerin yetkilerinde boşluklar bulması durumunda yapay zeka (AI) hakkında yasa çıkarmaya hazır olması gerektiğini söyledi.

Birleşik Krallık’ın teknolojinin etik ve sorumlu bir şekilde kullanılmasını nasıl sağladığını incelemek üzere Ekim 2022’de başlatılan Birleşik Krallık’ın yapay zeka yönetimine ilişkin soruşturmasının ardından Avam Kamarası SITC, bir sonraki hükümetin yasa çıkarmaya hazır olması gerektiğini söyledi. Mevcut müdahalesiz yaklaşım, teknolojiyle ilişkili mevcut ve gelecekteki zararların ele alınmasında yetersiz kalırsa yapay zeka konusunda.

Komite, kendi sektörlerinde yapay zekanın yayılmasını yönetmek için mevcut düzenleyici kurumları kullanma yönündeki mevcut yaklaşımı büyük ölçüde kabul etse de, mevcut Parlamento oturumunun yaklaşmakta olan sonunun, boşluklar olması durumunda düzenleyicilerin görev alanları veya yetkileri ile ilgili güncellemeleri ileri sürmek için zaman olmadığı anlamına geldiğini ekledi. tanımlanır.

Düzenleyiciler ile “büyük kaynaklara hakim olabilen” önde gelen yapay zeka geliştiricileri arasındaki büyük mali eşitsizlikler göz önüne alındığında SITC, bir sonraki hükümetin şirketlerin hesap verebilir olmasına yardımcı olmak için Birleşik Krallık düzenleyicilerine daha fazla maddi destek sunması gerekeceğini söyledi.

“Mevcut düzenleyiciler aracılığıyla çalışmak doğru, ancak bir sonraki hükümet, birçok düzenleyiciden herhangi birinin etkili olmak için yasal yetkilere sahip olmadığı ortaya çıkarsa, hızlı bir şekilde yasa çıkarmaya hazır olmalıdır. SITC başkanı Greg Clark, “Britanya’daki düzenleyici kurumların, büyük geliştiricilerin yönetebileceği finansmanla karşılaştırıldığında yetersiz kaynaklandığından endişe duyuyoruz” dedi.

SITC ayrıca, Birleşik Krallık hükümetinin Bletchley Park’taki Yapay Zeka Güvenlik Zirvesi’nde gönüllü olarak kararlaştırıldığı gibi, Birleşik Krallık Yapay Zeka Güvenlik Enstitüsü’nün (AISI), konuşlandırma öncesi güvenlik testleri için bazı Yapay Zeka geliştirici modellerine erişemediğine dair Politico’dan gelen raporlar hakkında endişelerini dile getiriyor. Kasım 2023’te.

Boşlukları tıkamak

Ağustos 2023 tarihli bir ara raporda SITC daha önce Birleşik Krallık’ın, Avrupa Birliği (AB) gibi diğer yetki alanlarında geliştirilmekte olan yapay zeka ile ilgili diğer mevzuatın geride kalma riskiyle karşı karşıya olduğu konusunda uyardı ve hükümeti bu değişikliğin yapılıp yapılmayacağını ve ne zaman yapılacağını onaylamaya zorladı. resmi olarak yasalaştırmayı uygun görüyorum.

Ancak takip oturumlarında SITC, üst düzey Whitehall yetkililerinden ve dijital sekreter Michelle Donelan’dan hükümetin yapay zekaya özgü mevzuata duyulan ihtiyaç konusunda hemfikir olmadığını ve teknolojinin güvenliğini artırmanın ve düzenleyici kapasite oluşturmanın daha önemli olduğunu duydu. Mart 2023 tarihli AI teknik incelemesinde ana hatları verilen “inovasyon yanlısı” çerçevenin desteklenmesi.

Bu yaklaşıma göre Birleşik Krallık hükümeti, halihazırda kitaplarda yer alan yasalarla tutarlı olarak, inceledikleri sektörlerde yapay zekanın kullanım şekillerine uygun, özel, bağlama özgü kurallar oluşturmak için mevcut sektörel düzenleyicilere güvenecektir.

Hükümet, yapay zeka yasalarını doğru zaman gelene kadar erteleme taahhüdünü büyük ölçüde yeniden teyit etse de, Şubat 2024’te, en güçlü yapay zeka sistemlerini geliştiren şirketler için bağlayıcı yasal gereklilikleri dikkate alacağını ve yapay zeka şirketleri için herhangi bir gönüllü önlemin dikkate alınacağını belirtti. muhtemelen en gelişmiş yeteneklerin sunduğu “riskle orantısız” olacaktır.

SITC, “Hükümet bu rapora yanıtında, hangi model performans göstergelerinin, bilgi işlem gücü gibi eğitim gereksinimlerinin veya diğer faktörlerin dikkate alınacağı da dahil olmak üzere, yasa çıkarma kararının tetikleneceği kriterlerin daha fazla dikkate alınmasını sağlamalıdır” dedi. tavsiyeleri.

Bir sonraki hükümetin, yasama kararını tetiklemek için belirttiği kriterlerle ilgili teknolojik gelişmelerin bir özetini ve bu kriterlerin geçerli olup olmadığına dair bir değerlendirmeyi içermesi gereken, AI düzenlemesine yönelik mevcut yaklaşımını Parlamento önünde üç ayda bir gözden geçirmeyi taahhüt etmesi gerektiğini ekledi. karşılandı.

Düzenleyiciler ile yapay zeka şirketleri arasındaki eşitsizlikler göz önüne alındığında SITC, mevcut finansman seviyelerinin “bu zorluğun üstesinden gelmek için açıkça yetersiz” olduğunu ve bir sonraki hükümetin “düzenleyicilerle istişarede bulunularak mutabakata varılan daha fazla mali destek duyurması gerektiğini” ekledi. görevin ölçeği”.

SITC, hükümetin düzenleyicilere daha fazla yetki gerekip gerekmediğini görmek için bir “düzenleyici boşluk analizi” yapma taahhüdünü memnuniyetle karşılarken, mevcut Parlamento oturumunun yaklaşan sonunun, boşluk olması durumunda düzenleme yetkilerini veya yetkilerini güncellemek için zaman kalmadığı anlamına geldiğini söyledi. tanımlanır.

Temmuz 2023’te Ada Lovelace Enstitüsü tarafından gerçekleştirilen bir düzenleyici boşluk analizi, Birleşik Krallık ekonomisinin “büyük bir bölümünün” ya düzenlenmemiş ya da yalnızca kısmen düzenlenmiş olması nedeniyle, çeşitli sektörlerde yapay zeka konuşlandırmalarının incelenmesinden kimin sorumlu olacağının şu anda net olmadığını ortaya çıkardı. farklı bağlamlar.

Buna, kapsamlı bir şekilde izlenmeyen işe alım ve istihdam uygulamaları da dahildir; eşit olmayan bir düzenleyici ağ tarafından izlenen ve uygulanan eğitim ve polislik; ve doğrudan düzenlenmeyen merkezi hükümet birimleri tarafından yürütülen faaliyetler.

Enstitü, “Bu bağlamlarda, yeni yapay zeka ilkelerinin yapay zeka sistemlerini dağıtan veya kullanan kuruluşların uygulamalarına dahil edilmesini sağlamak için net bir genel gözetime sahip, mevcut, alana özgü bir düzenleyici olmayacak” dedi.

Veri hakları kurumu AWO tarafından enstitü için gerçekleştirilen bağımsız hukuki analizde, bu bağlamlarda Birleşik Krallık GDPR ve Eşitlik Yasası gibi birbiriyle kesişen mevzuat tarafından sunulan korumaların çoğu zaman insanları zarardan korumada veya onlara zarar vermede başarısız olduğu tespit edildi. telafi etmek için etkili bir yoldur.

Dağıtım öncesi testler

Dağıtım öncesi testlerde SITC, AI Güvenlik sırasında firmalarla gönüllü olarak mutabakata varılan, AISI’nin piyasaya sürülmeden önce güvenlik testlerini gerçekleştirmek için yayınlanmamış modellere erişemediği yönündeki önerilerden “endişe duyduğunu” söyledi. Kasım 2023’te zirve.

“Eğer doğruysa bu, enstitünün misyonunu yerine getirmesine ve halkın teknolojiye olan güvenini artırma becerisine zarar verecektir” dedi. “Hükümet, bu rapora yanıtında, Yapay Zeka Güvenlik Enstitüsü’nün hangi modellerde dağıtım öncesi güvenlik testi yaptığını, testin niteliğini, bulguların özetini, model geliştiricileri tarafından herhangi bir değişiklik yapılıp yapılmadığını doğrulamalıdır. sonuç ve herhangi bir geliştiriciden değişiklik yapması istenip istenmediği ancak bunu yapmayı reddedip reddetmediği.

“Hükümet ayrıca enstitünün hangi modellere erişim sağlayamadığını ve bunun nedenini doğrulamalıdır. Herhangi bir geliştiricinin erişimi reddetmesi halinde (ki bu, Bletchley Park’ta Kasım 2023 Zirvesi’nde bildirilen anlaşmaya aykırıdır), hükümet onlara isim vermeli ve bunu yapma gerekçelerini ayrıntılı olarak açıklamalıdır.”

Computer Weekly, SITC raporu hakkında yorum yapmak ve özellikle şirketlerin erişim sağlamayı kabul ettiği tüm modellerin dağıtım öncesi güvenlik testlerini yapıp yapmadığını öğrenmek için DSIT ile temasa geçti ancak herhangi bir yanıt alamadı.

Güney Kore’deki Yapay Zeka Seul Zirvesi sırasında, 16 küresel yapay zeka şirketi, teknolojiyi güvenli bir şekilde nasıl geliştireceklerine ilişkin gönüllü bir dizi önlem olan Sınır Yapay Zeka Güvenlik Taahhütlerini imzaladı.

Spesifik olarak, tüm yapay zeka yaşam döngüsünün her aşamasında modellerinin oluşturduğu riskleri gönüllü olarak değerlendirmeyi taahhüt ettiler; en şiddetli tehditlerle başa çıkmak için kabul edilemez risk eşiklerinin belirlenmesi; eşik değerlerin ihlal edilmemesini sağlamak için azaltımların nasıl tanımlanacağını ve uygulanacağını ifade etmek; ve sürekli olarak güvenlik değerlendirme yeteneklerine yatırım yapıyorlar.

Temel gönüllü taahhütlerden biri kapsamında, riskler yeterince azaltılamıyorsa şirketler yapay zeka sistemleri geliştirmeyecek veya dağıtmayacak.

Yoshua Bengio – Turing Ödülü sahibi bir yapay zeka akademisyeni ve sınır ötesi yapay zekaya başkanlık eden BM Bilimsel Danışma Kurulu üyesi Bilimin Durumu Bletchley’de mutabakata varılan rapor, bu kadar çok önde gelen yapay zeka şirketinin kaydolduğunu görmekten memnuniyet duyduğunu (ve özellikle aşırı risk teşkil eden modelleri durdurma taahhütlerini memnuniyetle karşıladığını) ancak gelecekte daha resmi düzenleyici önlemlerle desteklenmeleri gerektiğini söyledi. astar.

“Bu gönüllü taahhüdün elbette diğer düzenleyici önlemlerle birlikte yapılması gerekecek, ancak yine de bu, yapay zeka güvenliğini teşvik etmek için uluslararası bir yönetişim rejiminin oluşturulmasında ileriye doğru atılmış önemli bir adıma işaret ediyor” dedi.



Source link