Donelan, zamanlama doğru olana kadar Birleşik Krallık’ta yapay zeka mevzuatı olmayacağını söylüyor


Dijital sekreter Michelle Donelan, Birleşik Krallık hükümetinin doğru zamanlama gelene kadar yapay zeka (AI) hakkında yasa çıkarmayacağını ve bu arada teknolojinin güvenliğini artırmaya ve önerilen “inovasyon yanlısı” çerçeveyi desteklemek için düzenleyici kapasite oluşturmaya odaklandığını söyledi.

13 Aralık’ta Donelan, milletvekillerinin Birleşik Krallık’ın yapay zeka gelişimini teşvik etme ve düzenlemeye yönelik mevcut yaklaşımı hakkındaki sorularını yanıtlamak üzere Bilim, Yenilik ve Teknoloji Komitesi huzuruna çıktı.

Komite daha önce Ağustos ayının sonunda Birleşik Krallık’ın gelişen yapay zeka yönetişim düzenlemeleri hakkında bir geçici rapor yayınlamıştı; bu rapor, Birleşik Krallık’ın, özellikle Avrupa Birliği’nin (AB) Yapay Zeka Yasası olmak üzere başka yerlerde geliştirilen mevzuat nedeniyle “geride bırakılacağı” tehlikesi olduğu konusunda uyardı.

Raporda yapay zeka mevzuatı için, yapay zekanın işleyişiyle ilgili çeşitli rekabet, hesap verebilirlik ve sosyal konularla ilgili 12 zorlu alan belirlendi; bunlar arasında önyargı, mahremiyet, yanlış beyan, verilere erişim, bilgi işlem gücüne erişim ve açık kaynak yer alıyor.

Yasal düzenlemeyi bekliyorum

Kral’ın Konuşmasında (2025’e kadar bir sonraki Parlamento oturumu için yasama takvimini belirleyen) yapay zeka mevzuatının eksikliği hakkında yorum yapan Donelan şunları söyledi: “Yaptığımız şey, yapay zeka güvenliğine diğer tüm ülkelerden daha fazla yatırım yapmaktır.”

Donelan, hükümetin yakın zamanda 28 ülkeyi Bletchley Park’ta düzenlenen Yapay Zeka Güvenliği Zirvesi’nde bir araya getirdiğini, bu etkinlik sırasında konuşlandırma öncesi test ve değerlendirme ihtiyacı etrafında yapılan anlaşmaları ve Mart ayında yayınladığı Yapay Zeka teknik incelemesini kaydetti: “Biz Risklerin tam olarak ne olduğu konusunda daha iyi bir kontrol elde etme konusunda gerçekten iki katına çıktığımızdan emin oluyoruz.

“Bunun daha önce gördüğümüz tüm teknolojilerden daha hızlı gelişen bir teknoloji olduğunu hatırlamanın önemli olduğunu düşünüyorum. Hiçbir ülke risklerin tam olarak ne olduğunu tam olarak bilmiyor.”

Komite başkanı Greg Clark, hükümetin, yapay zeka teknik incelemesinin beş ilkesine (güvenlik ve emniyet; şeffaflık ve açıklanabilirlik; adalet; hesap verebilirlik ve yönetişim dahil) gereken saygıyı gösterme konusunda düzenleyicilere yasal bir görev verme taahhüdünü yerine getirip getirmeyeceği konusunda baskı yaptı. Donelan, zamanlamanın tüm mevzuatlarda önemli olduğunu ve teknolojiyi tam olarak anlamadan çok hızlı hareket ederek inovasyonu engelleme riski bulunduğunu söyledi.

“Düzgün bir şekilde yasa çıkarmak için bu teknolojinin tüm yeteneklerini daha iyi anlayabilmemiz gerekiyor” dedi ve “her ulus eninde sonunda yapay zeka hakkında yasa çıkarmak zorunda kalacak” ancak hükümetin bunu yapabilmenin daha önemli olduğuna karar verdiğini ekledi. hızlı hareket edin ve “hemen somut eyleme geçin”.

“Yasama yapmak için acele etmek ve bunu yanlış anlamak istemiyoruz. Yeniliği engellemek istemiyoruz… Araçlarımızın, elimizdeki sorunla gerçekten başa çıkmamıza olanak tanımasını sağlamak istiyoruz; modelleri değerlendirirken temelde yapabileceğimiz şey de budur.”

Ekim ayının sonunda başbakan Rishi Sunak tarafından başlatılan Yapay Zeka Güvenlik Enstitüsü’nün (önceden Frontier AI Görev Gücü ve ondan önce Model Vakfı Görev Gücü) vurgulandığını vurgulayan Donelan, hükümetin sanayi, akademi ve sivil toplumdan uzmanları getirmekle meşgul olduğunu ve bunun yeni bir araştırma olduğunu söyledi. ve değerlendirme organının, teknolojinin sunduğu çeşitli risklerle tam olarak başa çıkabilmesi için.

Clark tarafından, düzenleyicilere gerekli saygının gösterilmesinin yeniliği nasıl engelleyebileceği sorusuna Donelan doğrudan yanıt vermedi, ancak düzenleyicilerin halihazırda uyması gereken yasalar olduğunu ve teknik incelemenin amacının yapay zekada çalışanlar için tutarlılık ve uyum sağlamak olduğunu söyledi. uzay.

“Bu yasa tasarısına ne koyacağımız henüz belirlenmedi ve zamanlama da belirlenmedi, çünkü biz bu ülkede gerçekten orantılı ve çevik bir yaklaşım izliyoruz; kanıtlara dayalı olacak, bilgi toplayacak ve Yasa çıkarmak için tereddüt etmeden önce riski tam olarak anlayalım” dedi.

“AB Yapay Zeka Yasasına, sonuçlarına ve endüstrinin buna verdiği tepkiye baktığımızda bunun yaratabileceği etkiyi gördük… Bu, ‘Mevzuatın araç kutusundaki tek araç olması’ kadar basit değil – kesinlikle öyle’ ve mevzuatın dezavantajları var, [like] bu kadar uzun sürdüğü gerçeği.”

Kendisi, Birleşik Krallık’ın yapay zeka güvenliği konusundaki çalışmalarının halihazırda devam etmesi nedeniyle AB ve ABD’nin “zaman içinde bu boşluğu doldurmamızı bekleyeceğini” de sözlerine ekledi.

Donelan, enstitünün güvenlikle ilgili çeşitli araştırmalarının yanı sıra yapay zeka modeli değerlendirmelerini de yürütebilecek konumda olduğunu söylerken, Whitehall yetkilileri daha önce Kasım ayı ortasında komiteye enstitünün bugüne kadar yaptığı hiçbir çalışmanın emsal incelemesinden geçmediğini söylemişti. .

Bilim, İnovasyon ve Teknoloji Departmanı’nın (DSIT) dijital teknolojiler ve telekomünikasyon genel müdürü Emran Mian, enstitünün politika yapıcılara yapay zeka güvenliği konusundaki görüşmeleri ilerletmede ve konuyla ilgili uluslararası işbirliğini başlatmada zaten yardımcı olduğunu söyledi. .

“Bilimi iyi değerlendirmenin neye benzeyeceği etrafında inşa etmeye açıkça ihtiyacımız var” dedi.

Düzenleyici boşluklar mı?

Teknik incelemede de belirtildiği gibi, hükümetin yapay zeka önerilerinin önemli bir unsuru, Bilgi Komisyonu Ofisi (ICO), Sağlık ve Güvenlik İdaresi, Eşitlik ve İnsan Hakları Komisyonu (EHRC) ve Rekabet ve Piyasalar dahil olmak üzere mevcut düzenleyicilere güvenmektir. Yetki (CMA) – inceledikleri sektörlerde yapay zekanın kullanım şekillerine uygun, özel, bağlama özgü kurallar oluşturmak.

Komite, geçici raporunda, herhangi bir yasama girişiminde bulunulmadan önce kapasite ve yetkilerine ilişkin bir “boşluk analizi” yapılmasını tavsiye etti.

Donelan, bağımsız bir AI düzenleyicisinin çok fazla örtüşme ve iş tekrarı yaratacağını ve bu nedenle farklı bağlamları anlamak için en iyi konumda oldukları için Birleşik Krallık’ın “mevcut düzenleyici filosunu” kullanmanın daha iyi olacağını savunarak yaklaşımı komite önünde savundu. AI’nın kendi sektörlerinde nasıl kullanıldığı hakkında.

Ancak hükümetin resmi bir boşluk analizi yapmadığını ve bunun yerine sorunları belirlemek için yinelenen bir yaklaşım benimsediğini de sözlerine ekledi: “Bu elbette devam eden bir süreç çünkü yapay zeka yeni gelişen bir teknoloji. Yani şimdi bir boşluk analizi yapsak birkaç ay sonra tamamen farklı olabilir. Bu boşluk analizini sürekli yapmamız gerekiyor.

Donelan milletvekillerine, departmanının halihazırda teknik incelemeye göre kısmen ufuk tarama organı ve kısmen de diğer düzenleyiciler için destek fonksiyonu olarak görev yapacak bir “merkezi düzenleme işlevi” kurma sürecinde olduğunu söyledi.

Hükümetin ayrıca, dijital yaşamın farklı yönleriyle ilgili yetkileri olan dört düzenleyiciden oluşan bir koalisyon olan Dijital Düzenleme İşbirliği Forumu’nu (DRCF) 2 milyon £ ekstra fonla desteklediğini de sözlerine ekledi.

“Düzenleyicilerimizle aramızda boşluklar olduğunu tespit edersek, onlara yardımcı olabilmek için diğer forumları veya destek fonksiyonlarını düşünmeye açık oluruz” dedi. “Yapmak istediğimiz şey, bu gündemde ön planda olmak için düzenlemelerin ve doğru mekanizmaların mevcut olduğundan emin olmaktır.”

Temmuz 2023’te Ada Lovelace Enstitüsü tarafından gerçekleştirilen bir düzenleyici boşluk analizi, Birleşik Krallık ekonomisinin “büyük bir kısmının” düzenlemeye tabi olmaması veya yalnızca kısmen düzenlemeye tabi olması nedeniyle, bir dizi farklı alanda yapay zeka konuşlandırmalarının incelenmesinden kimin sorumlu olacağının net olmadığını ortaya çıkardı. bağlamlar.

Buna, kapsamlı bir şekilde izlenmeyen işe alım ve istihdam uygulamaları da dahildir; eşit olmayan bir düzenleyici ağ tarafından izlenen ve uygulanan eğitim ve polislik; ve doğrudan düzenlenmeyen merkezi hükümet birimleri tarafından yürütülen faaliyetler.

Enstitü, “Bu bağlamlarda, yeni yapay zeka ilkelerinin yapay zeka sistemlerini dağıtan veya kullanan kuruluşların uygulamalarına dahil edilmesini sağlamak için net bir genel gözetime sahip, mevcut, alana özgü bir düzenleyici olmayacak” dedi.

Enstitü için veri hakları kurumu AWO tarafından gerçekleştirilen bağımsız hukuki analizde, bu bağlamlarda Birleşik Krallık GDPR ve Eşitlik Yasası gibi kesişen mevzuat tarafından sunulan korumaların çoğu zaman insanları zarardan korumakta veya onlara zarar vermekte başarısız olduğu tespit edildi. düzeltmenin etkili bir yolu.

“Bu uygulama boşluğu çoğu zaman bireyleri haklarını uygulamak için mahkeme işlemlerine bağımlı bırakıyor; bu da maliyetli ve zaman alıcıdır ve çoğu zaman en savunmasız kişiler için bir seçenek değildir” dedi.



Source link