Milletvekilleri İngiltere’nin yapay zeka düzenlemesinde geride kalma riskiyle karşı karşıya olduğunu söylüyor


Milletvekilleri, hükümetin bir sonraki Parlamento oturumunda yapay zekaya (AI) özel mevzuat getirmesi gerektiği, aksi takdirde İngiltere’nin başka yerlerde geliştirilen mevzuat nedeniyle “geride bırakılma” tehlikesi olacağı konusunda uyardı.

Avam Kamarası Bilim, Yenilik ve Teknoloji Komitesi (SITC) tarafından Birleşik Krallık’ın yapay zekaya yönelik yönetişim önerilerine ilişkin devam eden soruşturmanın bir parçası olarak 31 Ağustos 2023’te yayınlanan bir ara raporda milletvekilleri, hükümeti yapay zeka için düzenleyici bir rejimin uygulanmasını hızlandırmaya çağırdı , Parlamentonun bu yeni oturumunun bir sonraki genel seçimlerden önce AI mevzuatını tanıtmak için son fırsat olacağını belirtti.

Hükümet, Mart 2023’te yapay zekayı düzenlemeye yönelik “uyarlanabilir” ve “inovasyon yanlısı” yaklaşımını özetleyen bir yapay zeka teknik incelemesi yayınladı ve bunun, kamuoyunun güvenini korurken teknolojinin sorumlu bir şekilde geliştirilmesini sağlayacağını iddia etti.

Teknik incelemede hükümet ayrıca, “düzenleyicilerimizin, [five AI governance] emniyet ve güvenliği kapsayan ilkeler”; şeffaflık ve açıklanabilirlik; adalet; hesap verebilirlik ve yönetişim; ve itiraz edilebilirlik ve telafi.

“Bu taahhüt [for due regard] SITC raporunda, “Ortaya çıkabilecek diğer gerekliliklere ek olarak, tek başına, Parlamentonun yeni oturumunda sıkı bir şekilde odaklanmış bir Yapay Zeka Yasa Tasarısı olması gerektiğini gösteriyor” dedi. “Birleşik Krallık’ın üç yıl boyunca herhangi bir yeni yasal düzenleme getirmemesi halinde, hükümetin iyi niyetinin diğer mevzuat tarafından geride bırakılması tehlikesini görüyoruz. [European Union’s] AB Yapay Zeka Yasası – bu fiili standart haline gelebilir ve değiştirilmesi zor olabilir.”

Bu nedenle hükümetin, Kasım 2022’de yapılacak olan Kral’ın Konuşmasına yapay zeka mevzuatının dahil edilip edilmeyeceğini onaylaması gerektiğini de sözlerine ekledi.

AB’de yakında çıkacak Yapay Zeka Yasası ve Biden yönetiminin yapay zeka güvenliği konusunda büyük teknoloji firmalarıyla yaptığı gönüllü anlaşmalar konusunda mevcut üçlü müzakerelere dikkat çeken SITC başkanı Greg Clark, bir brifingde gazetecilere, hükümetin kendi yapay zeka yasasını kurması için zamanın tükendiğini söyledi. Yapay zeka ile ilgili yetkiler ve gözetim mekanizmaları.

“Bu oturumda, yani önümüzdeki birkaç ayda, hedef odaklı ve asgari düzeyde olanak sağlayan bir mevzuat dahi olmazsa, o zaman gerçek [for the introduction of UK AI legislation] Muhtemelen 2025 yılı olacak” dedi ve yeni mevzuatı yürürlüğe koyma şansının sadece “zaman aşımına uğradık” diye kaçırılmamasının “sinir bozucu” olacağını da sözlerine ekledi.

“Hükümetin arzuları gerçekleşecekse ve yaklaşımı görüşmelerin ötesine geçmekse, ihtiyaç duyulacağını söylediği yasama yetkilerini yasalaştırma konusunda daha büyük bir aciliyetle hareket etmesi gerekebilir.”

Ayrıca, herhangi bir mevzuatın, komitenin raporunda ortaya konan ve yapay zekanın işleyişiyle ilgili çeşitli rekabet, hesap verebilirlik ve sosyal konularla ilgili 12 yapay zeka yönetişim zorluğuna uyum sağlaması gerektiğini de sözlerine ekledi.

Spesifik zorluk alanları arasında önyargı, gizlilik, yanlış beyan, verilere erişim, bilgi işlem gücüne erişim, kara kutu yapay zeka modelleri, açık kaynak, fikri mülkiyet ve telif hakkı, sorumluluk, istihdam, uluslararası koordinasyon ve varoluşsal riskler yer alıyor.

“Artık hükümetin Mart ayında ortaya koyduğu beş ilkenin ötesine geçmemiz gerektiğini söylüyoruz… [which] Clark, “Daha yüksek bir soyutlama düzeyindeyiz” dedi ve 12 zorluğun, komite tarafından şu ana kadar toplanan kanıtlara dayanan “daha somut ve daha spesifik” öneriler olduğunu ekledi.

Komite, tavsiyelerinde hükümetin hem iç politika hem de uluslararası girişimler yoluyla ana hatlarıyla belirtilen zorluk alanlarının her birini ele alması gerektiğini söyledi.

Hükümetin (teknik incelemeye göre) Bilgi Komisyonu Ofisi (ICO), Sağlık ve Güvenlik İdaresi, Eşitlik ve İnsan Hakları Komisyonu (EHRC) ve Rekabet ve Piyasalar Otoritesi (CMA) dahil olmak üzere mevcut düzenleyicilere güvenme niyeti göz önüne alındığında, Komite, inceledikleri sektörlerde yapay zekanın kullanım şekillerine uygun özel, bağlama özgü kuralların yanı sıra, herhangi bir yasama girişiminde bulunulmadan önce kapasiteleri ve yetkileri hakkında bir “boşluk analizi” yapılmasını da tavsiye etti.

“Birçok düzenleyicinin, hem bireysel olarak hem de Dijital Düzenleme İşbirliği Forumu gibi girişimler aracılığıyla yapay zekanın kendi görev alanları üzerindeki etkileriyle halihazırda aktif olarak ilgilendiğini duyduk” dedi. “Ancak, bu raporda ortaya konulan tüm zorlukların çözümünün daha iyi geliştirilmiş bir merkezi koordinasyon fonksiyonu gerektirebileceği zaten açıktır.”

Clark, komitenin 25 Ekim 2023’te Birleşik Krallık düzenleyicilerinden kanıt alacağını doğruladı.

Boşluk analizini halihazırda kitaplarda yer alan önceden var olan telif hakkı yasaları örneğiyle ilişkilendiren Clark, telif hakkıyla korunan içeriklerin kullanımının izlenmesinin mümkün olup olmadığı gibi, mevcut yetkilerin güncellenmesini gerektirebilecek yapay zeka tarafından sunulan “belirli” zorlukların bulunduğunu söyledi. AI modellerindeki materyal veya orijinal telif hakkıyla korunan materyalden ne derecede seyreltmenin kabul edilebilir olduğu.

“Bir müzik parçasını ya da bir yazıyı alıp kendinizin ya da bir başkasınınmış gibi tozunu alırsanız, içtihat iyice yerleşmiş olur” dedi. “Ancak anladığım kadarıyla şu anda yüzbinlerce katkıda bulunan yeni bir bestede müziğin kullanılmasına karşı pek fazla içtihat yok. Bu oldukça yeni bir zorluk.”

Birleşik Krallık hükümeti, üretken yapay zeka şirketlerinin telif hakkıyla korunan materyallere erişimlerini kolaylaştırmak için bir uygulama kuralları oluşturmayı ve yapay zeka firmaları ile yaratıcı sektörlerdekiler arasında tatmin edici bir anlaşmaya varılamaması durumunda özel mevzuatı takip etmeyi taahhüt etti.

Clark ayrıca bir sonraki genel seçimlerde yapay zeka yönetimi konusunda partilerin siyasi pozisyonlarından kaçınmanın önemli olacağı konusunda da uyardı çünkü Birleşik Krallık’taki yapay zeka düzenlemesinin zaman sınırlı bir yaklaşım olduğuna dair herhangi bir öneri, yatırım kararlarını olumsuz yönde etkileyebilir.

“Hükümetin geçici raporumuza ve AI teknik incelemesine verdiği yanıtı ilgiyle inceleyeceğiz ve zamanı gelince nihai bir dizi politika tavsiyesi yayınlayacağız” dedi.

Ada Lovelace Enstitüsü tarafından Temmuz 2023’te yürütülen bir boşluk analizi, Birleşik Krallık ekonomisinin “büyük bir kısmının” ya düzenlenmemiş ya da yalnızca kısmen düzenlenmiş olması nedeniyle, bir dizi farklı alanda yapay zeka konuşlandırmalarının incelenmesinden kimin sorumlu olacağının net olmadığını ortaya çıkardı. bağlamlar.

Buna, kapsamlı bir şekilde izlenmeyen işe alım ve istihdam uygulamaları da dahildir; eşit olmayan bir düzenleyici ağ tarafından izlenen ve uygulanan eğitim ve polislik; ve doğrudan düzenlenmeyen merkezi hükümet birimleri tarafından yürütülen faaliyetler.

“Bu bağlamlarda, yeni yapay zeka ilkelerinin yapay zeka sistemlerini dağıtan veya kullanan kuruluşların uygulamalarına dahil edilmesini sağlamak için net bir genel gözetime sahip mevcut, alana özgü bir düzenleyici olmayacak” dedi ve bağımsız bir yasal analizin yürütüldüğünü ekledi. veri hakları kurumu AWO tarafından yapılan enstitü, bu bağlamlarda, Birleşik Krallık’ın Genel Veri Koruma Yönetmeliği (GDPR) ve Eşitlik Yasası’nın uygulanması gibi birbiriyle kesişen mevzuat tarafından sunulan korumaların çoğu zaman insanları zarar görmekten veya veri kaybından korumakta başarısız olduğunu tespit etti. telafi etmek için etkili bir yoldur.

“Bu uygulama boşluğu sıklıkla bireyleri haklarını uygulamak için mahkeme işlemlerine bağımlı bırakıyor; bu da maliyetli ve zaman alıcıdır ve çoğu zaman en savunmasız kişiler için bir seçenek değildir.”



Source link