Ada Lovelace Enstitüsü, Birleşik Krallık AI yönetmeliğinde ‘önemli boşluklar’ olduğunu söylüyor


Ada Lovelace Enstitüsü, Birleşik Krallık hükümetinin “düzensizleştirici” veri reformu önerilerinin, “zaten zayıf olan bir telafi ve sorumluluk ortamını” daha da kötüleştirerek yapay zekanın (AI) güvenli bir şekilde geliştirilmesini ve konuşlandırılmasını baltalayacağını söyledi.

29 Mart’ta yayınlanan hükümetin yapay zeka raporu, yapay zekayı düzenlemeye yönelik “uyarlanabilir” yaklaşımını özetledi ve bunun, teknolojiye halkın güvenini korurken sorumlu inovasyonu teşvik edeceğini iddia etti.

Önerilen bu “yenilik yanlısı” çerçevenin bir parçası olarak hükümet, Bilgi Komiserliği Ofisi (ICO), Sağlık ve Güvenlik Yürütücüsü, Eşitlik ve İnsan Hakları Komisyonu (EHRC) ve Rekabet ve Piyasalar Kurumu dahil olmak üzere mevcut düzenleyicileri güçlendireceğini söyledi. inceledikleri sektörlerde yapay zekanın kullanım biçimlerine uyan özel, bağlama özgü kurallar oluşturmak.

2023 Sonbaharında biraz zaman geçmesi planlanan Veri Koruma ve Dijital Bilgi (DPDI) Yasa Tasarısı, Birleşik Krallık’ın Avrupa Birliği’nin Genel Veri Koruma Yönetmeliği (GDPR) ve Yasa Uygulama Direktifi’ni (LED) uygulamasını da değiştirecek; sivil toplum gruplarının daha önce “Birleşik Krallık veri koruma çerçevesinin toptan kuralsızlaştırılması” olarak kınadığı.

Ancak Ada Lovelace Enstitüsü, Birleşik Krallık’ın yapay zeka düzenlemesine yönelik önerilerini analiz eden bir raporda, Birleşik Krallık ekonomisinin “büyük bir bölümünün” ya düzenlenmediği ya da yalnızca kısmen düzenlendiği için, yapay zeka dağıtımlarının incelenmesinden kimin sorumlu olacağının net olmadığını tespit etti. bir dizi farklı bağlam.

Bu, kapsamlı bir şekilde izlenmeyen işe alım ve istihdam uygulamalarını içerir; düzensiz bir düzenleyiciler ağı tarafından izlenen ve uygulanan eğitim ve polislik; ve doğrudan düzenlenmeyen merkezi hükümet daireleri tarafından yürütülen faaliyetler.

“Bu bağlamlarda, yeni AI ilkelerinin AI sistemlerini dağıtan veya kullanan kuruluşların uygulamalarına dahil edilmesini sağlamak için net bir genel gözetime sahip, alana özgü mevcut bir düzenleyici olmayacak” dedi ve bağımsız yasal analizin yürütüldüğünü de sözlerine ekledi. Veri hakları ajansı AWO tarafından hazırlanan Enstitü, bu bağlamlarda, şu anda Birleşik Krallık GDPR ve Eşitlik Yasası gibi kesişen mevzuat tarafından sunulan korumaların, insanları zarar görmekten korumakta veya onlara etkili bir tazminat yolu sağlamakta genellikle başarısız olduğunu tespit etti. “Bu uygulama boşluğu, kişileri haklarını uygulamak için sıklıkla maliyetli ve zaman alıcı olan ve çoğu zaman en savunmasız olanlar için bir seçenek olmayan mahkeme işlemlerine bağımlı bırakıyor.”

Zayıflamış veri hakları

Enstitü, DPDI yasa tasarısında, veri toplama ve işlemeye yönelik yasal dayanakları genişleterek, yüksek riskli işleme yapılırken veri koruma etki değerlendirmeleri yapma zorunluluğu gibi gereklilikleri kaldırarak, mevcut veri haklarını zayıflatsa bile mevcut veri haklarını zayıflattığını ekledi. daha öte.

“AI bağlamında özellikle önemli bir koruma, Birleşik Krallık GDPR’nin 22. Maddesidir ve şu anda kuruluşların, bir avuç istisna dışında, yalnızca otomatik işlemeye dayalı olarak ‘yasal veya benzer şekilde önemli’ etkileri olan kişiler hakkında karar vermesini yasaklamaktadır” dedi.

“Tasarı, birçok otomatik karar türü üzerindeki yasağı kaldırıyor, bunun yerine veri denetleyicilerinin, örneğin bir bireyin karara itiraz etmesini sağlayacak önlemler gibi – pratikte daha düşük bir koruma düzeyi olan – önlemler almasını gerektiriyor.”

AWO’da bir avukat olan Alex Lawrence-Archer şunları söyledi: “Sıradan insanların çevrimiçi zararlardan etkili bir şekilde korunması için, düzenlemelere, güçlü düzenleyicilere, tazmin haklarına ve bu hakların uygulanması için gerçekçi yollara ihtiyacımız var.

“Yasal analizimiz, AI zararlarının yeterince önlenemeyeceği veya ele alınamayacağı anlamına gelen önemli boşluklar olduğunu gösteriyor, bunlara neden olma tehdidinde bulunan teknoloji giderek her yerde bulunur hale gelse bile.”

öneriler

Bu nedenle Enstitü, hükümete DPDI yasa tasarısının insanların güvenliğini baltalayacak unsurlarını ve özellikle de ortaya koyduğu hesap verebilirlik çerçevesi etrafında “yeniden düşünmesini” tavsiye etti.

Hükümetin ayrıca mevcut mevzuatın sağladığı hak ve korumaları gözden geçirmesi ve gerektiğinde yeni haklar ve korumalar getirmek için yasa çıkarması gerektiğini; ve insanların yapay zeka sistemlerini kullanırken veya bunlarla etkileşim kurarken hangi korumaları beklemesi gerektiğine dair “birleştirilmiş bir açıklama” üretin.

Ayrıca, özellikle şu anda resmi mekanizmaların bulunmadığı sektörlerde, AI’dan etkilenen bireyler için bir çeşit tazmin veya anlaşmazlık çözme mekanizmasına ihtiyaç olduğuna dikkat çekilerek bir “AI ombudsmanı” oluşturulmasının araştırılmasını tavsiye etti.

“Ombudsman tarzı bir modelin benimsenmesi, hükümetin ortaya koyduğu diğer merkezi işlevlerin bir tamamlayıcısı olarak hareket edebilir, bireylerin şikayetlerini çözmelerine destek olabilir, bunun mümkün olmadığı durumlarda onları uygun düzenleyici kurumlara yönlendirebilir ve hükümete ve düzenleyicilere önemli içgörüler sağlayabilir. İnsanların yaşadığı yapay zeka türleri ve bunların etkili bir şekilde tazminat sağlayıp sağlamadıkları ”dedi.

Enstitü, biyometrik verilerin “benzersiz kişisel” doğası göz önüne alındığında, kanıtların, mevcut yasal çerçevenin sağlamadığı “biyometri kullanımına yönelik yaygın bir kamu kabulü veya desteği” olmadığını gösterdiğini belirterek, biyometrinin AI’yı etkin bir şekilde yönetmek için “yeni haklar ve korumaların” gerekli olabileceği birkaç alan.

Hem Parlamento hem de sivil toplum defalarca, polisin ileri algoritmik teknolojileri kullanmasına ilişkin bir Lordlar Kamarası soruşturması da dahil olmak üzere, özellikle kolluk kuvvetleri tarafından biyometri kullanımını düzenleyen yeni yasal çerçeveler için çağrıda bulundu; İngiltere’nin eski biyometri komiseri Paul Wiles; Matthew Ryder QC tarafından bağımsız bir yasal inceleme; Birleşik Krallık Eşitlikler ve İnsan Hakları Komisyonu; ve Temmuz 2019’a kadar canlı yüz tanıma konusunda bir moratoryum çağrısında bulunan Avam Kamarası Bilim ve Teknoloji Komitesi.

Ancak hükümet, “zaten kapsamlı bir çerçevenin” yürürlükte olduğunu savunuyor.

Başka yerlerde, rapor, “çoğu marjinalleştirilmiş olanlar tarafından orantısız bir şekilde hissedilen, günümüzde yapay zeka kullanımıyla ilişkili önemli zararlar” göz önüne alındığında, hükümetten daha fazla aciliyet çağrısında bulunuyor.

Temel AI modellerinin ekonomiye entegre edilme hızının da bu zararları artırma riski taşıdığını ekledi.

“Temel modeller bir dizi uygulama için temel olarak kullanıldığında, temel model düzeyindeki herhangi bir hata veya sorun, bu modelin üzerine inşa edilen veya bu modelden ‘ince ayar yapılmış’ uygulamaları etkileyebilir” dedi.

“Temel modellerin bu kontrolsüz dağıtımı, yapay zeka ilkelerini yapay zekayı dağıtan ve kullanan kuruluşların uygulamalarına yerleştirme zorluklarını birleştirme riski taşıyor. Vakıf Model Görev Gücü’nün zamanında harekete geçmesi, vakıf modellerinin kullanımı arttıkça bu en son teknolojilerin işletmeler ve halk tarafından güvenilir kabul edilmesini sağlamak için gerekli olacaktır.”

Bu nedenle Enstitü, temel model geliştiricileri için zorunlu raporlama gerekliliklerinin getirilmesini tavsiye etmiştir; hükümette daha iyi uzmanlık ve izleme geliştirmek için pilot projeler; ve hükümetin 2023 Sonbaharında yapılacak Yapay Zeka Güvenliği Zirvesi’nde daha çeşitli sesler dahil.

Haziran 2023’te AI güvenliğine liderlik etmek için 100 milyon sterlinlik bir finansmanla kurulan hükümetin Vakıf Modeli Görev Gücü’nün, herhangi bir pilot programın yürütülmesinde ve ayrıca mevcut yasaların uygulanmasına yönelik fırsatların ve engellerin gözden geçirilmesinde rol oynayabileceğini de sözlerine ekledi.

Enstitü tarafından yapılan diğer tavsiyeler arasında düzenleyicilere sağlanan fonların “önemli ölçüde” artırılması (EHRC’den gelen çağrılar doğrultusunda); AI riskine ilişkin yasal ve mali yükümlülüğün AI değer zincirleri boyunca orantılı olarak dağıtılması için AI sorumluluğuna ilişkin yasanın açıklığa kavuşturulması; ve teknolojiyi uzun vadeli kamu yararına yönlendirmek için yapay zeka yeteneklerinin kamu tarafından geliştirilmesini düşünmek.



Source link