AB’nin Yapay Zeka Yasası hukukun üstünlüğünü ve sivil alanı koruyamıyor


Avrupa Kâr Amacı Gütmeyen Hukuk Merkezi’nin (ECNL) yaptığı değerlendirmeye göre, Avrupa Birliği’nin (AB) Yapay Zeka (AI) Yasası “hukukun üstünlüğünü ve sivil alanı etkili bir şekilde korumada başarısız oluyor”.

Çalışma, AI Yasasında “aceleyle müzakere edilip sonuçlandırıldığını” belirten “önemli boşluklar ve yasal belirsizlik” tespit ediyor. Ayrıca Kanun’un hukukun üstünlüğü ve sivil alan üzerinde “endüstri çıkarlarına, güvenlik hizmetlerine ve kolluk kuvvetlerine” öncelik verdiği sonucuna varıyor.

ECNL’nin Yasaya ilişkin değerlendirmesi beş temel kusuru tespit ediyor; mevzuattaki boşluklar, boşluklar ve ikincil kararlar “AI Yasası tarafından oluşturulan korumaları kolayca baltalayabilir, uzun vadede temel haklar ve hukukun üstünlüğü standartlarını daha da aşındırabilir”.

Bu, “uzaktan biyometrik tanımlama” da dahil olmak üzere ulusal güvenlik yapay zeka kullanım senaryolarına uygulanan genel muafiyeti de içermektedir; bireylerin tazminat yollarının sınırlı olması; ve zayıf etki değerlendirmesi gereklilikleri.

ECNL, 2021’deki ilk teklifinden bu yana, aktivistlerin gözetimi, havayolu yolcularının profilinin çıkarılması ve davalara hakimlerin atanması için kullanılan yapay zeka sistemlerine yanıt olarak AB’nin Yapay Zeka Yasasını çevreleyen tartışmaları izledi ve bu tartışmalara katıldı.

Üç yıllık bir yasama sürecinin ardından Avrupa Parlamentosu, yasayı geçen ay onayladı.

Kanunun boşlukları

Avrupa, yapay zeka endüstrisine yönelik ilk hedeflenen yasal çerçevesini oluşturmuş olsa da, ECNL’nin raporunda “çoğunlukla belirsiz gereklilikleri açıklığa kavuşturacak kılavuz ilkeler ve devredilen kanunlar” bulunmadığı ve “çok fazla şeyin Komisyon’un, ikincil mevzuatın veya gönüllü kararların takdirine bırakıldığı” belirtiliyor. davranış kuralları”.

Yasanın birçok yasağının, “geniş kapsamlı istisnalar” nedeniyle onları “boş beyan” haline getiren boşluklarla dolu olduğu da eklendi. Buna ek olarak, bir dizi başka boşluk, şirketlerin ve kamu yetkililerinin Yasanın yüksek riskli sistemler listesi kapsamında olmaktan kaçınmasına olanak tanıyor.

“AB’nin Yapay Zeka Yasasının insanları merkeze koyacağı yönündeki vaatlere rağmen, acı gerçek şu ki, hayatın neredeyse her alanında yapay zeka sistemlerinin yayılmasının yol açtığı tehditlerden ve zararlardan bizi koruyacak çok az şey içeren bir yasamız var.” Sivil toplum kuruluşu Avrupa Dijital Hakları’nın (EDRi) politika başkanı Ella Jakubowska şöyle konuştu:

Uygulamada, güvenlik şefleri (STK’lar) yalnızca tüketici hakları söz konusu olduğunda hakları ihlal edilen bireyleri temsil edebilir; bu da onların “örneğin kredi puanlama sistemleri yoluyla zarar gören bir grup insan adına şikayette bulunabilecekleri, ancak Sokaklarda biyometrik gözetimin kullanılmasıyla canlı özgürlükleri ihlal edilen protestocular adına”.

Kanun, katılım hakkını garanti etmiyor – “kamu otoritelerinin veya şirketlerin, yapay zekanın temel haklar üzerindeki etkilerini değerlendirirken dış paydaşlarla etkileşim kurması gerekmeyecek”.

AI’nın devlet otoritesi kullanımı

Ayrıca, yüksek riskli yapay zeka sistemlerini kullanmayı planlayan kamu yetkilileri için Kanun’un temel haklar etki değerlendirmesi (FRIA) standartları zayıftır ve üç önemli eksiklik vardır: bu etkileri değerlendirmeye yönelik açık bir zorunluluk yoktur; STK’ların etki değerlendirmelerine katkıda bulunacak “doğrudan, yasal olarak bağlayıcı bir yolu” yoktur; kolluk kuvvetleri ve göç yetkilileri, riskli yapay zeka süreçlerini kullanıp kullanmadıklarını açıklamak zorunda kalmayacak.

Daha genel anlamda, ulusal güvenlik amaçları için geliştirilen yapay zekaya “genel muafiyet” veriliyor; bu da hükümetlerin pratik olarak “toplu biyometrik gözetim gibi yasaklanmış sistemleri uygulamaya koymak için ulusal güvenliğe başvurabileceği” ve Yasanın riskli yapay zeka sistemlerine ilişkin düzenlemelerinden kaçabileceği anlamına geliyor.

“Ulusal güvenliğe yönelik aşırı geniş muafiyet, aynı zamanda ülkelere ve şirketlere yasanın tamamını göz ardı etmeleri için hapisten kurtulma kartı veriyor ve kuralların teknoloji ihracatına uygulanmaması, bu Yasanın arkasındaki sınırlı düşünceyi daha da gösteriyor. ” dedi Jakubowska.

Dijital haklar grubu Access Now’da AB politika analisti Caterina Rodelli’ye göre, Yapay Zeka Yasası sınır ve göç içeriği konusunda anlamlı korumalar sağlamıyor, çünkü “en tehlikeli sistemler polis ve göç yetkilileri tarafından kullanıldığında anlamlı bir şekilde yasaklanmıyor, örneğin uzaktan biyometrik tanımlama ve yalan dedektörleri olarak”.

Polis ve göç yetkililerinin şeffaflık yükümlülüklerinden muaf tutulmasıyla ilgili olarak şunları ekledi: “Bu, devlet yetkililerine yapay zeka sistemlerini toplumda istenmeyen kişilere karşı kullanma yetkisi verecek tehlikeli bir emsaldir: önce ırksallaştırılmış insanlar, ancak büyük olasılıkla daha sonra insan hakları savunucuları, gazeteciler ve siyasi muhalifler”.

Emsal oluşturma

Yeşiller/Avrupa Özgür İttifakı başkan yardımcısı Alexandra Geese şunları söyledi: “Müzakereler sırasında, gerçek zamanlı biyometrik gözetimin tamamen yasaklanması için çok çalıştık. Ne yazık ki, yasaklar listesi son aşamalarda ve hatta son üçlemeden sonra Konsey tarafından sulandırıldı. Avrupa Konseyi, vatandaşlarını yapay zeka gözetimine karşı etkili bir şekilde koruma fırsatını kaçırdı.

“Fakat Yapay Zeka Yasası olmasaydı, yapay zeka endüstrisini sorumlu tutacak hiçbir aracımız olmazdı” dedi. “AB, gelecekte yapay zeka araçlarını geliştirmemize olanak sağlayacak, sağlam kurallara sahip dünyanın ilk yasal çerçevesini oluşturdu. Avrupa, yapay zeka sistemlerinin geliştirilmesi ve kullanımına yönelik net standartlarla, teknolojinin insanlara hizmet ederken temel haklarımıza ve demokratik ilkelerimize saygı duyduğu bir geleceğin yolunu açıyor.”

Jakubowska, AB’nin Yapay Zeka Yasası kurallarının en güçlü şekilde uygulanması için mücadeleye devam edilmesi gerektiğini, ancak toplumun artan dijitalleşmesi karşısında yasaların hakların ve demokrasinin nasıl korunacağına ilişkin küresel plan haline gelmemesi gerektiğinin açık olduğunu savundu.

Rodelli şunları ekledi: “Yapay Zeka Yasası, yapay zeka sistemlerini kullanan kolluk kuvvetleri ve göç yetkilileri için ayrı bir paralel çerçeve oluşturduğundan tehlikeli bir emsal teşkil ediyor. Bu ikinci standart, öncelikle toplumdaki en dışlanmış kişileri, yani AB’deki göçmenleri ve ırkçılığa maruz kalmış insanları etkileyecektir.”

Ayrıca, 10 Nisan’da AB Yeni Göç ve İltica Paktı’nın oylanmasıyla birlikte yapay zeka sistemlerinin diğer mevzuatta da bu emsalin ardından baskıcı bir şekilde kullanılmasının halihazırda gerçekleşmeye başladığını belirtti. Yapay Zeka Yasası kapsamına girecek olan ancak polis ve göç yetkilileri için uygulamaya konulan bu paralel gevşek düzenleme sistemi nedeniyle fiilen bu şekilde düzenlenmeyecek olan gözetim teknolojileri” dedi.

Access Now, AI Yasası ile Göç Paktı arasındaki bağlantı hakkında, her ikisinin de AB’de daha fazla gözetimi nasıl teşvik edeceğine dikkat çeken bir bildiri yayınladı.



Source link