Sivil toplum grupları, AB’yi AI Yasasının merkezine insan haklarını koymaya çağırıyor


İnsan Hakları İzleme Örgütü ve diğer 149 sivil toplum kuruluşu, Avrupa Birliği (AB) kurumlarını yakında çıkacak olan Yapay Zeka Yasası’nda (AIA) insanların temel haklarına yönelik korumaları artırmaya çağırıyor.

Mayıs 2023’te Avrupa Parlamentosu’ndaki komiteler, AIA’da – “müdahaleci ve ayrımcı” sistemlere yönelik bir dizi yasaklamanın yanı sıra AI konuşlandırıcılarının hesap verebilirliğini ve şeffaflığını iyileştirmeye yönelik önlemler de dahil olmak üzere – daha sonra tarafından kabul edilen bir dizi değişikliği oyladı. Haziran ayında yapılan genel kurul oylamasında tüm Parlamento.

Ancak, Avrupa Konseyi, Parlamento ve Komisyon arasında Temmuz 2023’ün sonlarında başlayacak kapalı kapılar ardındaki üçlü müzakerelerle birlikte, değişiklikler Avrupa Parlamentosu için yalnızca bir “müzakere yetkisi taslağı”nı temsil ediyor. konu yelpazesi.

Örneğin, Konsey’in konumu, polisin yapay zeka konuşlandırmaları etrafında daha fazla gizlilik uygulamak ve aynı zamanda yasa uygulama ve göç bağlamında daha kolay bir şekilde konuşlandırılmasına izin verecek muafiyetleri genişletmeye çalışmaktır.

Öte yandan Parlamento, tahmine dayalı polislik sistemlerinin tamamen yasaklanmasını seçti ve AIA’nın kamuya açık yüksek riskli sistemler veri tabanının kapsamını kamu kurumları tarafından konuşlandırılanları da içerecek şekilde genişletmeyi tercih etti.

Gizli müzakereler öncesinde, İnsan Hakları İzleme Örgütü, Uluslararası Af Örgütü, Access Now, Avrupa Dijital Haklar (EDRi), Adil Yargılamalar ve düzinelerce başka sivil toplum grubu, AB’yi bir dizi zararlı, ayrımcı veya taciz edici AI uygulamasını yasaklamaya çağırdı; bir yapay zeka sisteminin yaşam döngüsü boyunca temel haklar etki değerlendirmelerini zorunlu kılmak; ve bir dizi başka önlemin yanı sıra yapay zekadan olumsuz etkilenen kişiler için etkili çareler sağlamak.

“Avrupa’da ve dünyada yapay zeka sistemleri, kamusal alanlarda bizi izlemek ve kontrol etmek, gelecekteki suçluluk olasılığımızı tahmin etmek, sığınma hakkı ihlallerini kolaylaştırmak, duygularımızı tahmin etmek ve bizi kategorize etmek ve önemli kararlar almak için kullanılıyor. kamu hizmetlerine, refaha, eğitime ve istihdama erişimimizi belirler” diye bir açıklamada bulundular.

“Güçlü bir düzenleme olmaksızın şirketler ve hükümetler, kitlesel gözetimi, yapısal ayrımcılığı, büyük teknoloji şirketlerinin merkezi gücünü, hesap vermeyen kamusal karar alma sürecini ve çevresel zararı şiddetlendiren yapay zeka sistemlerini kullanmaya devam edecek.

“AB kurumlarını, AI geliştirme ve kullanımının hesap verebilir, kamuya açık ve insanların zararlara karşı çıkma yetkisine sahip olmasını sağlamaya çağırıyoruz.”

Ulusal güvenlik ve askeri muafiyetler

Bildiriyi imzalayanlar için, mevcut haliyle AIA etrafındaki önemli bir çekişme noktası, AI’nın ulusal güvenlik ve askeri kullanımlarının hükümlerinden tamamen muaf tutulurken, kolluk kuvvetlerinin kullanımlarının kısmen muaf tutulmasıdır.

Bu nedenle gruplar, AB kurumlarını, özellikle “zararlı ve ayrımcı” gözetim uygulamaları söz konusu olduğunda, ulusal güvenlik, kolluk kuvvetleri ve göç makamları tarafından AI kullanımına ilişkin net sınırlar çizmeye çağırıyor.

Bu sınırların, istisnasız tüm aktörler tarafından halka açık alanlarda gerçek zamanlı ve geriye dönük “uzaktan biyometrik tanımlama” teknolojilerinin tamamen yasaklanmasını içermesi gerektiğini söylüyorlar; her türlü öngörücü polislik yasağı; kolluk kuvvetleri ve göç kontrolü için tüm boşlukların ve muafiyetlerin kaldırılması; ve duygu tanıma sistemlerinin tamamen yasaklanması.

AB’nin, Konsey’in ulusal güvenlik amaçlarıyla geliştirilen veya konuşlandırılan sistemler için kapsamlı bir muafiyet içerme girişimini de reddetmesi gerektiğini eklediler; ve kişiselleştirilmiş risk değerlendirmeleri yapmak veya başka bir şekilde göçü “engellemek, kısıtlamak ve önlemek” için yapay zekanın geçiş bağlamlarında kullanılmasını yasaklayın.

Gruplar ayrıca, AIA’nın hesap verebilirlik, şeffaflık, erişilebilirlik ve tazmin için etkili bir çerçeve geliştirmesinin “önemli” olduğunu belirterek, AB’yi halk üyelerini AI sistemlerinin kullanımını anlamaları ve bunlara meydan okumaları için uygun şekilde güçlendirmeye çağırıyor.

Bu, tüm yapay zeka uygulayıcılarının, yüksek riskli bir yapay zeka sisteminin her konuşlandırılmasından önce temel haklar etki değerlendirmeleri yürütme ve yayınlama yükümlülüğünü içermelidir; konuşlandırmadan önce yapay zeka kullanımlarını herkesin görebileceği AB veri tabanına kaydetmek; ve insanların AI sistemlerinden etkilendiklerinde bilgilendirilmelerini ve bilgi arama haklarına sahip olmalarını sağlamak.

Tüm bunlar, hakları ihlal edildiğinde etkili çarelere başvurma hakkına da sahip olması gereken yapay zekadan etkilenen insanlarla ve sivil toplumla anlamlı bir ilişki kurarak desteklenmelidir.

Büyük teknoloji lobicilik

Son olarak, aşağıda imzası bulunan gruplar, müzakerecilerin “mali çıkar için düzenlemeleri atlatmaya çalışan büyük teknoloji şirketlerinin lobicilik çabalarına boyun eğmemesi gerektiğini” belirterek, AB’yi büyük teknoloji lobiciliğini geri çekmeye çağırıyor.

2021’de Corporate Europe Observatory ve LobbyControl tarafından hazırlanan bir rapor, büyük teknoloji şirketlerinin artık AB’de lobi yapmak için yılda 97 milyon avrodan fazla harcama yaparak ilaç, fosil yakıtlar ve finanstan sonra Avrupa’nın en büyük lobi sektörü haline geldiğini ortaya koydu.

Rapor, çok çeşitli aktif oyunculara rağmen, teknoloji sektörünün lobicilik çabalarına bir avuç firmanın hakim olduğunu ve toplam teknoloji lobisi harcamalarının neredeyse üçte birinden yalnızca 10 şirketin sorumlu olduğunu ortaya koydu. Buna artan sırayla, seslerini AB’de duyurmak için toplu olarak 32 milyon avrodan fazla para harcayan Vodafone, Qualcomm, Intel, IBM, Amazon, Huawei, Apple, Microsoft, Facebook ve Google dahildir.

Özel teknoloji şirketlerinin AB süreçleri üzerindeki etkisi göz önüne alındığında, gruplar bu nedenle “Madde 6’da risk sınıflandırma sürecine eklenen ek katmanı kaldırması gerektiğini söyledi. [in order to] Avrupa Komisyonu’nun orijinal pozisyonunda ana hatları çizilen net, nesnel risk sınıflandırma sürecini eski haline getirin.”

Haziran Parlamentosu genel kurulu oylamasından önce konuşan Access Now’ın kıdemli politika analisti Daniel Leufer, Computer Weekly’ye Avrupa Konseyi tarafından sistemleri yüksek risk listesinden muaf tutacak şekilde 6. Maddenin değiştirildiğini söyledi (AIA’nın Ek Üç’ünde yer alır) Bu, esas olarak AI sağlayıcılarının, uygulamalarının yüksek riskli olup olmadığına ilişkin bir öz değerlendirmeye dayalı olarak düzenlemeden çıkmalarına izin verecek olan “tamamen yardımcı” olacaktır.

O sırada “Ek Üç’teki şeylerden birini yapan bir yapay zeka sistemini kimin sattığını bilmiyorum, ancak bu tamamen karar verme veya sonuçlara yardımcı oluyor” dedi. “En büyük tehlike, sisteminin ‘tamamen aksesuar’ olup olmadığına karar vermeyi bir sağlayıcıya bırakırsanız, öyle olduğunu söylemeye ve yönetmeliği takip etmekten vazgeçmeye büyük ölçüde teşvik edilmesidir.”

Leufer, Parlamento metninin artık “çok daha kötü bir şey” içerdiğini ekledi; bu, sağlayıcıların gerçekten önemli bir risk oluşturup oluşturmadıklarını görmek için bir öz değerlendirme yapmalarına izin vermektir.



Source link