Sahte suç tahmin aracı, Avrupa Parlamentosu Üyelerini potansiyel suçlular olarak gösteriyor


Öngörülü polislik sistemlerinin ayrımcı ve adaletsiz doğasını vurgulamak için sivil toplum kuruluşu Fair Trials tarafından oluşturulan sahte suç tahmin aracını kullandıktan sonra, birkaç Avrupa Parlamentosu üyesi, suç davranışı “riski altında” olarak tanımlandı.

Kullanıcılara Avrupa genelinde polisin birinin suç işleyip işlemeyeceğini “tahmin etmek” için kullandığı bilgi türlerini ortaya çıkarmak için tasarlanmış sorular soran çevrimiçi araç 31 Ocak 2023’te kullanıma sunuldu ve Avrupa Parlamentosu Üyeleri ve halk tarafından kullanıldı. Avrupa Birliği (AB) genelinde.

Tahmine dayalı polislik sistemleri, Fair Trials’ın söylediğine göre hem bireylerde hem de yerlerde suçluluğun profilini çıkarmak ve “tahminler” yapmak için kullanılabilir; bu, eğitim, aile hayatı ve geçmişi, sosyal yardımlar ve barınma gibi kamu hizmetlerine katılım hakkında bir dizi veri tarafından belirlenir. , etnik köken, milliyet, kredi puanları ve bir kişinin kurban olarak bile daha önce polisle temasa geçip geçmediği.

Bu bilgilere dayanarak “risk altında” profili çıkarılan kişiler, düzenli olarak durdurulup aranmaktan çocuklarının sosyal hizmetler tarafından alınmasına kadar bir dizi ciddi sonuçla karşı karşıyadır. Profiller ve tahminler ayrıca mahkeme öncesi gözaltı, kovuşturma, ceza ve denetimli serbestlik kararları için bilgi sağlamak üzere kullanılır.

Adil Yargılamalar, aracın kullanımının bir sonucu olarak, halkın üyeleri tarafından Avrupa Parlamentosu Üyelerine AB’nin yakında çıkacak olan Yapay Zeka (AI) Yasasında tahmine dayalı polislik sistemlerini yasaklamaları çağrısında bulunan 1.000’den fazla e-postanın gönderildiğini söyledi.

Etkileşimli tahmin aracımız, bu sistemlerin ne kadar adaletsiz ve ayrımcı olduğunu gösteriyor. Kıdemli hukuk ve politika yetkilisi Griff Ferris, “Kolluk ve ceza adaleti yetkililerinin, insanların geçmişlerine, sınıflarına, etnik kökenlerine ve derneklerine dayalı olarak suçluluk hakkında tahminlerde bulunmaları inanılmaz görünebilir, ancak AB’de olanların gerçeği bu” dedi. Adil Denemelerde.

“Bu tahmine dayalı polislik ve cezai adalet sistemlerinin adaletsizliğe yol açtığına, ayrımcılığı pekiştirdiğine ve haklarımızı baltaladığına dair yaygın kanıtlar var. İnsanları ve haklarını Avrupa genelinde korumanın tek yolu, insanlara ve yerlere karşı bu canice tahmin ve profil çıkarma sistemlerini yasaklamaktır.”

Sahte araç tarafından gelecekte suç işleme konusunda “orta risk” sahibi olarak profili çıkarılan Sosyalistler ve Demokratlar (S&D) Milletvekili Petar Vitanov, AB’de bu tür güvenilmez, önyargılı ve adaletsiz sistemlere yer olmadığını söyledi.

“Makinelerin bir suç işleyip işlemeyeceğimizi ‘tahmin’ edeceği bir bilimkurgu distopyasında yaşayacağımızı hiç düşünmemiştim” dedi. “Düşük gelirli bir mahallede, fakir bir Doğu Avrupa ülkesinde büyüdüm ve algoritma beni potansiyel bir suçlu olarak gösterdi.”

“Risk altında” olarak tanımlanan Renew MEP ve hukuk işleri komitesi üyesi Karen Melchior, insanların davranışlarının otomatik olarak değerlendirilmesinin ayrımcılığa yol açacağını ve insanların yaşamlarını geri dönülmez şekilde değiştireceğini ekledi.

“Paraların uygun polis işlerinden ve iyi finanse edilen bağımsız mahkemelerden önyargılı ve rastgele teknolojiye geçmesine izin veremeyiz” dedi. “Yanlış kararların ardından yapılan temizlik sırasında, onları yakaladığımızda, vaat edilen verimlilik kaybolacak. Daha da kötüsü, masum insanların hayatlarını mahvetme riskini alıyoruz. Tahmine dayalı polislik mekanizmalarının kullanımı yasaklanmalıdır.”

Araç tarafından bir risk olarak profillenen ve daha sonra tahmine dayalı polislik sistemlerinin yasaklanmasına desteklerini ifade eden diğer Avrupa Parlamentosu Üyeleri şunları içerir: Cornelia Ernst, Tiemo Wölken, Petar Vitanov, Birgit Sippel, Kim van Sparrentak, Dişli Vuruş Ve Monica Semedo.

Adil Yargılamalar, Avrupa Dijital Haklar (EDRI) ve diğerleri gibi sivil toplum grupları, tahmine dayalı polislik sistemlerinde kullanılan temel bilgilerin toplumdaki tarihsel yapısal önyargıları ve eşitsizlikleri yansıtan veri setlerinden alındığı için bu tür sistemlerin kullanımının ırkçılığa maruz kalmış insanların ve toplulukların orantısız bir şekilde polis tarafından gözetleme, sorgulama, gözaltına alma ve nihayetinde hapsetme amacıyla hedef alınmasıyla sonuçlanacaktır.

Mart 2020’de Birleşik Krallık Eşitlikler ve İnsan Hakları Komisyonu (EHRC) tarafından Birleşmiş Milletler’e (BM) sunulan kanıtlar, tahmine dayalı polislik kullanımının “önyargılı süreçlere meşruiyet kazandırırken polislikte ayrımcılık modellerini” çoğaltabileceğini ve büyütebileceğini söyledi.

Milletvekilleri de benzer sonuçlara varmışlardır. Örneğin Birleşik Krallık’ta, polisin algoritmik teknolojileri kullanmasına ilişkin bir Lordlar Kamarası soruşturması, tahmine dayalı polislik araçlarının polis devriyelerini düşük seviyelere yönlendirdikleri için bir “kısır döngü” yaratma ve “önceden var olan ayrımcılık kalıplarını sağlamlaştırma” eğiliminde olduğuna dikkat çekti. gelir, tarihsel tutuklama verilerine dayanarak zaten aşırı polislik yapılan alanlar.

“Artan polis mevcudiyeti nedeniyle, bu bölgelerde işlenen suçların, aşırı polisin olmadığı bölgelere göre daha yüksek bir oranda tespit edilmesi muhtemeldir. Veriler, bu artan tespit oranını, araca yüklenecek ve kendisini bir sonraki tahmin setine yerleştirecek olan artan bir suç oranı olarak yansıtacak” dedi.

AB’nin Yapay Zeka Yasasını denetlemekten ve değiştirmekten sorumlu iki Avrupa Parlamentosu Üyesi Nisan 2022’de, “bireyselleştirilmiş risk değerlendirmeleri” yapmak için yapay zeka destekli tahmine dayalı polislik araçlarının kullanımının “insan onurunu ve karinesini ihlal ettiği” gerekçesiyle yasaklanması gerektiğini söylemesine rağmen. masumiyet”, önerilen yasak yalnızca kişiselleştirilmiş değerlendirmeleri kapsıyordu ve alanları veya konumları profillemek için kullanılan yere dayalı tahmin sistemlerini kapsamıyordu.

EDRi’de kıdemli bir politika danışmanı olan Sarah Chander, o sırada Computer Weekly’ye, suç riski için mahallelerin profilini çıkarmanın, “ırksallaştırılmış ve yoksul topluluklar için ayrımcı polislik deneyimlerini artırabileceği” açısından, bireylerin profilini çıkarmaya benzer bir etkiye sahip olduğunu söyledi.

Bu nedenle sivil toplum grupları – birçok kez – tahmine dayalı polislik sistemlerinin tamamen yasaklanması çağrısında bulundu.

AI Yasasında sürekli değişiklikler yapılırken, tahmine dayalı polislik sistemlerine yönelik sınırlı yasak, henüz yer tabanlı sistemleri kapsayacak şekilde genişletilmedi. Milletvekillerinin kanunla ilgili bir sonraki oylaması, kesin tarihin henüz teyit edilmediği Mart 2023’ün sonunda yapılacak.





Source link