İngiltere Polis Kuvvetleri ‘Süper Şarj Etme Irkçılığı’ Tahmini Polislik ile


Uluslararası Af Örgütü’ne göre, Birleşik Krallık polis güçleri otomatik “öngörücü polis” sistemlerini kullanmaları yoluyla “öngörücü polis” sistemlerini kullanmaları yoluyla “süper şarj”.

Öngörücü polislik sistemleri, belirli bireylerde veya coğrafi yerlerde cezai davranış olasılığını tahmin etmek, profillemek veya değerlendirmek için yapay zeka (AI) ve algoritmalar kullanır.

20 Şubat 2025’te yayınlanan 120 sayfalık bir raporda- Otomatik Irkçılık – Polis Verileri ve Algoritmalar Polisliğe Ayrımcılığı Nasıl Kodlar Kodlar -Af Örgütü, öngörücü polislik araçlarının yoksul ve ırksal toplulukları tekrar tekrar hedeflemek için kullanıldığını, çünkü bu gruplar tarihsel olarak “aşırı polislik edildi” ve bu nedenle polis veri setlerinde büyük ölçüde fazla temsil ediliyor.

Bu daha sonra, bu “sözde tahminler” nin belirli grupların ve alanların daha fazla polisliğine yol açtığı olumsuz bir geri bildirim döngüsü oluşturur; Artan miktarda veri toplandıkça önceden var olan ayrımcılığın güçlendirilmesi ve daha da kötüleştirilmesi.

“Durdur ve arama ve istihbarat verilerinin bu topluluklara ve alanlara karşı önyargı içereceği göz önüne alındığında, öngörülen çıktının aynı ayrımcılığı temsil etmesi ve tekrar etmesi muhtemeldir. Öngörülen çıktılar, gelecekteki tahminlere katkıda bulunacak daha fazla dur ve arama ve cezai sonuçlara yol açıyor ”dedi. “Bu, ayrımcılığın geri bildirim döngüsü.”

Af Örgütü, İngiltere genelinde en az 33 polis gücünün, bunların 32’sinin coğrafi suç tahmin sistemlerini kullanarak, insan odaklı suç tahmin araçlarını kullanan 11’e kıyasla öngörücü polislik araçları kullandığını buldu.

Bu araçların, insanları ırksal olarak profillemek için kullanıldıkları için İngiltere’nin ulusal ve uluslararası insan hakları yükümlülüklerinin “çirkin ihlali” olduğunu söyledi, insanları bir suça dahil olmadan önce hedefleyerek masumiyet varsayımını zayıflatıyorlar. Tüm alanların ve toplulukların ayrım gözetmeyen kitlesel gözetimi.

İnsan Hakları Grubu, bu araçların artan kullanımının da ürpertici bir etki yarattığını da ekledi, çünkü insanlar öngörücü polislik tarafından hedeflendiklerini ve insanların ilişkilendirme hakkını daha da zayıflatan alanlardan veya bildikleri insanlardan kaçınma eğilimindedir.

Raporda belirtilen öngörücü polislik araçlarına örnek olarak, büyükşehir polisinin, ırkçı etkileri üzerindeki güç tarafından cesaretlendirilmeden önce bireylere “risk puanları” atamak için kullanılan “Çeteler Şiddet Matrisi”; ve Greater Manchester Polisi’nin benzer şekilde, insanları, gerçek bir suçlama kanıtı olmadan çete faaliyetine dahil oldukları “algısına” dayanarak profillemek için kullanılmıştır.

Af, Essex Polisinin bıçak suçu ve şiddet modellerini de vurguladı, bu da insanları başkalarıyla ilişkilendirerek suçlamak için “iştirakçiler” hakkındaki verileri kullanıyor ve zihinsel sağlık sorunlarını veya uyuşturucu kullanımını suçluluk için belirteç olarak kullanıyor; Ve West Midlands Polisi’nin gücün kendisinin kabul ettiği “Hotspot” polislik araçları, hataya eğilimli öngörücü suç haritalaması için zamanın% 80’ini yanlış kullanıyor.

“Öngörücü polislik araçlarının kullanımı insan haklarını ihlal ediyor. Bu teknolojinin bizi güvende tuttuğuna dair kanıtlar orada değil, temel haklarımızı ihlal ettiğinin kanıtı gün olarak açıktır. Hepimiz bilgisayar tarafından oluşturulan risk puanlarından çok daha fazlasıyız, ”diyor, Uluslararası Af Örgütü İkiz CEO’su Sacha Deshmukh, bu sistemlerin cildinin rengi veya sosyo-ekonomik geçmişleri üzerinde suçlu bir“ tamamen ”olduğuna karar verdiğini ekliyor.

“Suçu tahmin etmek için bu araçlar, tüm topluluklara potansiyel suçlu olarak davranarak, toplumu daha ırkçı ve haksız hale getirerek hepimize zarar veriyor. İngiltere hükümeti, İskoçya ve Kuzey İrlanda’daki devredilen hükümetler gibi İngiltere ve Galler’de bu teknolojilerin kullanılmasını yasaklamalıdır. ”

Bu otomatik profillemeye tabi olan insanların ve toplulukların, araçların nasıl kullanıldığını öğrenme hakkına sahip olduğunu ve bunları kullanarak verilen polislik kararlarına meydan okumak için anlamlı düzeltme yollarına sahip olması gerektiğini de sözlerine ekledi.

Bu tür sistemler üzerindeki bir yasağın yanı sıra, Af Örgütü, araçların ayrıntılarıyla kamuya açık bir kayıt ve ayrıca bir hesap verebilirlik yükümlülükleri de dahil olmak üzere, kullanımda olan polis tarafından veri odaklı sistemlerin kullanımı konusunda daha fazla şeffaflık gerektiriyor. Polis profiline ve otomatik karar verme sürecine meydan okumak için doğru ve açık forum.

Af Örgütü ile yapılan bir röportajda, Kraliçe Mary Üniversitesi Londra Hukuk Fakültesi’nde kıdemli bir öğretim görevlisi olan Daragh Murray, Met Polisinin 2019’da canlı yüz tanıma (LFR) teknolojisini kullanma ile ilgili ilk bağımsız raporu birlikte yazdı-bu sistemlerin bu sistemler Nedensellikten ziyade korelasyona dayanarak, bireyleri hedeflemek için kullanıldıklarında özellikle zararlı ve yanlıştırlar.

“Esasen insanları stereotipliyorsunuz ve stereotiplemeyi yaygınlaştırıyorsunuz, klişeleşime bilimsel bir hedef veriyorsunuz” dedi.

NPCC af’a cevap verir

Bilgisayar Haftalık, Af Örgütü raporu hakkında İçişleri Bakanlığı ile temasa geçti, ancak kayıt yanıtı yoktu. Computer Weekly, İngiltere polisi tarafından AI ve algoritmaların kullanımına yol açan Ulusal Polis Şefi Konseyi (NPCC) ile de temasa geçti.

“Polislik, sonlu kaynakların kullanımını en üst düzeye çıkararak suçla mücadele ve önleme yanıtını bilgilendirmeye yardımcı olmak için çok çeşitli veri kullanıyor. Halkın beklediği gibi, bu, en çok bildirilen suça sahip alanlarda kaynakların yoğunlaşmasını içerebilir ”dedi.

“Hotspot polisliği ve görünür hedefli devriyeler, topluluk polisliğinin temelini ve anti-sosyal davranış ve ciddi şiddet suçunun tespit edilmesinde ve önlenmesinde etkili caydırıcılar.”

NPCC’nin, yanıtını daha iyi bilgilendirmek için verilerinin kalitesini ve tutarlılığını artırmak için çalıştığını, tüm bilgilerin ve yeni teknolojinin, veri etiği yetkili mesleki uygulamaya (APP) uygun şekilde yasal olarak tutulmasını ve geliştirilmesini sağladığını da sözlerine ekledi.

“Suçla mücadeleyi topluluklarımıza güven ve güven oluşturmakla dengelememizi ve durdurma ve arama gibi araçların, özellikle siyah insanlar üzerinde sahip olabileceği zararlı etkiyi fark etmemizi sağlamak bizim sorumluluğumuzdur” dedi.

“Polis yarış eylem planı, İngiltere ve Galler’de polis güçlerindeki herhangi bir orantısızlık için bir ‘açıklama veya reform’ yaklaşımı da dahil olmak üzere ırksal önyargı ile mücadele etmek için İngiltere ve Galler’de polislik yaparak şimdiye kadarki en önemli taahhüttür.

“Ulusal plan, durdurma ve arama ve Taser kullanımından memur dağıtımlarına ve trafik duraklarına kadar çok çeşitli polis güçlerinde yerel güçlerle ve iyileştirmeler yapmak. Plan ayrıca, yeni uygulama için danışma ve eşitlik etki değerlendirmesini doğrudan bilgilendiren veri etiği etrafında özel bir eylem içeriyor. ”

Devam eden endişeler

Öngörücü polislikle ilgili sorunlar, birkaç yıldır araçları kullanan İngiltere ve Avrupalı ​​yetkililere vurgulanmıştır.

Örneğin, Temmuz 2024’te, o zamanki çalışan İşçi Partisi Hükümeti’ni İngiltere’de hem öngörücü polislik hem de biyometrik gözetim üzerinde açıkça bir yasak yerleştirmeye çağıran sivil toplum grupları koalisyonu, ırksallaştırılmış, işçi sınıfını hedeflemek için orantısız olarak kullanılırlar. ve göçmen topluluklar.

Avrupa Birliği’nde (AB), Bloc’un AI Yasası, bireyleri profil oluşturma veya risk değerlendirmeleri için hedeflemek için kullanılabilecek öngörücü polislik sistemlerini yasakladı, ancak yasak sadece kısmi, yerine yer tabanlı öngörücü polis araçlarına kadar uzanmadığı için kısmi. .

Nisan 2022’de AI Yasasını denetlemek ve değiştirmekten ortak olarak iki MEP tarafından yayınlanan 161 sayfalık bir rapora göre, “öngörücü polislik insan onurunu ve masumiyet varsayımını ihlal ediyor ve belirli bir ayrımcılık riski taşıyor. Bu nedenle yasaklanmış uygulamalar arasına yerleştirilmiştir. ”

Griff Ferris’e göre, o zaman-legal ve politika görevlisi, sivil toplum örgütü fuar denemelerinde, “Tekrar ve tekrar, bu sistemlerin kullanımının ayrımcı polis ve ceza adaleti eylemini nasıl şiddetlendirdiğini ve güçlendirdiğini, toplumdaki sistemik eşitsizliği nasıl beslediğini gördük ve nihayetinde insanların hayatlarını yok eder. Bununla birlikte, yasağın aynı etkiye sahip olan alanları veya yerleri hedefleyen öngörücü polis sistemlerini de içerecek şekilde genişlemesi gerekir. ”

Mart 2022’de bir ay önce, Adil Denemeler, Avrupa Veri Hakları (EDRI) ve 43 sivil toplum kuruluşu, Avrupalı ​​milletvekillerini toplu olarak yapay zeka, öngörücü polislik sistemlerini yasaklamaya çağırarak, toplumdaki en marjinal insanları ihlal ettiklerini iddia ederek, haklar ve yapısal ayrımcılığı güçlendirir.

Aynı güve, İngiltere polisi tarafından algoritmik araçların kullanımına ilişkin resmi soruşturmasının ardından – yüz tanıma ve çeşitli suç “tahmin” araçları dahil – Lords İçişleri ve Adalet Komitesi (HAJC) durumu “yeni bir vahşi batı” olarak nitelendirdi. Strateji eksikliği, hesap verebilirlik ve şeffaflık ile yukarıdan aşağıya. Daha fazla kötüye kullanımı önlemek için polisin yapay zeka ve algoritmik teknolojileri nasıl kullandığını söyledi.

“Öngörücü Polislik” teknolojileri söz konusu olduğunda, HAJC, “kısır çember” ve “önceden var olan ayrımcılık kalıpları” üretme eğilimini kaydetti çünkü polis devriyelerini tarihi, zaten aşırı poliklinik alanlara yönlendiriyorlar, Verileri tutukla.

“Polis varlığının artması nedeniyle, bu alanlarda işlenen suçların daha yüksek bir oranının aşırı politika yapmayan alanlardan daha yüksek bir şekilde tespit edilmesi muhtemeldir. Veriler, araca beslenecek ve kendisini bir sonraki tahmin kümesine yerleştirecek olan artan bir suç oranı olarak bu artan tespit oranını yansıtacaktır ”dedi.

Bununla birlikte, Temmuz 2022’de İngiltere hükümeti, “kapsamlı bir kontrol ve denge ağı olduğunu iddia ederek Lords soruşturmasının bulgularını ve önerilerini büyük ölçüde reddetmiştir.

Hükümet, milletvekillerinin polise yetkilerini ve görevlerini sağlayan yasal çerçeveyi belirlerken, polisin kendileri için, halkı korumak için AI gibi yeni teknolojilerin ve öngörücü modellemenin en iyi nasıl kullanılacağını belirlemesi gerektiğini söyledi.



Source link