Öngörücü polislik teknolojileri insan haklarını “kalbinde” ihlal ediyor ve Birleşik Krallık’ta yasaklanmalı, Green Milletvekili Siân Berry, hükümetin yaklaşan suç ve polis faturasında bir değişiklik yaptıktan sonra.
Tasarının rapor aşamasında Avam Kamarası’nda konuşan Berry, gelecekte cezai suç işleyen bireylerin veya grupların olasılığını değerlendirmek için öngörücü polislik teknolojilerini kullanmanın tehlikelerini vurguladı.
“Akıllıca satılmasına rağmen bu tür teknolojilerin her zaman mevcut, kusurlu polis verileri veya diğer kusurlu ve önyargılı kamu ve özel kaynaklardan elde edilen veriler üzerine inşa edilmesi gerekecektir” dedi. “Bu, tarihsel olarak aşırı politika olan toplulukların gelecekteki cezai davranışların ‘riski altında’ olarak tanımlanma olasılığı daha yüksektir.”
Zarah Sultana, Ellie Chowns, Richard Burgon ve Clive Lewis dahil olmak üzere diğer sekiz milletvekilinin sponsor olduğu Berry’nin Değişikliği (Değişiklik Belgesinde NC30), otomatik karar verme (ADM), gruplar ya da yapay zeka (AI), ya da insanlardan kaynaklanan risk değerlendirmeleri yapmak için risk değerlendirmeleri için kullanımını yasaklayacaktır.
Birleşik Krallık Polisi tarafından insanların davranışlarını “tahmin etmek” için belirli bilgilerin kullanılmasını yasaklayacaktır: “İngiltere ve Galler’deki polis güçlerinin… doğal bir kişinin profiline dayalı olarak gerçek veya potansiyel bir suçun ortaya çıkmasını veya yeniden ortaya çıkmasını veya doğal kişilerin ya da grupların konumlarının veya geçmiş suç davranışlarının değerlendirilmesine dayanan gerçek veya potansiyel bir suçun yeniden ortaya çıkmasını öngörecektir”.
Commons’ta konuşan Berry ayrıca şunları savundu: “Her zaman yüz tanıma bağlamında söylediğim gibi, doğruluk ve önyargı soruları bu teknolojilere karşı olmanın tek nedeni değildir. Kalbinde, gizlilik hakkı ve masum olduğu varsayılma hakkı da dahil olmak üzere insan haklarını ihlal ederler.”
Öngörücü polislik araçlarını konuşlandıran yetkililer, kaynakları daha verimli bir şekilde yönlendirmek için kullanılabileceklerini söylerken, eleştirmenler uzun süredir, pratikte bu sistemlerin yoksul ve ırksal toplulukları tekrar tekrar hedeflemek için kullanıldığını, çünkü bu gruplar tarihsel olarak “aşırı poliklinik” olduklarını ve bu nedenle polis veri kümelerinde aşırı temsil edildiğini savundular.
Bu daha sonra olumsuz bir geri bildirim döngüsü oluşturur, burada bu “tahminler” belirli grupların ve alanların daha fazla polisleşmesine yol açar, böylece artan miktarda veri toplandıkça önceden var olan ayrımcılığı güçlendirir ve daha da kötüleştirir.
2018 kitaplarında öngörücü polislik sistemlerinin tarihsel çoğalmasının izlenmesi Polis: Bir Saha RehberiYazarlar David Correia ve Tyler Wall, bu tür araçların kolluk kuvvetleri için ayrımcı polislik uygulamalarına katılmaya devam etmeleri için “görünüşte objektif veri” sağladığını, ancak ırksal profillemeden uzak görünen bir şekilde ”olduğunu savunuyorlar.
Bu nedenle, “öngörücü polisliğin geleceğin şiddetini şimdiki zamanın yoksullarında bulması sürpriz olmamalı” diye eklediler.
Bu tür endişelerin bir sonucu olarak, Sivil Toplumdan İngiltere Hükümeti’nden öngörücü polislik araçlarının kullanımını yasaklamak için son aylarda çok sayıda çağrı yapılmıştır.
Örneğin, Şubat 2025’te Uluslararası Af Örgütü, fakir ve ırksal toplulukları daha da hedeflemek için tarihsel olarak önyargılı verileri kullanarak İngiltere’de öngörücü polis sistemlerinin nasıl “süper şarj” olduğu hakkında 120 sayfalık bir rapor yayınladı.
İngiltere genelinde, en az 33 polis gücünün öngörücü polislik aracı kullandığını ve bunların 32’sinin insan odaklı suç tahmin araçlarını kullanan 11’e kıyasla coğrafi suç tahmin sistemlerini kullandığını buldu.
Af Örgüsü Bu araçlar, insanları ırksal olarak profillemek için kullanıldıkları, insanları bir suça dahil olmadan önce hedefleyerek masumiyet varsayımını baltaladıkları için İngiltere’nin ulusal ve uluslararası insan hakları yükümlülüklerinin “çirkin ihlali” olduğunu ekledi.
Big Brother saat, af, açık haklar grubu, soruşturma, kamu hukuku projesi ve eyalet saati dahil olmak üzere 30’dan fazla sivil toplum kuruluşu da Mart 2025’te veri kullanımı ve şimdi bir eylem olan erişim faturasının nasıl polis tarafından karar alımının kullanımına karşı koruma sağlayacağına dair endişeleri artıran açık bir mektup imzaladı.
“Şu anda, Veri Koruma Yasası 2018’in 49 ve 50. Bölümleri, kararın yasalarla gerekli veya yetkilendirilmediği sürece, yalnızca otomatik kararların kolluk bağlamında verilmesini yasaklamaktadır” diye yazdılar, yeni maddenin 80’in özel kategori verilerinin kullanıldığı tüm senaryolarda yalnızca otomatik karar vermeye izin vererek bu korumayı tersine çevireceğini de sözlerine eklediler.
“Uygulamada bu, insanlarla ilgili otomatik kararların kolluk bağlamında sosyoekonomik statüleri, bölgesel veya posta kodu verileri, çıkartılmış duygular ve hatta bölgesel aksanları temelinde verilebileceği anlamına gelir. Bu, önyargı, ayrımcılık ve şeffaflık eksikliği olasılıklarını büyük ölçüde genişletir.”
Gruplar, özel olmayan kategori verilerinin korunan karakterizasyonlar için bir “proxy” olarak kullanılabileceğini ekleyerek, postkodların birisinin ırkını potansiyel olarak çıkarmak için nasıl bir proxy olarak kullanılabileceğine dair bir örnek verdi.
Ayrıca, hükümetin yasa için kendi etki değerlendirmesine göre, “ırk, cinsiyet ve yaş gibi korunan özelliklere sahip olanların, veri kümelerindeki tarihsel önyargılar nedeniyle AD’ten ayrımcılıkla karşılaşma olasılığının daha yüksek olduğunu” vurguladılar.
Mektup ayrıca Oxford İnternet Enstitüsü’nden Brent Mittelstadt ve Sandra Wachter ve Londra Üniversitesi Koleji’nden sosyal antropolog Toyin Agbetu da dahil olmak üzere bir dizi akademisyen tarafından imzalandı.
Berry tarafından tanıtılan ayrı bir değişiklik (NC22), bir kolluk bağlamında otomatik kararlar için yeni korumalar getirerek, anlamlı bir düzeltme sağlanması, algoritmaların polis kullanımı etrafında daha fazla şeffaflık da dahil olmak üzere bu veri sorunlarını hafifletmeye çalışır.
Nisan 2025’te Statewatch ayrıca, bölümün halihazırda bir kusurlu algoritmayı “öngörmek” için “öngörmek” için bir kusurlu algoritma kullandığını ve cinayet taahhüt edecek başka bir sistem geliştirdiğini ortaya koyan bir Bilgi Özgürlüğü (FOI) kampanyası yoluyla belge aldıktan sonra, Suç Tahmin Araçları’nın geliştirilmesini durdurmaya çağırdı.
“Adalet Bakanlığı’nın bu cinayet tahmin sistemini inşa etme girişimi, hükümetin ‘tahmin’ sistemleri geliştirme niyetinin en son ürpertici ve distopik örneğidir” dedi.
“Türünün diğer sistemleri gibi, ırksal ve düşük gelirli topluluklara yönelik önyargıda kodlanacak. İnsanları şiddetli suçlular olarak profillemek için otomatik bir araç oluşturmak çok yanlış ve akıl sağlığı, bağımlılık ve engellilik hakkında bu tür hassas verileri kullanmak son derece müdahaleci ve endişe verici.”
“Tehlikeli ve ırkçı AI ve algoritmalar geliştirmek için para atmak yerine, hükümet gerçekten destekleyici refah hizmetlerine yatırım yapmalıdır. Tekno çözücü ‘hızlı düzeltmelere’ yatırım yaparken refah kesintileri yapmak sadece insanların güvenliğini ve refahını daha da zayıflatacaktır.”
Bundan önce, Sivil Toplum Grupları Koalisyonu, Temmuz 2024’te o zamanki çalışan İşçi Hükümeti’ni İngiltere’de hem öngörücü polislik hem de biyometrik gözetim üzerinde açıkça bir yasak yerleştirmeye çağırdı, esas olarak, ırksal, işçi sınıfı ve göçmen toplulukları hedeflemek için orantısız olarak kullanıldı.
Mart 2022 Lordlar Kamarası, İngiltere polisi tarafından ileri algoritmik teknolojilerin kullanımına ilişkin bir soruşturma, daha önce suç tahmin sistemlerinin kullanımı konusunda büyük endişeleri tanımlamış, “kısır çember” üretme eğilimlerini vurgulamıştı ve “önceden var olan ayrımcılık örüntüleri”, polisin, düşük gelirlere dayanarak devriye gezdiklerini, çünkü zaten aşırı nüfuzlu alanlara dayanıyorlar.
Lordlar, genel olarak, İngiltere polisinin, etkinlikleri veya sonuçlarının kapsamlı bir şekilde incelenmesi olmadan yapay zeka ve yüz tanıma da dahil olmak üzere algoritmik teknolojileri konuşlandırdığını ve aslında “ilerledikçe telafi ettiklerini” buldular.