Network Rail, AI kullanımının mevcut durumu, duygu algılama ve gizlilik endişeleri dahil olmak üzere WIRED tarafından gönderilen denemelerle ilgili soruları yanıtlamadı.
Network Rail sözcüsü, “Demiryolu ağının güvenliğini son derece ciddiye alıyoruz ve yolcuları, meslektaşlarımızı ve demiryolu altyapısını suçlardan ve diğer tehditlerden korumak için istasyonlarımızda bir dizi ileri teknoloji kullanıyoruz” dedi. “Teknolojiyi kullandığımızda, orantılı eylemde bulunduğumuzdan emin olmak için polis ve güvenlik hizmetleriyle birlikte çalışıyoruz ve gözetleme teknolojilerinin kullanımına ilişkin ilgili mevzuata her zaman uyuyoruz.”
Duygu tespit analizinin ne kadar geniş çapta uygulandığı belirsiz; belgeler zaman zaman kullanım senaryosunun “daha dikkatli incelenmesi” gerektiğini söylüyor ve istasyonlardan gelen raporlar “doğruluğunu doğrulamanın imkansız” olduğunu söylüyor. Ancak denemelerde Network Rail ile birlikte çalışan veri analitiği ve bilgisayarlı görüntü şirketi Purple Transform’un CEO’su Gregory Butler, bu özelliğin testler sırasında durdurulduğunu ve aktifken hiçbir görüntünün saklanmadığını söylüyor.
AI denemeleriyle ilgili Network Rail belgeleri, kameraların belirli davranışları tespit ettiğinde personele otomatik uyarılar gönderme potansiyelini içeren birden fazla kullanım durumunu açıklamaktadır. Sistemlerin hiçbiri, insanların kimliklerini veritabanlarında depolananlarla eşleştirmeyi amaçlayan tartışmalı yüz tanıma teknolojisini kullanmıyor.
Firmasının analiz sistemi SiYtE’nin tren istasyonları ve raylar dahil 18 tesiste kullanıldığını ekleyen Butler, “Birincil fayda, izinsiz giriş olaylarının daha hızlı tespit edilmesidir” diyor. Butler, geçen ay, sistemlerin iki bölgede tespit ettiği beş ciddi izinsiz giriş vakası yaşandığını söylüyor; bunlar arasında pistlerden top toplayan bir genç ve yüksek hızlı bir yolda golf toplarını toplamak için beş dakikadan fazla zaman harcayan bir adam da var. astar.”
Butler, Londra dışındaki en işlek istasyonlardan biri olan Leeds tren istasyonunda SiYtE platformuna bağlı 350 CCTV kameranın bulunduğunu söylüyor. “Analitikler, insan akışını ölçmek ve platformun kalabalıklaşması ve tabii ki izinsiz giriş gibi sorunları belirlemek için kullanılıyor; burada teknoloji, izleme çalışanlarını KKD üniformaları aracılığıyla filtreleyebiliyor” diyor. “Yapay zeka, tüm kameraları sürekli olarak izleyemeyen insan operatörlerin güvenlik risklerini ve sorunlarını hızla değerlendirmesine ve ele almasına yardımcı oluyor.”
Network Rail belgeleri, Reading istasyonunda kullanılan kameraların, görüntülerde bisikletlerin yerini tespit ederek polisin bisiklet hırsızlıklarıyla ilgili soruşturmaları hızlandırmasına olanak tanıdığını iddia ediyor. Dosyalarda, “Analizlerin bir hırsızlığı kesin olarak tespit edemediği ancak bisikletli bir kişiyi tespit edebildiği tespit edildi” deniliyor. Ayrıca denemelerde kullanılan yeni hava kalitesi sensörlerinin, personelin kontrolleri manuel olarak yürütmesinden tasarruf edebileceğini de ekliyorlar. Bir yapay zeka örneği, yoğuşma nedeniyle kaygan hale gelen “terleyen” zeminleri tespit etmek ve temizlenmeleri gerektiğinde personeli uyarmak için sensörlerden gelen verileri kullanıyor.
Belgeler denemelerin bazı unsurlarını detaylandırsa da, gizlilik uzmanları genel olarak şeffaflık eksikliğinden ve yapay zekanın kamusal alanlarda kullanımına ilişkin tartışmalardan endişe duyduklarını söylüyor. Big Brother Watch’tan Hurfurt, sistemlerdeki veri koruma sorunlarını değerlendirmek için tasarlanan bir belgede, gizlilik endişeleri olabilecek kişilere karşı “küçümseyen bir tutum” görüldüğünü söylüyor. Bir soru şu soruyu soruyor: “Bazı insanların buna itiraz etmesi veya bunu rahatsız edici bulma ihtimali var mı?” Bir personel şöyle yazıyor: “Genellikle hayır, ancak bazı kişilerin muhasebesi yok.”
Aynı zamanda, kalabalıkları izlemek için teknolojiyi kullanan benzer yapay zeka gözetim sistemleri dünya çapında giderek daha fazla kullanılıyor. Bu yılın sonlarına doğru Fransa’da düzenlenecek Paris Olimpiyat Oyunları sırasında yapay zeka video gözetimi binlerce insanı izleyecek ve kalabalık artışlarını, silah kullanımını ve terk edilmiş nesneleri tespit etmeye çalışacak.
Oxford Üniversitesi Yapay Zeka Etik Enstitüsü’nde psikoloji alanında doçent olan Carissa Véliz, “İnsanları tanımlamayan sistemler, bunu yapanlardan daha iyidir, ancak ben kaygan zemin konusunda endişeleniyorum” diyor. Véliz, Londra Metrosu’nda başlangıçta biletlerden kaçan insanların yüzlerini bulanıklaştıran, ancak daha sonra yaklaşımı değiştiren, fotoğrafları bulanıklaştıran ve görüntüleri başlangıçta planlanandan daha uzun süre tutan benzer yapay zeka denemelerine dikkat çekiyor.
Véliz, “Gözetimin genişletilmesi yönünde çok içgüdüsel bir dürtü var” diyor. “İnsan daha fazlasını görmekten, daha uzağı görmekten hoşlanır. Ancak gözetim kontrole, kontrol ise özgürlük kaybına yol açarak liberal demokrasileri tehdit ediyor.”