Polis ve istihbarat teşkilatları, güvenlik tehditlerini, potansiyel şüphelileri ve güvenlik riski oluşturabilecek bireyleri tanımlamak için çok miktarda veriyi gözden geçirmek için AI’ya yöneliyor.
GCHQ ve MI5 gibi ajanslar, birden fazla kaynaktan veri toplamak, aralarında bağlantılar bulmak ve insan analistlerin gözden geçirmesi için en önemli sonuçları tetiklemek için AI tekniklerini kullanır.
İnsanların finansal kayıtlarını, tıbbi bilgileri ve müdahale edilen iletişimi içeren toplu veri kümelerini içerebilecek büyük miktarda veri analizini analiz etmek için otomatik sistemleri kullanmaları, gizlilik ve insan hakları konusunda yeni endişeler yaratmıştır.
Yapay zeka kullanımı ne zaman orantılıdır ve ne zaman çok ileri gider? Bu, istihbarat hizmetleri için gözetim organı, soruşturma yetkileri Komiser Ofisi’nin (IPCO) boğuştuğu bir sorudur.
Yapay zeka kullanımı ne zaman orantılıdır?
Duffy Calder, TAP olarak bilinen IPCO’nun teknik danışma panelinin başkanıdır, akademi, İngiltere istihbarat topluluğu ve savunma endüstrisinde arka planlara sahip küçük bir uzman grubudur.
Görevi, soruşturma yetkileri komiseri Brian Leveson ve IPCO’nun yargı komisyon üyelerine – hizmet veren veya emekli hakimlere – sık sık karmaşık teknik konularda gözetim emirleri için başvuruları imzalamaktan veya reddetmekten sorumlu olmaktır.
Panel üyeleri ayrıca IPCO müfettişlerine, Soruşturma Yetkileri Yasası uyarınca polis, istihbarat teşkilatları ve gözetim yetkileri olan diğer devlet kurumlarına ziyaretler konusunda eşlik ediyorlar.
IPCO’nun TAP’ın çalışmaları hakkında ilk röportajda verdiği ilk röportajda Calder, grubun temel işlevlerinden birinin Soruşturma Güçleri Komiseri’ne gelecekteki teknoloji eğilimleri konusunda tavsiyelerde bulunmak olduğunu söylüyor.
“AI’da bir şeyler yapacağımız kesinlikle açık” diyor.
TAP, polise, istihbarat hizmetlerine ve IPCO tarafından düzenlenen 600’den fazla devlet kurumuna, AI kullanımının orantılı olup olmadığını ve gizlilik istilasını en aza indirip en aza indirgediğini düşünmek için bir çerçeve – AI orantılılık değerlendirme yardımı – üretti. Ayrıca rehberliğini işletmeler ve diğer kuruluşlar için kullanılabilir hale getirmiştir.
AI gözetimde nasıl kullanılabilir
Calder, AI’nin polise, istihbarat teşkilatlarına ve IPCO’nun denetlediği diğer hükümet organlarına yaptığı fark hakkında hiçbir şey söyleyemediğini söyledi. Bu, onu kullanan bedenler için bir soru, diyor.
Bununla birlikte, GCHQ tarafından görevlendirilen Royal United Hizmetler Enstitüsü’nden (RUSI) halka açık bir araştırma raporu, kullanılabileceğini öne sürüyor. Bireyleri seslerinin sesinden, yazı stillerinden veya bir bilgisayar klavyesine yazma biçimlerinden tanımlamayı içerir.
© Ian Georgeson Photography“İnsanlar haklı olarak adalet, şeffaflık ve önyargı konularını gündeme getiriyorlar, ancak onları her zaman açmıyorlar ve bunun teknik bir ortamda ne anlama geldiğini sormuyorlar”
Muffy Calder, Glasgow Üniversitesi
Bununla birlikte, en zorlayıcı kullanım durumu, istihbarat teşkilatları tarafından toplanan çok miktarda veriyi tetiklemek ve istihbarat değeri olan birden fazla kaynaktan elde edilen veriler arasındaki ilgili bağlantıları bulmaktır. Artırılmış istihbarat sistemleri, analistlere bir veri denizinden en alakalı bilgilerle nihai bir yargıya varabilir.
Calder, Musluğu oluşturan bilgisayar bilimcileri ve matematikçilerin yıllardır AI ile çalışıyor ve AI üzerinde çalışıyorlar ve kişisel verileri analiz etmek için AI kullanımının etik soruları gündeme getirdiğini fark ediyorlar.
“İnsanlar haklı olarak adalet, şeffaflık ve önyargı konularını gündeme getiriyorlar, ancak her zaman onları tanımlamıyor ve bunun teknik bir ortamda ne anlama geldiğini sormuyorlar” diyor.
Gizlilik ve saldırı arasındaki denge
Çerçeve, kuruluşlara AI’nın ne kadar gizliliğe girdiğini ve müdahaleyi nasıl en aza indireceğini değerlendirmek için araçlar vermeyi amaçlamaktadır. Cevap vermek yerine, kuruluşların AI riskleri hakkında düşünmelerine yardımcı olabilecek bir dizi soru sunar.
“Bence herkesin soruşturmalardaki hedefi gizlilik müdahalesini en aza indirmektir. Bu nedenle, bir soruşturma amacı ile insanlara müdahale ile örneğin teminat saldırı arasında bir dengeye sahip olmalıyız. [of people who are not under suspicion]”Diyor.
TAP’ın yapay zeka orantılılığı değerlendirme yardımı, organizasyonlarının yasal ve düzenleyici gerekliliklere uymasını sağlamaya dahil olan AI modelleri ve katılan kişiler tasarlayan, geliştiren, test eden ve görevlendiren kişiler içindir. Bir AI modelinde, kavramdan gelişimden, sonuçların sömürülmesine kadar her aşama için bir dizi soru sunar.
“Bu sormaya başlayabileceğimiz bir çerçeve, doğru şeyleri yapıyor muyuz? AI koşullar için uygun bir araç mı? Yapabilir miyim, daha fazlası yapmalıyım” diyor.
AI doğru araç mı?
İlk soru, AI’nın iş için doğru araç olup olmadığıdır. Yüz tanıma gibi bazı durumlarda, AI bu sorunu çözmek matematiksel olarak zor olduğu için tek çözüm olabilir, bu nedenle bir AI sistemini örneklerini göstererek eğitmek mantıklıdır.
İnsanların Calder’ın vergi hesaplaması gibi bir sorunun “fiziği” olarak adlandırdıklarını anladıkları diğer durumlarda, matematiksel bir algoritma daha uygundur.
“Analitik bir çözüm ya çok zor olduğunda ya da analitik çözümün ne olduğunu bilmediğimizde yapay zeka çok iyi. Bu yüzden en başından beri sormak meselesi, aslında burada AI’ya ihtiyacım var mı?” diyor.
Dikkate alınması gereken bir diğer sorun, modelin kullanıldığı uygulamalar için en uygun, en doğru veriler ve veriler hakkında karar vermelerini sağlamak için AI modellerinin ne sıklıkta yeniden eğitilmesidir.
Yaygın bir hata, amaçlanan kullanımı ile uyumlu olmayan veriler üzerinde bir AI modelini eğitmektir. “Bu muhtemelen klasik bir. Arabaların görüntüleri üzerinde eğitim aldınız ve tankları tanımaya çalışmak için kullanacaksınız” diyor.
Kritik sorular, AI modelinin belirli bir uygulamada yanlış pozitifler ve yanlış negatifler arasında doğru dengeye sahip olup olmadığını içerebilir.
Örneğin, AI, polis yüz tanıma teknolojisi yoluyla bireyleri tanımlamak için kullanılırsa, çok fazla yanlış pozitif masum insanların polis tarafından yanlış bir şekilde durdurulmasına ve sorgulanmasına yol açar. Çok fazla sahte negatif şüphelilerin tanınmamasına yol açacaktır.
AI hata yaptığında
Öyleyse, birisi otomatik bir karar sonucunda yanlış bir şekilde elektronik gözetim altına alınmışsa ne olurdu? Calder bunun çok önemli bir soru olduğunu kabul ediyor.
Çerçeve, organizasyonlardan AI hata veya halüsinat yaptığında nasıl tepki verdiklerini düşünmelerini isteyerek yardımcı olur.
“Yanıt, modeli daha doğru veya daha güncel verilerde yeniden eğitmemiz gerekebilir. Çok fazla cevap olabilir ve kilit nokta, bir sorun olduğunu bile biliyor musunuz ve bununla başa çıkmak için bir süreç var mı?”
Hata sistemik miydi? Kullanıcı girişi miydi? Bir insan operatörünün sonucu üretme ve ele alma şekli mi?
“Ayrıca, aracın nasıl optimize edildiğinin sonucu olup olmadığını sorgulamak isteyebilirsiniz. Örneğin, yanlış pozitifleri değil yanlış negatifleri en aza indirmek için optimize edildi mi ve yaptığınız şey size yanlış pozitif veren bir şeydi?” Ekliyor.
Eğitim sırasında saldırı
Bazen, AI konuşlandırıldığında daha düşük bir izinsiz giriş anlamına gelirse, eğitim aşamasında daha yüksek bir izinsiz giriş gizliliği seviyesini kabul etmek haklı olabilir. Örneğin, bir modelin çok sayıda insanın kişisel verileriyle eğitilmesi, modelin daha hedeflenmesini ve muhtemelen “teminat” saldırıya yol açmasını sağlayabilir.
“Sonuç, örneğin, suç faaliyetini takip etmek için çok daha hedefli bir şekilde kullanabileceğiniz bir araçtır. Bu nedenle, daha hedefli bir araç elde edersiniz ve aracı kullandığınızda sadece birkaç kişinin gizliliğini etkilersiniz” diyor.
Bir AI sisteminde döngüde bir insan olması, hatalar potansiyelini azaltabilir, ancak aynı zamanda diğer tehlikeleri de beraberinde getirir.
Döngüdeki insan
Örneğin, hastanelerde tanıtılan bilgisayar sistemleri, klinisyenlerin, reçeteleri elle yazmak zorunda kalmak yerine, ilgili ilaç ve miktarların bir listesinden seçim yapmalarına izin vererek ilaçları daha verimli bir şekilde dağıtmalarını mümkün kılar.
Dezavantajı, klinisyenlerin yanlış ilacı veya yanlış dozu seçerek “duyarsızlaşması” ve hata yapmasının veya önceden seçilmiş listeye dahil edilmeyebilecek daha uygun bir ilacı dikkate almaması daha kolaydır.
AI araçları, bir AI sisteminden çok sayıda çıktıyı sürekli olarak kontrol etmeleri gerekiyorsa, insanların ayrılabileceği benzer duyarsızlıklara yol açabilir. Görev bir kontrol listesi egzersizi olabilir ve yorgun veya dikkati dağılmış bir insan gözden geçirenin yanlış kutuyu işaretlemesi kolaydır.
Calder, “Bence AI ve Tıp kullanımıyla çok fazla paralellik var çünkü her ikisi de hassas verilerle uğraşıyor ve her ikisinin de insanların yaşamları üzerinde doğrudan etkileri var” diyor.
TAP’ın yapay zeka orantılılık değerlendirme yardımı, baş bilgi memurları ve organizasyonlarına AI dağıtmayı düşünen baş dijital memurlar için temel okuma olacaktır.
Calder, “Bu soruların büyük çoğunluğunun araştırma bağlamının dışında geçerli olduğunu düşünüyorum” diyor.
“Teknolojiyi kullanan hemen hemen her organizasyon, itibarlarını ve etkinliklerini düşünmek zorundadır. Kuruluşların hata yapmak veya kötü bir şey yapmak için yola çıktığını sanmıyorum, bu yüzden amaç insanlara yardım etmektir [use AI] Uygun bir şekilde ”diyor.