Bürokratik bir parlaklıkta, bakan hayranları takdir edecek, kamu hizmeti – evet – Humphrey adlı bir dizi AI aracı sunuyor. Adlandırılan Sir Humphrey Appleby, aslında işbirliği yoluyla engelleme ustası olan o kadar yardımsever memur, bu AI girişimi, hizmetleri kolaylaştırmak, gecikmeleri kesmek ve kamu sektöründeki yıllık üretkenlik kazançlarında 45 milyar sterlin kilidini açmak için tasarlanmıştır. Ancak BBC Classic’e aşina olanlar için, isim seçimi inovasyona daha az ve daha çok uyarıcı bir masal gibi hissediyor. Çünkü tıpkı onun adı gibi, bu yeni dijital memur bizi yanlış yöne yönlendirebilir.
https://www.youtube.com/watch?v=L3HS96INUK
Humphrey AI, bürokratik ağrı noktalarını hedefleyen danışma, parter, dakika, redbox ve lex gibi bir araç paketidir: kopyalanmış uygulama, sessiz veri ve yavaş karar verme. İyi yürütülürse, dış danışmanlara olan ihtiyacı azaltabilir, karar almayı hızlandırabilir ve halkın deneyimini artırabilir.
Devleti dijital çağa getirmek için daha geniş bir girişimin bir parçasıdır. Çevrimiçi veri işleme sağlayarak, rutin idari görevleri otomatikleştirerek ve politika gelişimini yavaşlatabilecek zaman alıcı araştırmaları hızlandırarak kamu sektöründeki süreçleri kolaylaştırmaya yardımcı olacaktır. Güvenli, birlikte çalışabilir veri akışlarını etkinleştirerek Humphrey, kamu hizmeti maliyetlerini azaltırken ve verileri işlemek ve analiz etmek için dış danışmanlara olan güvenin üstesinden gelirken vatandaş deneyimlerini geliştirebilir.
Bakan yok, AI kendi veri sorunlarınızı çözemez
Ancak, evet, hala sahip olan bir ders var – iyi niyetli bir asistan yararlı görünürken yanıltıcı olabilir. Bu özellikle en yeni nesil AI araçları için geçerlidir. Bu sistemler sadece onları besleyen veriler kadar iyidir. Akıl yürütmeleri ve diğer uzman yetenekleri geliştikçe, bu sistemlerin daha fazla “halüsinasyon” eğiliminde olduğuna dair artan kanıtlar var.
Kötü küratörlü veri kümeleri, AI araçlarının kendinden emin ancak saçma sonuçlar vermesine yol açabilir, bu da kamu güvenine ciddi etkileri olan bir risk. Çarpıcı bir örnek, 140.000 dahili gevşek mesaj üzerinde eğitilmiş bir GPT-3.5 modelini içeriyordu. İçerik yazmaya istendiğinde, “Sabah bunun üzerinde çalışacağım” diye cevap verdi. Akıllı Bağlantılar eklentisi, görevi yerine getirmek yerine, eğitim verilerine gömülü erteleme alışkanlıklarını taklit etmişti. Boyutu nedeniyle yüzeysel olarak uygun görünen olsa da, temelde uygun olmayan bir veri kümesi kullanarak beklenenden tamamen farklı bir işlev gerçekleştirmişti.
Doğru eğitim verilerine sahip olmanın yanı sıra, AI AI’ya hazır, iyi yönetilen görevle ilgili veri kümelerine erişim gerektirir. Data.gov.uk gibi platformlarda çok sayıda açık veri olmasına rağmen, bunların çoğu eğitim veya ince ayar AI sistemleri için kolayca kullanılabilir değildir. Açık Veri Enstitüsü (ODI) tarafından yapılan yakın tarihli bir analiz, çoğu AI modeli tarafından kullanılan temel genel veri kümelerinin Nisan 2024 itibariyle, bu tür devlet portallarında yayınlanan istatistiksel ve diğer yetkili verilerden en iyi şekilde yararlanmadığını ortaya koymuştur. CommonCrawl gibi popüler bir AI veri kümesine dahil edilmek üzere kazınan data.gov.uk adresinden 13.556 sayfa, kamu hizmetleri hakkındaki vatandaş sorularını doğru bir şekilde yanıtlamaya nadiren katkıda bulundu. Bu tür 195 vatandaş sorusu boyunca, AI modelleri sadece beş vakada data.gov.uk istatistiklerine atıfta bulundu. Bunun yerine, sosyal medya yayınları veya fikir makaleleri veya sadece imal edilmiş cevaplar gibi ikincil veya güvenilmez kaynaklar çizdiler. Bu kopukluk tehlikelidir; Hükümet tarafından dağıtılan AI araçları tarafından üretilen yanlış bilginin kapısını açar.
Bunun bir nedeni, hükümet verilerinin genellikle AI’ye hazır formatlarda yayınlanmamasıdır, örneğin, makine tarafından okunabilir meta verilerden veya erişilebilir özetlerden yoksundur, bu da esasen bilgiyi AI modelleri için görünmez hale getirir. Ayrıca, AI özellikli dijital hizmetlerin hangi kaynaklara öncelik vermesi gerektiğine dair anlayışımız sınırlıdır. Bunu, geleneksel arama motorları gibi önceki nesil AI araçlarının kamu hizmetleri hakkında soruların hükümet sayfalarını ve diğer yetkili kaynakları ikincil bilgilerden daha yüksek olmasını sağlamak için ortaya koyduğu teknik çözümlerle karşılaştırın. Sadece üretken AI ile bu yolculuğa başlıyoruz.
Kötü karar vermeyi sayısallaştırmak
Veri, araştırma politikası veya belge yazmak için yapay zeka kullanmak, bu teknolojilerin nasıl çalıştığını, güvendikleri verilerin ve bunların sınırlamalarını anlamayı gerektirir. İşçilerin AI’nın çıktılarını doğrulamanın tek yolu budur. Bununla birlikte, Harvard Business School’daki araştırmacılar, AI gerçek değer sunarken, öngörülemeyen başarısızlık noktalarının hem bireyler, kuruluşlar hem de hükümetler için hem faydaları hem de riskleri ölçmek zorlaştırdığını buldu.
Önceki muhafazakar hükümet kapsamında yayınlanan ulusal veri stratejisi, ‘liderliğin parçalanması ve her düzeyde veri becerilerinde derinlik eksikliği’ ve verilerin yanlış kullanma risklerini aşırı vurgulayan bir kültür gibi sorunları kabul etti ve ‘verilerin kronik bir alt kullanımı ve değerini anlama eksikliğine yol açtı’. Bunun acilen değişmesi gerekiyor. Memurlar AI’nın nasıl çalıştığını anlamıyorlarsa, çıktılarını nasıl sorgulayabilirler?
Üst düzeylerde zayıf anlayışın belirli sonuçları vardır. Örneğin, okul yokluğu verileri, yıl grubu gibi veri noktalarını ve ihtiyaç durumunda olan çocuk gibi dezavantajlı geçmişlerin göstergeleri izler, ancak katılımla ilgili zorluk yaşayan çocukların çok yüksek oranının otistik olduğuna dair kanıtlara rağmen, nörodiverans gibi ayrıntılı ayrıntıları kaçırır. Bu, politika yapıcıları, sürekli olmayan birçok öğrencinin otistik olduğu gerçeğini kör ederek, özel destekten ziyade ebeveyn para cezaları gibi cezalandırıcı tepkileri teşvik ediyor. Yapay zeka araçlarının düşünceli kullanımı ile desteklenen daha iyi AI okuryazarlığı, memurların sadece verileri anlamalarına değil, aynı zamanda bunu nasıl sorgulayacaklarını öğrenmelerine yardımcı olabilir.
Diğer ülkeler zaten ilerliyor. Örneğin Estonya, kamu hizmeti iş yüklerini azaltmayı ve hizmet sunumunu hızlandırmayı amaçlayan bir AI chatbot olan Bürokratt’ı tanıttı. Ancak en önemlisi, Estonya sadece araçlara yatırım yapmak değil; Personelini eğitmek için yatırım yapıyor. Estonya Ekonomik İşler ve İletişim Bakanlığı Dijital Devlet Akademisi’ni başlattı ve dijital yönetişim, yapay zeka ve memurlara veri işleme konusunda ücretsiz dersler sundu.
İngiltere not almalı. Birleşik Krallık kamu hizmetini yükseltmek için çabalar olsa da, çoğu girişim, yönetim kurulu genelinde gerekli olan temel veri okuryazarlığından ziyade ileri veri becerilerine odaklanmıştır. Politika yapıcıların Python’da kodlamaları gerekmez, ancak bir veri kümesinde önyargı tespit edemezlerse veya bir AI’nın çıktısını sorgulayamazlarsa, hiçbir otomasyon daha iyi kararlar vermez. Şık bir dijital arayüzün arkasındaki kötü olanları gizleyecektir.
“Gıcırdayan eski bürokratik makine”
1980’de Bakan Jim Hacker, “Bakan,“ Tüm bürokrasiyi keseceğiz, bu gıcırdayan eski bürokratik makineyi kolaylaştıracağız ”diye iyimser bir şekilde ilan etti. Kırk yıl sonra hükümet, AI’nın nihayet bu vaadi yerine getirebileceğini ve yol boyunca geniş tabanlı ekonomik büyümeyi sürebileceğini umuyor. Sadece kamu sektöründe, teknoloji bakanı Peter Kyle, kamu hizmeti AI’yı başarıyla benimserse kamu sektörü için “45 milyar sterlinlik bir ikramiye” tahmin ediyor. Bunun kilidini açmak için, sadece Humphrey gibi araçlarda değil, kullanımlarını desteklemek için eğitim ve altyapıda yatırıma ihtiyaç vardır.
ODI, tam bunu yapmak için on yıllık ulusal veri altyapısı yol haritası çağrısında bulunuyor. Bu yol haritası, birlikte çalışabilirlik, AI’ye hazır veriler ve gizliliği koruyan teknolojiler olmak üzere üç sütuna odaklanarak AI Fırsatları Eylem Planını destekleyecektir. Plan güçlü bir yön belirlerken, standartların nasıl ayarlanacağı ve izleneceği ve temel veri altyapısının nasıl finanse edileceği konusunda ayrıntıdan yoksundur.
Kamu hizmetlerinde AI’yı eğitmek ve işletmek için kullanılan veri kümelerinin provenansı ve soyu hakkında şeffaflık kritiktir. Onsuz, AI’nın hayatımızı etkileyen kararları nasıl etkilediğini inceleyemeyiz. Kamu güvenini oluşturmak için, kamu sektörü algoritmalarından en çok etkilenen kişilerin verilerinin nasıl kullanıldığını şekillendirmeye yardımcı olabilmesi için kilit veri kümelerinin katılımcı yönetimini keşfetmeliyiz.
Bu, ODI’nin AI’ye hazır veriler için yeni çerçevesi gibi çerçevelerin hayati önem taşıdığı yerdir. Yapay zekada etkili ve etik kullanım için veri kümeleri hazırlamak için dört temel ilke ortaya koymaktadır: teknik optimizasyon, veri kalitesi ve standartları, yasal uyumluluk ve sorumlu koleksiyon. Uzman olmayan veri yayıncılarının sadece makine tarafından okunabilen değil, aynı zamanda anlamlı, yasal ve adil olmasını sağlamak için pratik adımlara işaret ederek, adil (Bulunabilir, Erişilebilir, Birlikte Çalışabilir ve Yeniden Kullanılabilir) genel ilkelerin ötesine geçer.
Kamu yararına verileri kullanmak için, uzun vadeli düşünmeli, sağlam veri temelleri oluşturmalıyız ve her şeyden önce disfonksiyonun dijitalleştirme riskleri konusunda uyanık kalmalıyız. Aksi takdirde, Whitehall’daki en güçlü yeni memur insan olmayacak, Humphrey adlı bir AI olacak. Ve onun ismi gibi, sonsuza dek yararlı görünecek, ancak sonuçları eğitildiği verilere uyacak şekilde şekillendiriyor. Devlet memurları, yeni dijital meslektaşları tarafından sessizce geride kalırken, gıcırdayan bir eski makineyi kolaylaştırmaya çalışırken, modern Jim Hacker’ları olma riskiyle karşı karşıya.
Elena Simperl, ODI Araştırma Direktörüdür.