Ada Lovelace Enstitüsü’ne göre, yapay zeka (AI) temel modellerini uygulamak isteyen kamu sektörü kurumlarının, teknolojiyle ilişkili çeşitli riskleri erkenden tespit etmek ve azaltmak için sistemler ve tedarikçiler üzerinde kapsamlı bir durum tespiti yapması gerekiyor.
Enstitü, temel modellerini çok çeşitli olası kullanım durumları için tasarlanmış ve çeviri ve metin özetlemeden notlardan taslak raporlar oluşturmaya veya üyelerden gelen sorgulara yanıt vermeye kadar çeşitli farklı görevleri yerine getirme kapasitesine sahip bir tür yapay zeka sistemi olarak tanımlıyor. Halk.
Enstitü, belirli bir görev ve bağlam için eğitilen “dar yapay zeka sistemlerinden” farklı olarak, büyük dil modelleri (LLM’ler) de dahil olmak üzere temel modellerin, ölçekleri ve çok daha geniş bir yelpazedeki durumlara potansiyel uygulanabilirliği ile karakterize edildiğini söyledi.
Potansiyel kamu sektörü dağıtımları açısından, teknolojinin örneğin belge analizi, karar verme desteği ve müşteri hizmetlerinin iyileştirilmesinde kullanılabileceği ve bunun kamu hizmeti sunumunda daha fazla verimliliğe yol açacağı öne sürülmüştür. bireysel ihtiyaçlara göre uyarlanmış daha kişiselleştirilmiş ve erişilebilir hükümet iletişimleri ve hükümetin kendi iç bilgi yönetimindeki iyileştirmeler.
Enstitü, Ekim 2023’ün başlarında yayınlanan bir politika brifinginde “Ancak, bu faydalar kanıtlanmamıştır ve spekülatif olmaya devam etmektedir” diyerek, hem kamu sektöründe hem de sanayide bu sistemlerin potansiyeli konusunda iyimserlik olmasına rağmen – özellikle küresel kriz karşısında – buna dikkat çekti. bütçe kısıtlamalarının sıkılaştırılması ve artan kullanıcı ihtiyaçları; ayrıca önyargı ve ayrımcılık, mahremiyet ihlalleri, yanlış bilgilendirme, güvenlik, endüstriye aşırı bağımlılık, iş gücü zararları ve eşitsiz erişim gibi konularda da gerçek riskler var.
Ayrıca, bu tür modellerin bir soruna en iyi çözüm olduğu için değil, yeni bir teknoloji oldukları için kamu sektörü tarafından benimsenme riskinin bulunduğunu da sözlerine ekledi.
“Kamu sektörü kullanıcıları bu nedenle temel modellerini uygulamadan önce karşı olguları dikkatle değerlendirmelidir. Bu, önerilen kullanım durumlarını daha etkili olabilecek, paranın karşılığını daha iyi verebilecek veya daha az risk oluşturabilecek daha olgun ve test edilmiş alternatiflerle karşılaştırmak anlamına gelir; örneğin, bir temel model oluşturmak yerine müşteri hizmetleri sağlamak için dar bir yapay zeka sistemi veya bir insan çalışanın kullanılması -destekli sohbet robotu.”
Görev gücü lansmanı
Kamu sektöründe ChatGPT gibi temel model uygulamalarının resmi kullanımı şu anda demolar, prototipler ve konsept kanıtlarıyla sınırlı olmasına rağmen (bireysel memurların bunu gayri resmi olarak kullandığına dair bazı kanıtlar bulunduğunu belirterek), Enstitü, Birleşik Krallık hükümetinin bu konuda tedbirli olduğunu belirtti. Örneğin Haziran 2023’te 100 milyon £’luk Temel Model Görev Gücü’nün lansmanı yoluyla Birleşik Krallık’ın yapay zeka yeteneklerini aktif olarak hızlandırmayı amaçlıyor.
Bu baskı göz önüne alındığında, brifing belgesinin büyük bir kısmı, özel sektörün teknolojinin geliştirilmesinde oynadığı öncü role ve kamu sektörü kurumlarının, bununla ilgili çeşitli zararları sınırlayacak şekilde kendi satın alma ve dağıtımlarını nasıl yönlendirebileceğine odaklanıyor.
Örneğin Enstitü, özel teknoloji sağlayıcılarına aşırı derecede güvenmenin, geniş bir müşteri yelpazesi için geliştirilen uygulamalar ile genellikle çok daha büyük hacimlerde hassas bilgileri işleyen kamu sektörünün ihtiyaçları arasında bir uyumsuzluk yaratabileceği riskinin bulunduğunu söyledi.
Kullanıcıların temel model çıktılarına aşırı derecede güvenmeleri veya bunlara bir insanmış gibi davranmaları otomasyon yanlılığından kaynaklanan başka risklerin de bulunduğunu söyledi.
Halihazırda temel modellerle ilişkilendirilen çok çeşitli risklerin, örneğin veri kümesi temizliği, talimat ince ayarı veya geri bildirimden takviyeli öğrenme yoluyla eğitim aşamasında temel modellerin üst düzey sağlayıcıları tarafından en iyi şekilde ele alınabileceğini ekledi.
Bu nedenle Enstitü, harici temel modeli yetenekleri satın almak isteyen tüm kamu kurumlarının, satın alma ve uygulama sırasında ilgili riskler ve azaltımlar hakkında ayrıntılı bilgiye önceden ihtiyaç duyması gerektiğini söyledi.
“Örneğin, bir özetleme aracı tedarik ederken veya geliştirirken, kamu sektörü kullanıcıları, metin çıktılarındaki cinsiyet veya ırksal önyargı gibi konuların eğitim verileri seçimi ve modelin ince ayarı yoluyla nasıl ele alındığını sormalıdır” dedi. “Ya da kamuya açık sorular için bir sohbet robotu dağıtırken, temeldeki büyük dil modelini harekete geçirmek için veri kullanma sürecinin, verileri özel bir sağlayıcıyla paylaşmak gibi gizlilik haklarını ihlal etmemesini sağlamalılar.”
Enstitü, daha etkili temel modeli yönetimini desteklemek için politika yapıcıların ilgili kılavuzu düzenli olarak gözden geçirmesi ve güncellemesi gerektiğini ekledi; ihalelerde ve sözleşmelerde yazılması gereken standartları destekleyecek satın alma gerekliliklerinin belirlenmesi; modeller tarafından kullanılan verilerin yerel olarak tutulmasını gerektiren; sistemlerin bağımsız üçüncü taraf denetimlerini zorunlu kılmak; ve tüm riskleri ve zorlukları tanımlamak için daha geniş bir kullanıma sunmadan önce sınırlı kullanım senaryolarını pilot olarak uygulayın.
Yapay zekanın etkili yönetiminin, hesap verebilirlik ve açıklık içeren Nolan Kamu Yaşamı İlkeleri tarafından desteklenmesi gerektiğini ekledi.
Ancak Temmuz 2023’te Enstitü, Birleşik Krallık hükümetinin “düzenleyici” veri reformu önerilerinin, “zaten zayıf olan düzeltme ve hesap verebilirlik ortamını” daha da kötü hale getirerek yapay zekanın güvenli bir şekilde geliştirilmesine ve konuşlandırılmasına zarar vereceği konusunda uyardı.
Bu önerileri analiz eden (büyük ölçüde Mart 2023 tarihli AI teknik incelemesinde yer alan) bir raporda, Birleşik Krallık ekonomisinin “büyük bir kısmı” ya düzenlenmemiş ya da yalnızca kısmen düzenlenmiş olduğundan, yapay zeka konuşlandırmalarının incelenmesinden kimin sorumlu olacağının açık olmadığı ortaya çıktı. bir dizi farklı bağlam.
Buna, kapsamlı bir şekilde izlenmeyen işe alım ve istihdam uygulamaları da dahildir; eşit olmayan bir düzenleyici ağ tarafından izlenen ve uygulanan eğitim ve polislik; ve doğrudan düzenlenmeyen merkezi hükümet birimleri tarafından yürütülen faaliyetler.
“Bu bağlamlarda, yeni yapay zeka ilkelerinin yapay zeka sistemlerini dağıtan veya kullanan kuruluşların uygulamalarına dahil edilmesini sağlamak için net bir genel gözetime sahip mevcut, alana özgü bir düzenleyici olmayacak” dedi ve bağımsız yasal analizin yürütüldüğünü ekledi. Veri hakları kurumu AWO tarafından yapılan Enstitü, bu bağlamlarda Birleşik Krallık GDPR ve Eşitlik Yasası gibi birbiriyle kesişen mevzuat tarafından sunulan korumaların çoğu zaman insanları zarardan korumada veya onlara tazminat için etkili bir yol sunmada başarısız olduğunu tespit etti.
“Bu uygulama boşluğu çoğu zaman bireyleri haklarını uygulamak için mahkeme işlemlerine bağımlı bırakıyor; bu da maliyetli ve zaman alıcıdır ve çoğu zaman en savunmasız kişiler için bir seçenek değildir.”
Riskler ve fırsatlar
Eylül 2023’te Lordlar Kamarası, LLM’lerin sunduğu riskler ve fırsatlar ile Birleşik Krallık hükümetinin teknolojinin yayılmasına nasıl tepki vermesi gerektiği konusunda bir soruşturma başlattı.
Yaratıcı ve sosyal bilişim alanında öğretim görevlisi olan Dan McQuillan, soruşturmaya sunduğu yazılı kanıtta, karar verme süreçlerinin bu tür yapay zeka araçlarına devredilmesinin risklerini vurguladı.
“Büyük dil modellerinin yarattığı en büyük risk, bunları ekonomide ve devletin refah, eğitim ve sağlık gibi temel işlevlerinde temel yapısal sorunları çözmenin bir yolu olarak görmektir” diye yazdı.
“Bu teknolojilerin yanlış tanıtılması, işletmelerin, çalışanları geniş dil modelleriyle değiştirerek kısa vadeli kârlılığı geri kazanabileceklerine inanmalarının ve kurumların kamu hizmetlerini devam eden kemer sıkma politikaları ve artan talepten kurtarmanın bir yolu olarak bunları benimsemelerinin cazip olduğu anlamına geliyor.
McQuillan, “Bu çabaların başarısız olacağına dair çok az şüphe var” dedi. “Açık soru, bu netleştiğinde mevcut sistemlerimizin ne kadarının büyük dil modelleri tarafından değiştirileceği ve bunun uzun vadeli sonuçlarının ne olacağıdır.”