Lordlar Kamarası İletişim ve Dijital Komitesi, büyük dil modellerinin (LLM’ler) sunduğu riskler ve fırsatlar ile Birleşik Krallık hükümetinin teknolojinin yayılmasına nasıl tepki vermesi gerektiği konusunda bir soruşturma başlattı.
Yüksek Lisans’lar, OpenAI’nin ChatGPT’si veya Stability AI’nin Stable Diffusion’ı gibi üretken yapay zeka (AI) araçlarını destekleyen ve çoğunlukla metin tabanlı çıktılar oluşturmak için büyük miktarda veri üzerinde eğitilen bir tür makine öğrenimidir.
Resmi olarak Temmuz 2023’ün başında yazılı delil çağrısıyla başlatılan soruşturma, şu anda çeşitli uzman tanıklarla sözlü delil oturumları düzenleme sürecinde olup, özellikle Yüksek Lisans’ın önümüzdeki üç yıl içinde nasıl gelişeceğine ve hükümetin nasıl gelişeceğine odaklanmaktadır. teknolojiye ileriye doğru yaklaşmalı.
“En yeni büyük dil modelleri muazzam ve benzeri görülmemiş fırsatlar sunuyor. İlk göstergeler sismik ve heyecan verici değişikliklerin yolda olduğunu gösteriyor” dedi komite başkanı Barones Beeston.
“Fakat zorluklara karşı uyanık olmamız gerekiyor. Riskleri detaylı bir şekilde araştırmalı ve süreçteki yenilikleri engellemeden bunlara en iyi şekilde nasıl yanıt verebileceğimizi bulmalıyız. Bu modeller gelişip günlük iş ve kişisel yaşamlara entegre olurken, gücü kimin elinde tuttuğu konusunda da net olmamız gerekiyor.
“İlerlemenin baş döndürücü hızı göz önüne alındığında, bu düşüncenin hızlı bir şekilde gerçekleşmesi gerekiyor. Yapay zekanın gelecekteki potansiyel gücüne ilişkin en korkutucu tahminlerin bizi en acil endişeleri erkenden anlamaktan ve ele almaktan alıkoymasına izin vermemeliyiz. Aynı şekilde, abartılı bir ortamda hemen sonuca varmamalıyız.”
İlk kanıt oturumu
12 Eylül’deki ilk kanıt oturumunda, şu anda hükümetin Frontier AI Görev Gücü’nün başkanı olan melek yatırımcı ve teknoloji girişimcisi Ian Hogarth, LLM’lerin devam eden gelişimi ve çoğalmasının büyük ölçüde hem finansal hem de finansal açıdan kaynaklara erişimle sağlanacağını belirtti. hesaplama gücü terimleri.
“Bilgisayar ucuzluyor, dolayısıyla daha fazla insan bu modelleri oluşturabiliyor. Geçmişi bir rehber olarak kullanırsak, OpenAI GPT-3’ü eğittiğinde dünyada GPT-3 ölçeğinde bir model vardı ve şimdi 100’den fazla model olmalı. OpenAI, GPT-4’ü eğittiğinde bir adet GPT-4 ölçekli model vardı ve muhtemelen gelecek yılın ortasında 10 adet olacak” dedi.
“Bunun bu kadar hızlı devam etmeyebileceğine inanıyorum, ancak belirli bir dönemde hesaplamada 10 kat büyüklükte bir artış gördüğünüz üstel bir seviyede kalacağımıza inanıyorum. Bunun nedeni ise kazanılacak büyük miktarda paranın olmasıdır.
“Bu araçlar pek çok ticari amaç için kullanılacak, dolayısıyla bu sistemleri daha güçlü hale getirmek için yatırılan para miktarı, halihazırda olduğu gibi artacak. On yıl önce, süper akıllı yapay zeka geliştirmeye çalışan şirketlere 20 milyon dolar yatırım yapıldı ve şimdi bu rakam 20 milyar dolar. Bu çok güçlü sistemleri kurmak için şirketler ve ülkeler arasında bir yarış yaşanıyor.”
Görev Gücü’ndeki çalışmaları açısından Hogarth, lansmandan bu yana geçen 11 hafta boyunca odak noktasının 100 milyon £’luk bütçesini üst düzey teknik yetenekleri hükümete getirmek için kullandığını, böylece çeşitli zorlukların sunduğu zorluklarla daha kolay başa çıkabileceğini ekledi. AI formları ve özel sektördeki uzmanlıkla rekabet edin.
“Şu ana kadar bu alanda doktora düzeyinden profesör düzeyine kadar deneyime sahip, gerçek anlamda ileri düzeyde uzmanlığa sahip 10 kişimiz var” dedi. “Bunlar şu anda dünyada işe alınması en zor insanlardan bazıları. Bu gerçek bir meydan okumadır. Özel sektörde kalmaları bunun 10 katı teklif edilirken, siz insanları kamu sektörüne çekmeyi teklif ediyorsunuz.”
Bununla birlikte, Cambridge Üniversitesi’nde makine öğrenimi profesörü ve hükümetin Veri Etiği ve İnovasyon Merkezi’nin eski danışma kurulu üyesi Neil Lawrence, Görev Gücü’ne ayrılan 100 milyon £’un diğer hükümet finansman kaynaklarıyla karşılaştırıldığında önemsiz kaldığını belirtti.
“Bay Hogarth burada beş yılda 100 milyon sterlinlik bir yatırımı temsil ediyor. [UK Research and Innovation] UKRI’nin bütçesi yılda 7 milyar £ civarında bir şey” dedi ve Güvenilir Otonom Sistemler Merkezi’ne verilen 30 milyon £ da dahil olmak üzere yapay zekaya yapılan önceki kamu yatırımlarına çok az önem verildiğini ekledi.
“Oldukça küçük bir yatırıma gösterilen bu kadar ilgiden dolayı biraz gerginim. Çok açık konuşalım: Bunun kamu parası olduğunu takdir ediyorum, ancak bahsettiğimiz yatırımın boyutu ve birçok kurumumuz hakkında düşünme şeklimizde devrim yaratacak zorluğun boyutu göz önüne alındığında, bu bir çözüm değil. çok para.”
ABD’deki gelişmeler hakkında yorum yapan Lawrence, yapay zeka ile başa çıkmanın tek yolunun büyük teknolojinin liderliği ele almasına izin verilmesinin giderek daha fazla kabul görmeye başladığını ekledi: “Benim endişem şu ki, eğer büyük teknoloji kontrol altındaysa, fiilen otokrasiye sahip oluruz. arka kapı. Öyle görünüyor ki, bu doğru olsa bile demokrasinizi korumak istiyorsanız yenilikçi çözümler aramanız gerekiyor.”
Bunu, matbaanın icadından önceki yazılı metinlerin üretimine benzeterek, yapay zeka ile ilgili sorunun bir kısmının “bilgisayarların, yazıcıların modern eşdeğeri tarafından kontrol edilmesi” olduğunu ekledi.
“Yazılım mühendisliği mesleği, loncaların modern eşdeğerinde var ve hükümetler üzerinde inanılmaz miktarda güce sahip. Baktığımız şeylerin çoğu bu güç asimetrileriyle nasıl başa çıkılacağıyla ilgili. Yapay Zeka Konseyi’nde geçirdiğim süre boyunca, bu konseyin var olduğu dönemde bu, bizi endişelendiren türden bir soruydu.”
Güven ve sorumluluk
Lawrence ve diğerleri ayrıca, karar almada çok büyük bir rol verildiğinde yüksek lisans eğitimlerinin güveni ve hesap verebilirliği büyük ölçüde azaltma potansiyeline sahip olduğu konusunda uyardı.
“Ölen kardeşimin ceketini giyerken burada oturuyorum – o bir avukattı – çünkü onu bugün yanımda istiyorum. Büyük bir dil modeli bunu size asla söyleyemez. Burada bir itibarla oturuyorum. Size sunduğum kanıtlar, ortaya koyduğum işe ve toplumdaki kim olduğuma dayanıyor” dedi.
“Teknik detaylar yüzünden dikkatimiz dağılıyor, çoğu zaman bunların nasıl sağlanacağına bakmamız gerekiyor. [models] Sonuç niteliğindeki karar alma süreçlerinde insanların yerini almak değil, karar verme süreçlerinde insanları güçlendiriyoruz.”
“Sonuç olarak karar alma”nın etkili bir şekilde Yüksek Lisans’lara devredilmesi tehdidi, daha önce Computer Weekly’ye “önceden şekillendirici” sosyal değişim ihtiyacı hakkında konuşan, yaratıcı ve sosyal bilişim alanında öğretim görevlisi olan Dan McQuillan’ın yazılı ifadesinde vurgulanan önemli bir endişeydi. yapay zekanın hükümet ve özel sektördeki nispeten küçük bir grup insan tarafından topluma dayatılmasına direnmek.
“Büyük dil modellerinin yarattığı en büyük risk, bunları ekonomide ve devletin refah, eğitim ve sağlık gibi temel işlevlerinde temel yapısal sorunları çözmenin bir yolu olarak görmektir” diye yazdı.
“Bu teknolojilerin yanlış tanıtılması, işletmelerin, çalışanları geniş dil modelleriyle değiştirerek kısa vadeli kârlılığı geri kazanabileceklerine inanmalarının ve kurumların kamu hizmetlerini devam eden kemer sıkma politikaları ve artan talepten kurtarmanın bir yolu olarak bunları benimsemelerinin cazip olduğu anlamına geliyor.
“Bu çabaların başarısız olacağına dair çok az şüphe var. Açık soru, bu durum netleştiğinde mevcut sistemlerimizin ne kadarının yerini büyük dil modellerinin alacağı ve bunun uzun vadeli sonuçlarının ne olacağıdır.”
Önümüzdeki üç yıl içinde Yüksek Lisans’larda şüphesiz “ilginç teknik gelişmeler” yaşanacak olsa da, bu gelişmelerin hiçbirinin onların güvenilir, tarafsız veya gerçekten üretken olmalarını engelleyen temel sorunların üstesinden gelemeyeceğini ekledi.
“Büyük dil modellerinde en zorlu kusur, işlemlerinin nedenselliğe değil akla yatkınlığa göre optimize edilmesidir. Başka bir deyişle, eğitim veri setlerindeki yanıtlara istatistiksel olarak benzer yanıtlar üretirler, inanılırlık ve toksik olmama açısından bir dizi ek yönergeyle rafine edilirler, ancak gerçekliği kontrol edecek bir mekanizma yoktur, dolayısıyla onlara asla tam olarak inanamayız. ‘doğru ses çıkardıklarında’.
Komitenin soruşturmasının başlatılması, yapay zekanın çeşitli yönlerini araştırmak için oluşturulan birçok Parlamento soruşturmasının en sonuncusu. Diğerleri arasında Ekim 2022’de başlatılan yapay zeka yönetimine ilişkin bir soruşturma, Ocak 2023’te başlatılan otonom silah sistemine yönelik bir soruşturma ve Temmuz 2023’te başlatılan üretken yapay zekaya ilişkin bir soruşturma yer alıyor.
Yapay zeka ve algoritmik teknolojilerin Birleşik Krallık polisi tarafından kullanımına ilişkin Lords soruşturması Mart 2022’de, teknolojinin kolluk kuvvetleri tarafından etkinlikleri veya sonuçları kapsamlı bir şekilde incelenmeden kullanıldığı ve bu dağıtımlardan sorumlu olanların esasen ” onlar ilerledikçe uyduruyorlar”.