Birleşik Krallık hükümeti, teknolojiyi daha güvenli hale getirmek için çalışan araştırmacılara 200.000 £’a kadar hibe sağlayacak olan “sistemik yapay zeka güvenliğini” iyileştirmeye yönelik bir araştırma ve finansman programını resmi olarak başlattı.
Mühendislik ve Fizik Bilimleri Araştırma Konseyi (EPSRC) ve Birleşik Krallık Araştırma ve İnovasyon’un (UKRI) bir parçası olan Innovate UK ile ortaklaşa başlatılan Sistemik Güvenlik Hibe Programı, Birleşik Krallık Yapay Zeka Güvenlik Enstitüsü (AISI) tarafından sunulacak. Planın ilk aşaması boyunca 4 milyon £’luk başlangıç potası ile yaklaşık 20 projeye finansman sağlanacak.
Daha sonraki aşamalar başlatıldığında ek nakit sağlanacak ve programın tamamına 8,5 milyon £ tahsis edilecek.
Kasım 2023’teki Birleşik Krallık Yapay Zeka Güvenliği Zirvesi öncesinde kurulan AISI, yeni yapay zeka türlerini incelemek, değerlendirmek ve test etmekle görevlendirildi ve halihazırda yetenekleri paylaşmak ve yapay zeka güvenlik testlerine yönelik ortak yaklaşımlar oluşturmak için ABD’li mevkidaşı ile işbirliği yapıyor. .
Toplumun derin sahtekarlıklar, yanlış bilgilendirme ve siber saldırılar da dahil olmak üzere yapay zeka ile ilgili bir dizi riskten nasıl korunabileceğine odaklanan hibe programı, kamuoyunun teknolojiye olan güvenini artırırken aynı zamanda Birleşik Krallık’ı da en üst sıraya yerleştirerek AISI’nin çalışmalarını geliştirmeyi amaçlayacak. “Sorumlu ve güvenilir” yapay zeka gelişiminin kalbi.
Kritik riskler
Araştırma ayrıca sağlık ve enerji hizmetleri gibi kritik sektörlerde sınır yapay zekanın benimsenmesinin kritik risklerini belirlemeyi ve daha sonra bu alanlardaki potansiyel risklerle mücadele edecek uzun vadeli araçlara dönüştürülebilecek potansiyel teklifleri belirlemeyi amaçlayacak.
Dijital sekreter Peter Kyle, “Odak noktam, büyümeyi başlatabilmemiz ve kamu hizmetlerini geliştirebilmemiz için yapay zekanın ülke genelinde benimsenmesini hızlandırmak” dedi. “Ancak bu planın merkezinde, halihazırda gerçek değişim sağlayan yeniliklere olan kamu güveninin artırılması yer alıyor.
“İşte bu hibe programı devreye giriyor” dedi. “Endüstriden akademiye kadar geniş bir uzmanlık yelpazesinden yararlanarak, yapay zeka sistemlerini ekonomimize yayarken bunların teslimat noktasında güvenli ve güvenilir olmasını sağlayacak araştırmayı destekliyoruz.”
Birleşik Krallık merkezli kuruluşlar, özel bir web sitesi aracılığıyla hibe finansmanına başvuruda bulunabilecek ve programın açılış aşaması, yapay zekanın yakın gelecekte topluma ne gibi zorluklar getireceği konusunda anlayışların derinleştirilmesini amaçlayacak.
Projeler ayrıca, geliştiriciler ve yapay zeka araştırma topluluğu arasındaki işbirliğini güçlendiren ve teknolojinin güvenli bir şekilde konuşlandırılması ve geliştirilmesine yönelik ortak küresel yaklaşımı güçlendiren uluslararası ortakları da içerebilir.
Teklifler için ilk son tarih 26 Kasım 2024’tür ve başarılı başvuru sahipleri, Şubat ayında resmi olarak fon almadan önce Ocak 2025’in sonuna kadar onaylanacak. AISI başkanı Ian Hogarth, “Bu hibe programı, ortaya çıkan sistemik yapay zeka güvenliği konusu hakkında daha geniş bir anlayış geliştirmemize olanak sağlıyor” dedi. “Bu, ister deepfake gibi alanlarda ister yapay zeka sistemlerinin beklenmedik şekilde başarısız olma potansiyeli olsun, toplumu etkileyebilecek belirli sektörlerde yapay zeka konuşlandırılmasıyla ilişkili risklerin belirlenmesine ve azaltılmasına odaklanacak.
“Çok çeşitli disiplinlerden ve arka planlardan araştırmaları daha geniş bir AI araştırma tabanına katkıda bulunma sürecine bir araya getirerek, AI güvenliğine yönelik kapsamlı bir yaklaşım geliştirebilmemiz için AI modellerinin nerede risk oluşturabileceğine dair ampirik kanıtlar oluşturuyoruz küresel kamu yararı için.”
Finansman planını detaylandıran Bilim, Yenilik ve Teknoloji Bakanlığı’ndan (DSIT) yapılan bir basın açıklamasında, İşçi Partisi’nin en güçlü yapay zeka modellerini geliştiren bir avuç şirket için yüksek hedefli mevzuat uygulamaya yönelik manifesto kararlılığı da yinelendi ve hükümetin “orantılı bir finansman planı” sağlayacağını ekledi. kullanımına ilişkin yeni kapsamlı kurallar yerine düzenlemeye yönelik bir yaklaşım”.
Mayıs 2024’te AISI, Anthrophic ve OpenAI gibi önde gelen AI şirketleriyle daha fazla ilerleme sağlamak için ilk uluslararası ofislerini San Fransisco’da açtığını duyurdu.
Aynı duyuruda AISI, yapay zeka modeli güvenlik testi sonuçlarını da ilk kez kamuoyuna açıkladı.
Test edilen beş halka açık büyük dil modelinden (LLM) hiçbirinin, insanlar onları denetlemeden daha karmaşık, zaman alıcı görevleri yerine getiremediğini ve hepsinin, güvenlik önlemlerinin temel “jailbreak’lerine” karşı oldukça savunmasız kaldığını buldu. Ayrıca bazı modellerin, bu güvenlik önlemlerini aşmaya yönelik özel girişimler olmasa bile zararlı çıktılar üretebileceğini de tespit etti.
Bununla birlikte AISI, modellerin temel ve orta düzey siber güvenlik zorluklarını tamamlama kapasitesine sahip olduğunu ve birçoğunun kimya ve biyoloji alanında doktora eşdeğeri düzeyde bilgi sergilediğini iddia etti (yani uzman düzeyinde bilgi ve bilime verilen yanıtları elde etmek için kullanılabilecekleri anlamına gelir) temelli sorular doktora düzeyindeki uzmanların verdikleri sorularla aynı düzeydeydi).