Yapay Zeka ve Makine Öğrenimi , Coğrafi Odak: Birleşik Krallık , Jeo-Spesifik
Yapay Zeka Bakanı, Rehberliğin Küresel Standartlara Atılan İlk Adım Olduğunu Söyledi
Akşaya Asokan (asokan_akshaya) •
16 Mayıs 2024
Birleşik Krallık hükümeti, yapay zeka geliştiricilerinin ve satıcılarının modelleri bilgisayar korsanlığından ve olası sabotajlardan korumalarına yardımcı olmayı amaçlayan gönüllü bir kılavuz yayınladı.
Ayrıca bakınız: İki Yıllık Aktif Siber Savunma: Özet
Çarşamba günü yayınlanan İngiliz hükümetinin AI uygulama kuralları, AI sistem davranışının izlenmesi ve model testinin yapılması gibi tavsiyeleri listeliyor.
Yapay Zeka ve Fikri Mülkiyet Bakanı Jonathan Camrose, “Birleşik Krallık’taki kuruluşlar karmaşık bir siber güvenlik ortamıyla karşı karşıyadır ve yapay zekayı altyapılarına benimseme konusunda güvene sahip olmalarını sağlamak istiyoruz” dedi.
Birleşik Krallık hükümeti, şirketlerin yapay zeka tedarik zinciri güvenliğini güçlendirmesi ve hassas yapay zeka sistemlerinden kaynaklanan veri kaybı gibi potansiyel riskleri azaltması gerektiğini söyledi. Kılavuz, modeller, çerçeveler veya harici API’ler dahil olmak üzere güvenli yazılım bileşenlerinin yalnızca doğrulanmış üçüncü taraf geliştiricilerden temin edilmesi ve kamuya açık kaynaklardan elde edilen eğitim verilerinin bütünlüğünün sağlanması gibi önlemleri önermektedir.
Kılavuzda “Model bakımı ve güvenliği sorumluluğunun karmaşık hale geldiği açık kaynaklı modellerin kullanımına özellikle dikkat edilmelidir” ifadesi yer alıyor.
Diğer önlemler arasında yapay zeka geliştiricilerinin güvenli kodlama konusunda eğitilmesi, farklı yapay zeka modelleri için güvenlik korkuluklarının bulunması ve yapay zeka modellerini yorumlayıp açıklayabilme yer alıyor.
Birleşik Krallık hükümeti, yapay zeka sistemlerinde tasarım yoluyla güvenliği teşvik etmek için kılavuzu küresel bir standarda dönüştürmeyi planlıyor. Planın bir parçası olarak hükümet, 10 Temmuz’a kadar yanıt verilmesini isteyen bir istişare toplantısı başlattı.
Muhafazakar hükümet, Kasım ayında yapılan zirvede yapay zeka güvenliğine yönelik ortak bir küresel yaklaşım için baskı yapma sözü verdi (bkz: İngiltere’nin Yapay Zeka Güvenliği Zirvesi Risk ve Yönetişime Odaklanacak).
Kılavuz, Birleşik Krallık Yapay Zeka Güvenliği Enstitüsü’nün, startup’ların, akademisyenlerin ve yapay zeka geliştiricilerinin bireysel modellerin belirli yeteneklerini değerlendirmesine ve sonuçlarına göre bir puan oluşturmasına olanak tanıyan Inspect adlı bir yapay zeka modeli değerlendirme platformunu yayınlamasından birkaç gün sonra geldi.
ABD ve Birleşik Krallık Yapay Zeka Güvenlik Enstitüleri Nisan ayında, güvenlik değerlendirme mekanizmaları ve ortaya çıkan risklere yönelik rehberlik geliştirmek için birlikte çalışacaklarını söyledi (bkz: ABD ve Birleşik Krallık, Yapay Zeka Güvenliği Konusunda Uyum Sağlayacak ve Kaynakları Paylaşacak).