Birleşik Krallık hükümeti belirli bir yapay zeka mevzuatına ihtiyaç görmüyor


Hükümet yetkilileri milletvekillerine, yapay zekanın (AI) etkili yönetiminin, düzenleyicilerin yeni yasal yetkilere yönelik bir ihtiyaçtan ziyade, düzenleyici kapasite ve yetenek meselesi olduğunu söyledi.

Mart 2023’te Birleşik Krallık hükümeti, düzenleyicilerin kendi endüstrilerinde “yapay zekanın güvenli ve yenilikçi kullanımını” kolaylaştırmak için dikkate alması gereken beş ilkeyi özetleyen yapay zeka teknik incelemesini yayınladı.

Bunlar emniyet ve güvenliktir; şeffaflık ve açıklanabilirlik; adalet; hesap verebilirlik ve yönetişim; ve itiraz edilebilirlik ve telafi.

Önümüzdeki 12 ay boyunca düzenleyicilerin, beş ilkenin kendi sektörlerinde nasıl uygulanması gerektiğini belirleyen risk değerlendirme şablonları gibi diğer araç ve kaynakların yanı sıra kuruluşlara pratik rehberlik sağlamakla görevlendirileceğini de sözlerine ekledi. Hükümet, düzenleyiciler arasında tutarlılığın sağlanması amacıyla parlamentonun zamanı izin verdiği takdirde buna mevzuatın da eklenebileceğini söyledi.

Ekim 2022’de Birleşik Krallık’ın yapay zeka yönetimine ilişkin bir soruşturma başlatan ve hükümetin teknolojinin etik ve sorumlu bir şekilde kullanılmasını nasıl sağladığını inceleme yetkisi veren Bilim, Yenilik ve Teknoloji Komitesi soruşturmasına kanıt sunan Whitehall yetkilileri, mevcut durumun ana hatlarını çizdi hükümetin neden yeni yapay zeka odaklı mevzuata ihtiyaç görmediğini düşünmek.

Başkan Greg Clark’ın, King’s Speech’te (2025’e kadar bir sonraki Parlamento oturumu için yasama programını ortaya koyduğunu belirttiği) bir yapay zeka yasa tasarısının bulunmamasına ilişkin sorularını yanıtlayan, Bakanlığın dijital teknolojiler ve telekomünikasyon genel müdürü Emran Mian, Bilim, Yenilik ve Teknoloji (DSIT), hükümetin “yasa çıkarmamıza gerek olmadığı” görüşünü benimsediğini, çünkü düzenleyicilerin halihazırda yapay zeka ile ilgili zararlarla başa çıkmak için harekete geçtiğini söyledi.

“Düzenleyicilerin harekete geçtiğini ve dilerseniz gerekli saygıyı gösterdiğini zaten görüyoruz. [whitepaper’s principles]”dedi ve henüz yayınlanmayan beyaz kağıt üzerinde yapılan istişareler sonucunda bu değişikliğin olasılığı üzerine baskı yapıldığında hükümetin “mevcut bir mevzuat planının olmadığını” da sözlerine ekledi.

ABD düzenlemesi

Ancak Clark, “sert düzenlemelerle tanınmayan” ABD’nin bile teknolojinin kullanımını kontrol etmek için düzenleme yapmaya başlama ihtiyacı hissettiğini ve Ofcom, Rekabet ve Markert Otoritesi de dahil olmak üzere bazı Birleşik Krallık düzenleyicilerinin bu konuda harekete geçtiğini belirtti. (CMA) – yeni dijital teknolojiler karşısında düzenleme yapabilmeleri için güncellenmiş yetkiler ya zaten verilmiştir ya da verilme sürecindedir.

“Halihazırda sahip olduğumuz yasal çerçevenin ve hâlâ uyarlama sürecinde olduğumuz yasal çerçevenin olup olmadığını test etmenin bizim için gerçekten önemli olduğunu düşünüyoruz. [with the Online Safety Act, the Digital Markets Bill and new data protection legislation] – bize yetki veriyor ve düzenleyicilere risklerle başa çıkmaları için ihtiyaç duydukları yetkileri veriyor” dedi Mian.

“Düzenleyicilerin doğru adımları attığını düşünmediğimiz veya düzenleyicilerin doğru yetkilere sahip olmadığını düşündüğümüz durumlarda ortaya çıkan zarar veya potansiyel zararlara ilişkin örnekler belirlersek, bu durum açıkça ortadadır. [something we will take into consideration].”

Tanınmış bir yatırımcı ve Başbakan’ın yapay zeka temsilcisi Matt Clifford, kamu sektöründe yapay zeka ile ilgilenecek yeni becerilere ve insanlara gerçek bir ihtiyaç olduğunu ekledi ve “bunların genel olarak güçlerden ziyade kapasite ve yetenek sorunları olduğunu” savundu. ”.

Yapay Zeka Güvenlik Enstitüsünün Rolü

Mian, Sunak’ın yakın zamanda Zirve öncesinde duyurduğu Birleşik Krallık Yapay Zeka Güvenliği Enstitüsü kurma motivasyonunun bir kısmının, kamu sektörünün özel yapay zeka geliştirici modellerinin yüksek kalitede test edilmesi ve değerlendirilmesi kapasitesinin geliştirilmesine yardımcı olmak olduğunu söyledi. şu anda yalnızca şirketlerin kendileri tarafından yapılıyor.

Sunak’ın şirketlerin kendi ödevlerini yapmalarına izin verilmemesi gerektiği yönündeki açıklamasını yineleyen Sunak, “bilimin gelişmesine katkıda bulunmaları gerekirken” devletin de aynı yükümlülüklere bağlı olmadığı için rol oynamasının uygun olduğunu sözlerine ekledi. örneğin yapay zeka modellerinin güvenlik riskleriyle tam olarak ilgilenmeden onları “pazara koşmaya” sevk edebilecek ticari zorunluluklar.

Önde gelen öncü yapay zeka laboratuvarlarının, Enstitü’ye temel temel modellerine erişim sağlamayı gönüllü olarak kabul ettiğini belirten Clifford, hükümetin öngörülen test türü için gerekli olmadığından tam erişim istemediğini de sözlerine ekledi.

“Sonuçta, riskleri test etmek için halkın sahip olacağı biçimde erişime ihtiyacımız var” dedi ve daha sonra herhangi bir yeni test rejiminin, ihtiyaç duyulan kaynaklara sahip dev şirketler arasındaki güç eşitsizliklerini de hesaba katması gerektiğini ekledi. Yapay zeka modellerini geniş ölçekte (hem finansal hem de bilgi işlem gücüne erişim açısından) ve daha küçük uygulama geliştiricilerini çalıştırmak için.

“Güvenliğin model katmanında gerçekleşmesi gerekiyor ve KOBİ’ler kendi modellerini inşa etmeyecekler, yüz milyonlarca dolara mal oluyorlar” dedi. “KOBİ’nin, bir OpenAI modeli, bir Google modeli veya bir Antropik model kullandığında geliştiricilerin bunu güvenli hale getirmek için aslında çok fazla zaman ve para harcadığını bilmesi gerekiyor.

“Yapay zekanın uygulama geliştiriciler tarafından güvenli bir şekilde benimsenmesini sağlamanın yolu, halka, temel modellerinin güvenli olduğu konusunda güvence vermektir.”

Birleşik Krallık’ın yapay zeka güvenliği konusundaki çalışmaları açısından, kısmen Enstitü sayesinde “muhtemelen diğer ülkelerden çok daha ileride” olduğunu iddia eden Mian, ayrıca Birleşik Krallık hükümetinin Veri Etiği Merkezi aracılığıyla bir Algoritmik Şeffaflık Kayıt Standardı oluşturmasına da değindi. İlerlemenin kanıtı olarak inovasyon; ancak Clark, bir yıldan fazla bir süre önce yayınlandığından bu yana kamu sektörü kuruluşları tarafından gönüllü standart kapsamında yalnızca altı raporun yayınlandığını belirterek geri adım attı.

Mian, Birleşik Krallık hükümetinin şeffaflığın önemini kabul ettiğini ve benzer çalışmaların Enstitü tarafından da yapılabileceğini söyledi.

Önde gelen yapay zeka araştırmacılarını birime katılmaya ikna etme misyonunda olan hükümetin 100 milyon £ değerindeki Sınır Yapay Zeka Görev Gücü hakkında yorum yapan Mian, “yapabildiğimiz insanların kalibresinin kalitesinden çok hoş bir şekilde şaşırdığını” söyledi. akademiden ve özel sektörden “getirmek”.

Enstitü’nün, özellikle ulusal güvenliğe etkileri olan hassas yapay zeka yetenekleriyle ilgili değerlendirmeleri hakkında kamuya açık olarak söyleyebilecekleri konusunda sınırlamalar olacağını söyledi: “Bunun mümkün olduğunca çoğunu açık havada yapmak istiyoruz… ne kadar bilgi sağlayabileceğimiz arasında gerçekten çok iyi bir denge olduğunu düşünüyorum.”

Mian ayrıca, Enstitü’nün bugüne kadar yaptığı çalışmaların hiçbiri hakem incelemesinden geçmemiş olsa da, bunun politika yapıcılara yapay zeka güvenliği konusundaki görüşmeleri ilerletme ve konuyla ilgili uluslararası işbirliğini başlatma konusunda zaten yardımcı olduğunu ekledi.

“Bilimi iyi değerlendirmenin neye benzeyeceği etrafında inşa etmeye açıkça ihtiyacımız var” dedi.



Source link