Birleşik Krallık Yapay Zeka Ulusal Enstitüsü, Üretken Yapay Zeka İçin ‘Kırmızı Çizgiler’ İstiyor


Yapay Zeka ve Makine Öğrenimi, Yeni Nesil Teknolojiler ve Güvenli Geliştirme

Alan Turing Enstitüsü Ulusal Güvenlik Riskiyle Mücadele İçin ‘Zihniyette Değişim’ Çağrısında Bulundu

Akşaya Asokan (asokan_akshaya) •
15 Aralık 2023

Birleşik Krallık Yapay Zeka Ulusal Enstitüsü, Üretken Yapay Zeka İçin 'Kırmızı Çizgiler' İstiyor
Alan Turing Enstitüsü, üretken yapay zeka sistemleri için kırmızı çizgiler, izlenebilirlik ve şeffaflık gibi önlemler alınması çağrısında bulundu. (Resim: Shutterstock)

Birleşik Krallık ulusal yapay zeka enstitüsü, hükümetin, teknolojinin doğrudan insan gözetimi olmadan geri dönüşü olmayan bir eylemde bulunabileceği senaryolarda üretken yapay zeka kullanımına karşı kırmızı çizgiler oluşturmasını istedi.

Ayrıca bakınız: BT ve Güvenlikte Yapay Zekanın Geleceği Nedir?

Alan Turing Enstitüsü Cuma gecesi geç saatlerde yayınlanan bir raporda, üretken yapay zeka araçlarının şu anda “güvenilmez ve hataya açık” olduğunu söyledi. en yüksek bahisler Ulusal güvenlik içindeki bağlamlar.”

Ayrıca, kullanıcıların büyük dil modellerinin çıktılarına aşırı güvenme eğiliminin, yapay zeka tarafından üretilen çıktılara meydan okuma konusunda isteksizliğe yol açabileceğini belirterek, insan denetimindeki kayıtsızlığa karşı da uyarıda bulundu.

2015 yılında hükümet finansmanıyla kurulan enstitü, “üretken yapay zekanın ulusal güvenlik riskleri oluşturabileceği kasıtsız veya tesadüfi tüm yolları hesaba katacak bir zihniyet değişikliği” çağrısında bulundu. Aşırı özerkliği yapay zeka tehlikesi olarak işaretleyen ilk kuruluş bu değil. OWASP Vakfı, “aşırı aracılık” sorununu büyük dil modeli uygulamalarıyla ilgili en önemli 10 sorundan biri olarak listeliyor.

Muhafazakar Birleşik Krallık hükümeti, Kasım ayında ABD Başkan Yardımcısı Kamala Harris ve OpenAI kurucusu Sam Altman’ın katılımıyla düzenlenen iki günlük uluslararası zirveye ev sahipliği yaparak ülkeyi sorumlu yapay zeka gelişiminde ön sıralara yerleştirmeye çalıştı. Aynı zamanda, İngiltere’nin önemli bir siyasi figürü Çarşamba günü Parlamento’ya hükümetin yapay zekayı düzenleme konusunda acelesi olmadığını söyledi. Bilim, İnovasyon ve Teknolojiden Sorumlu Dışişleri Bakanı Michelle Donelan, “Yapay zekayı hiçbir zaman düzenlemeyeceğimizi söylemiyoruz, ancak asıl mesele şu: Acele edip yanlış anlayıp inovasyonu engellemek istemiyoruz” dedi (bkz: Teknoloji Bakanı, Birleşik Krallık’ın Yapay Zekayı Mevzuat Konusunda Acele Etmeyeceğini Söyledi).

Rapor, otonom ajanları, ulusal güvenlik bağlamında yakın gözetimi garanti eden üretken yapay zekanın özel bir uygulaması olarak öne çıkardı. Otonom aracılar, çevreleriyle etkileşime girerek ve çok az insan müdahalesi ile harekete geçerek LLM’leri temel alır.

Raporda, teknolojinin büyük miktarda açık kaynak veriyi hızlı bir şekilde işleyerek, ön risk değerlendirmeleri sağlayarak ve insan analistlerinin takip edeceği hipotezler üreterek ulusal güvenlik analizini hızlandırma potansiyeline sahip olduğu belirtiliyor. Ancak eleştirmenler rapor yazarlarına, teknolojinin insan düzeyindeki akıl yürütmenin yetersiz olduğunu ve insanların başarısızlıktan kaçınmak için kullandığı doğuştan gelen risk anlayışını yeniden üretemediğini söyledi.

Raporun önerdiği hafifletme önlemleri arasında, özerk temsilciler tarafından alınan eylemlerin ve kararların kaydedilmesi yer alıyor. “Ajan mimarisi, LLM’den kaynaklanan açıklanabilirliğin herhangi bir potansiyel yönünü gizlememeli veya zayıflatmamalıdır.” Ayrıca, üretken yapay zeka çıktısının “her aşamasına” uyarılar eklenmesini ve aracı tabanlı bir sistemin en kötü senaryoda ne yapacağını belgelemeyi de öneriyor.

Enstitü ayrıca hükümetin nükleer komuta ve kontrol gibi “mükemmel güven” gerektiren alanlarda ve polislik ve ceza adaleti gibi muhtemelen daha az var olan alanlarda sıkı kısıtlamalar uygulayabileceğini öne sürdü. Raporda “Kritik altyapının çalışmasını kontrol eden yapay zeka sistemlerine yönelik güvenlik frenleri, mühendislerin uzun süredir diğer teknolojilere yerleştirdiği fren sistemlerine benzer olabilir” deniyor (bkz: ABD Milletvekilleri Yapay Zekanın ‘Güvenlik Frenine’ İhtiyacı Olduğu Konusunda Uyardı).

Rapor yetkililerinin görüştüğü bazı uzmanlar yazarlara, ulusal güvenlik ve savunmadaki operasyonel personelin yapay zekanın sınırlamalarının farkında olduklarından emin olduklarını, ancak diğerleri üst düzey yetkililerin astlarının uyarısını paylaşıp paylaşmadıkları konusunda şüpheci olduklarını söyledi. “İş gücü tasarrufu sağlamak ve ‘bir avantaj’ bulmakla görevli kişiler, veri yönetimi ve çevredeki yapay zeka altyapısıyla ilgili bazı riskleri ve önkoşulları kısıtlama olarak görebilir.”

Raporda, kesin durumlar dışında kırmızı çizgilerin azaldığı belirtiliyor. Yapay zekanın etkisini izleme yeteneği ve teknolojinin “çok katmanlı ve sosyo-teknik değerlendirmesi” gibi önlemlerin mevcut olması koşuluyla, sınırlar yeteneklere göre ayarlanmalıdır.

Rapor ayrıca üretken yapay zekanın kötü niyetli kullanımını bir güvenlik sorunu olarak işaretledi ve teknolojinin çoğunlukla dezenformasyon, dolandırıcılık ve çocukların cinsel istismarına yönelik materyaller gibi mevcut toplumsal riskleri artırdığını belirtti.

Yine de kötü aktörler, devlet kullanımını yönlendiren doğruluk ve şeffaflık ihtiyacı nedeniyle kısıtlanmıyor. Büyük bir dil modelinin, deepfake oluşturmada veya kötü amaçlı yazılım yazmada düşük performans göstermesi durumunda, “başarısızlığın saldırgana maliyeti düşük kalır.”

Rapor, yapay zeka tarafından oluşturulan içerik sorununu çözmek için, hükümetin, temeldeki donanım aracılığıyla hesaplama aşamasında yapay zeka tarafından oluşturulan içeriğe bir sinyal eklemek gibi kurcalamaya karşı dayanıklı filigranlama özelliklerini desteklemesini öneriyor. “Bu, uluslararası hükümet koordinasyonunun yanı sıra NVIDIA gibi GPU üreticilerinin önemli taahhütlerini gerektirecektir, ancak modellerin otomatik olarak filigranlanmasını sağlayacaktır.” Raporda, bunu yapmanın zorluklarının “zorlu” olduğu belirtiliyor.

Düzenleyici cephede araştırmacılar, yasama çabalarının yavaş ilerlemesi nedeniyle mevcut düzenlemenin güncellenmesinin yapay zekaya özgü kuralların getirilmesinden daha pratik olacağını ve bunun da sonuçlanması birkaç yıl sürebileceğini öne sürüyor.





Source link