Uzmanlar, Yapay Zekanın ‘İtaat Taklidi’ Yapabilmesi İçin Önlem Alınmasını İstiyor


Yapay Zeka ve Makine Öğrenimi, Yeni Nesil Teknolojiler ve Güvenli Geliştirme

Akademisyenler Potansiyel Varoluş Riskini Önlemek İçin Yapay Zeka Korkuluklarının Benimsenmesi Çağrısında Bulundu

Akşaya Asokan (asokan_akshaya) •
24 Ekim 2023

Uzmanlar, Yapay Zekanın 'İtaat Taklidi' Yapabilmesi İçin Önlem Alınmasını İstiyor
Resim: Shutterstock

Önde gelen yapay zeka uzmanları, hükümetlere ve teknoloji şirketlerine, teknolojinin yol açtığı potansiyel varoluşsal tehditleri azaltmak amacıyla yapay zeka sistemlerine yönelik koruma önlemlerini hızla geliştirmeleri yönünde çağrıda bulunuyor.

Ayrıca bakınız: Güvenlik Operasyon Merkezini Modernleştirmeye Yönelik 5 İpucu

24 akademisyen ve uzmanın birlikte yazdığı bir makale, teknoloji şirketlerinin özellikle otonom ve diğer ileri teknolojiye sahip yapay zeka sistemleri alanında yaptığı pervasız gelişmelerin büyük ölçekli toplumsal risklere yol açabileceğini söylüyor. Yazarlar arasında yaygın olarak “Yapay Zekanın vaftiz babaları” olarak bilinen Yoshua Bengio ve Geoffrey Hinton da yer alıyor.

Uzmanlar Salı günü yayınlanan makalede, “Dikkatsizliği ve suiistimali önlemek amacıyla standartları uygulamaya koymak için ulusal kurumlara ve uluslararası yönetime acilen ihtiyacımız var.” dedi. “Onlar olmadan, şirketler ve ülkeler, yapay zeka yeteneklerini yeni boyutlara taşıyarak, güvenlik konusunda daha az çaba harcayarak veya önemli toplumsal rolleri çok az insan gözetimi ile yapay zeka sistemlerine devrederek rekabet avantajı arayabilir.”

En acil kısıtlama ihtiyacının “sınır sistemlerinde” olduğunu söylediler: “En tehlikeli ve öngörülemeyen yeteneklere sahip olacak, milyar dolarlık süper bilgisayarlarla eğitilmiş az sayıdaki en güçlü yapay zeka sistemleri.”

Makalede, geleceğin daha yetenekli yapay zeka sistemlerinin insan direktiflerine “itaat numarası yapmayı öğrenebileceği” veya “güvenlik hedeflerimizdeki ve kapatma mekanizmalarımızdaki zayıflıklardan yararlanabileceği” belirtiliyor. Yapay zeka sistemleri, algoritmalarını solucan benzeri enfeksiyonlar yoluyla yayarak, iletişimi, medyayı, hükümeti ve tedarik zincirlerini destekleyen bilgisayar sistemlerini kontrol etmek için siber güvenlik açıklarını ekleyip bunlardan yararlanarak insan müdahalesini önleyebilir. Uzmanlar, “Kontrolsüz yapay zeka ilerlemesi, büyük ölçekli yaşam ve biyosfer kaybına, insanlığın marjinalleşmesine ve hatta yok olmasına yol açabilir” dedi.

Salı günkü uyarı, İngiltere Başbakanı Rishi Sunak hükümetinin, makine öğrenimi ve derin öğrenme teknolojilerinin sunduğu zorlukları ele almak ve fırsatları belirlemek için Yapay Zeka Güvenlik Zirvesi’ni düzenlemesinden bir hafta önce geldi (bkz: İngiltere’nin Yapay Zeka Güvenliği Zirvesi Risk ve Yönetişime Odaklanacak).

Makalenin yazarları, endüstriyi araştırma ve geliştirme bütçesinin üçte birini güvenlik ve etik konularına ayırmaya ve hükümete, ihbarcılara yönelik yasal koruma ve zorunlu raporlama gereklilikleri gibi mekanizmalar yoluyla endüstri gözetimini sağlama konusunda çağrıda bulundu. Hükümetler ayrıca yapay zeka laboratuvarlarının rapor eğitiminin belirli bir hesaplama boyutunun üzerinde çalışmasını zorunlu kılmalı ve bağımsız denetçilerin laboratuvarlara erişim sahibi olmasını sağlamalı, denetçilere modellere tam erişim sağlamadan anlamlı değerlendirmelerin yapılabileceğini eklediler.

Yazarların çoğu, yapay zeka geliştiricilerini denetlenebilir bir dizi güvenlik protokolü geliştirmek için yarım yıllık gönüllü bir ara vermeye çağıran daha önceki bir açık mektubu imzaladılar; bu, teknoloji endüstrisinin uymadığı bir çağrıydı. Yapay zeka konusunda bazı kısıtlamalar getirilmesini isteyen yalnızca makale yazarları değil. Microsoft Başkanı Brad Smith kısa süre önce ABD’li senatörlerden oluşan bir panelde yapay zekanın sorunsuz bir şekilde konuşlandırılabilmesi için bir “güvenlik frenine” ihtiyacı olduğunu söyledi (bkz.: ABD Milletvekilleri Yapay Zekanın ‘Güvenlik Frenine’ İhtiyacı Olduğu Konusunda Uyardı).

Yazarlar, düzenlemelerin uygulamaya konabileceği zamana bir köprü olarak, büyük yapay zeka geliştiricilerinin müdahale gerektiren yapay zeka yeteneklerinin kırmızı çizgisini tanımlaması gerektiğini söyledi. Makalede, bu kırmızı çizgiler ve bir yapay zeka modelinin bunları aşması durumunda geliştiricilerin üstleneceği taahhütlerin “ayrıntılı ve bağımsız bir şekilde incelenmesi” gerektiği belirtildi.

“Yapay zekayı olumlu sonuçlara ve felaketten uzaklaştırmak için yeniden yön vermemiz gerekiyor. Eğer bu yolu izleyecek bilgeliğe sahipsek, sorumlu bir yol var.”





Source link