Profesörler ve AI geliştiricileri de dahil olmak üzere binden fazla kişi, tüm yapay zeka laboratuvarlarına açık bir mektup imzaladı ve onları GPT-4’ten daha güçlü AI sistemlerinin geliştirilmesini ve eğitimini en az altı ay süreyle durdurmaya çağırdı.
Mektup, OpenAI’nin kurucu ortağı Elon Musk, önde gelen bir AI profesörü ve Mila’nın kurucusu Yoshua Bengio, Apple’ın kurucu ortağı Steve Wozniak ve Stability CEO’su Emad Mostraque dahil olmak üzere AI geliştirme ve teknolojisi alanındaki kişiler tarafından imzalandı. AI, AI araştırmalarında öncü olan Stuart Russell ve Geometric Intelligence’ın kurucusu Gary Marcus.
Future of Life organizasyonu tarafından yayınlanan açık mektup, paylaşılan güvenlik protokolleri olmadan gelişmiş yapay zeka sistemlerinin hızla geliştirilmesinden kaynaklanan toplum ve insanlık için potansiyel risklerden bahsediyor.
Bu devrimin sorunu, potansiyel risklerin henüz tam olarak değerlendirilmesi ve kapsamlı bir yönetim sistemi tarafından hesaba katılması nedeniyle teknolojinin olumlu etkilerinin garanti edilememesidir.
Mektupta, “Gelişmiş yapay zeka, Dünya’daki yaşam tarihinde derin bir değişikliği temsil edebilir ve orantılı özen ve kaynaklarla planlanmalı ve yönetilmelidir” diyor.
“Ne yazık ki, bu düzeyde bir planlama ve yönetim gerçekleşmiyor, son aylarda yapay zeka laboratuvarlarının hiç kimsenin – yaratıcılarının bile – anlayamayacağı daha güçlü dijital zihinler geliştirmek ve dağıtmak için kontrolden çıkmış bir yarışa girmesine rağmen. , tahmin edin veya güvenilir bir şekilde kontrol edin.”
Mektup ayrıca, modern yapay zeka sistemlerinin artık genel görevlerde insanlarla doğrudan rekabet ettiği konusunda da uyarıda bulunuyor ve bu da insanlığın hâlâ düşünmesi, tartışması ve karar vermesi gereken varoluşsal ve etik soruları gündeme getiriyor.
Altı çizili bazı sorular, yapay zekalar tarafından üretilen bilgi akışı, kontrolsüz iş otomasyonu, insanları zekice geride bırakan ve onları modası geçmiş kılmakla tehdit eden sistemlerin geliştirilmesi ve medeniyetin kontrolü ile ilgilidir.
Ortak imza uzmanları, yalnızca katı gözetim içeren daha gelişmiş yapay zeka sistemlerini eğitmemiz gereken bir noktaya ulaştığımıza inanıyor ve dağıtımlarından kaynaklanan risklerin yönetilebilir olduğuna dair güven oluşturduktan sonra.
Açık mektupta, “Bu nedenle, tüm AI laboratuvarlarını GPT-4’ten daha güçlü AI sistemlerinin eğitimine en az 6 ay ara vermeye çağırıyoruz” tavsiyesinde bulunuluyor.
“Bu duraklama halka açık ve doğrulanabilir olmalı ve tüm kilit aktörleri içermelidir. Böyle bir duraklama hızlı bir şekilde yasalaştırılamazsa, hükümetler devreye girmeli ve bir moratoryum başlatmalıdır.”
Bu duraklama sırasında, AI geliştirme ekipleri bir araya gelme ve daha sonra harici, bağımsız uzmanlar tarafından gerçekleştirilen uyum denetimleri için kullanılacak güvenlik protokolleri oluşturma konusunda anlaşma şansına sahip olacak.
Ayrıca, politika yapıcılar, gerçek ve uydurma içerik arasında etkili bir şekilde ayrım yapan, yapay zeka tarafından üretilen materyallerin neden olduğu zarar için sorumluluğun atanmasını ve yapay zekanın risklerine yönelik kamu tarafından finanse edilen araştırmayı sağlayan bir filigran sistemi gibi koruyucu önlemler uygulamalıdır.
Mektup, yapay zeka gelişiminin tamamen durdurulmasını savunmuyor; bunun yerine, hızla genişleyen pazardan pay almak için yarışan yapay zeka tasarımcıları arasındaki hüküm süren rekabetle ilişkili tehlikelerin altını çiziyor.
“İnsanlık yapay zeka ile gelişen bir geleceğin tadını çıkarabilir. Güçlü yapay zeka sistemleri yaratmayı başardıktan sonra, artık ödülleri topladığımız, bu sistemleri herkesin açık yararı için tasarladığımız ve topluma bir şans verdiğimiz bir “Yapay zeka yazının” tadını çıkarabiliriz. uyum sağlayın” metni sonlandırır.