Yapay Zeka Teknik Yöneticileri, Yok Olma Riski İçin Yapay Zekayı Nükleer Silahlarla Eşit Hale Getiriyor


Yapay Zeka ve Makine Öğrenimi , Yeni Nesil Teknolojiler ve Güvenli Geliştirme , Standartlar, Yönetmelikler ve Uyumluluk

Sam Altman ve Geoffrey Hinton, Yok Olma Riskini Azaltmanın Küresel Öncelik Olması Gerektiğini Söyledi

David Perera (@daveperera) •
31 Mayıs 2023

Yapay Zeka Teknik Yöneticileri, Yok Olma Riski İçin Yapay Zekayı Nükleer Silahlarla Eşit Hale Getiriyor
Görsel: Shutterstock

Yapay zeka, nükleer savaş ve salgın hastalıklarla eşdeğer küresel bir yok olma riski oluşturuyor, diyelim ki yapay zeka yöneticilerinin bir kim kimdir, nasıl hafifletileceğini önermeden tehlikeyi çağrıştıran açık bir mektupta.

Ayrıca bakınız: Unutulmaz Karma ve Sanal Etkinliklere Ev Sahipliği Yapın

Center for AI Safety tarafından yayınlanan açık mektubun imzacıları arasında ChatGPT üreticisi OpenAI’nin CEO’su Sam Altman ve AI’nın vaftiz babası olarak bilinen bilgisayar bilimcisi Geoffrey Hinton yer alıyor. Diğer imza sahipleri Google DeepMind ve Microsoft’tandır.

Mektup kısa ve öz: “Yapay zekanın neden olduğu yok olma riskini azaltmak, salgın hastalıklar ve nükleer savaş gibi diğer toplumsal ölçekli risklerin yanı sıra küresel bir öncelik olmalıdır.”

Kasım 2022’de üretken yapay zekanın ChatGPT aracılığıyla genel kamuoyuna tanıtılması, yapay zekanın ekonomik, politik ve toplumsal etkileri hakkındaki endişeleri artırdı.

Avrupa Birliği milletvekilleri bu ayın başlarında, doğal dil modelinin patlayıcı popülaritesine, bu yılın sonlarında veya gelecek yılın başlarında yasalaşması beklenen mevzuata üretken yapay zeka için yeni şeffaflık ve telif hakkı yükümlülükleri ekleyerek yanıt verdiler. Avrupa Parlamentosu ayrıca, onları “sağlık, güvenlik, temel haklar, çevre ve demokrasi ve hukukun üstünlüğü” risklerini azaltma yükümlülükleri altına sokan sohbet botunun altında yatan model gibi “temel modellerin” yapımcıları için bir dil ekledi ( Görmek: OpenAI CEO’su Altman, AB’ye AI Düzenlemesi Üzerinden ‘Şantaj Yapıyor’).

Altman, Londra’daki gazetecilere, düzenlemelerin OpenAI’nin Avrupa’yı terk etmesine neden olabileceğini, ancak daha sonra geri adım attığını söyledi. tweetleme Burada faaliyet göstermeye devam edeceğimiz için heyecanlıyız ve elbette ayrılma planımız yok” dedi.

OpenAI CEO’su sadece haftalar önce, AI modellerini lisanslama ve kayıt gereksinimleri altına sokan düzenlemeleri memnuniyetle karşılayacağını söylediği Kongre önünde ifade verdi (bkz:: OpenAI CEO’su Düzenleme Çağrısında Bulunuyor, Ancak Gelişmiş Yapay Zekada Duraklama Yok).

Altman, düzenlemeye yönelik görünüşte belirsiz bir inançta yalnız değil. ABD’nin AI yeteneklerini geliştirmesinin sesli bir savunucusu olan ve açık mektupta imza sahibi olmayan eski Google CEO’su Eric Schmidt’in, bu ayın başlarında bir Londra konferansı izleyicisini hükümetlerin AI’nın “kötü insanlar tarafından kötüye kullanılmamasını” sağlaması gerektiği konusunda uyardığı bildirildi.

Yapay zekanın insanlık için varoluşsal bir risk yayınlayabileceğini söyleyerek, “varoluşsal riskin çok, çok, çok, çok sayıda insanın zarar görmesi veya öldürülmesi olarak tanımlandığını” sözlerine ekledi.

Ayrıca bu ay NBC’nin Meet the Press programına “erken düzenleme” konusunda endişe duyduğunu söyledi.

“Yapmayı tercih ettiğim şey, dibe doğru bir yarış yapmayacağımıza dair kilit oyuncular arasında bir anlaşma yapmak.”





Source link