En İyi Teknoloji Yeteneği Açık Mektupta Yapay Zekanın İnsan Varlığına Tehdidi Konusunda Uyardı



CEO Elon Musk, Apple kurucu ortağı Steve Wozniak ve siyasetçi Andrew Yang da dahil olmak üzere binden fazla teknolojinin en yetenekli ismi, potansiyel tehlikesi nedeniyle yapay zeka öncülerini yapay zeka geliştirme yarışında molaları artırmaya çağıran açık bir mektuba imza attı. insanlığa.

Future of Life Institute sitesinde yayınlanan açık mektup kısmen, “Güçlü AI sistemleri, yalnızca etkilerinin olumlu olacağından ve risklerinin yönetilebilir olacağından emin olduğumuzda geliştirilmelidir.” “Bu nedenle, tüm yapay zeka laboratuvarlarını GPT-4’ten daha güçlü yapay zeka sistemlerinin eğitimine en az 6 ay ara vermeye çağırıyoruz.”

Mektupta belirtildiği gibi, büyük öğrenme modellerinin (LLM’ler) kontrolsüz eğitiminin potansiyel tehlikesi, insanların daha akıllı yapay zeka sistemleriyle tamamen yer değiştirmesinden başka bir şey değildir.

Gerçek Hayat SkyNet? Yapay Zekanın İnsanlık İçin Tehlikesini Ayrıştırma

“Çağdaş yapay zeka sistemleri artık genel görevlerde insanlarla rekabet edebilir hale geliyor ve kendimize şu soruyu sormalıyız: Makinelerin bilgi kanallarımızı propaganda ve gerçek olmayan şeylerle doldurmasına izin vermeli miyiz?” mektup sorar. “Tatmin edici olanlar da dahil olmak üzere tüm işleri otomatikleştirmeli miyiz? Sonunda sayıca üstün, zekice, modası geçmiş ve bizim yerimizi alabilecek insan olmayan zihinler mi geliştirmeliyiz? Uygarlığımızın kontrolünü kaybetme riskini almalı mıyız?”

Gelişmiş yapay zekanın olası zararı, savunucuları için bile bir endişe kaynağı: OpenAI’yi yaratan ChatGPT’nin CEO’su Greg Brockman, geçtiğimiz günlerde SXSW’de bir kalabalığa yapay zekanın hem dezenformasyon yayma hem de siber saldırı başlatma yeteneğinden endişe duyduğunu söyledi. Ancak bu endişeler, yapay zekanın bilinçli hale gelebileceğine dair korkulardan çok farklı.

Mektupta açık olmak gerekirse, altı aylık ara vermenin, politika yapıcılara ve yapay zeka güvenlik araştırmacılarına teknolojinin etrafına güvenlik parametreleri koyma zamanı vermesi amaçlanıyor. Dev Yapay Zeka Deneylerini Duraklat mektubu, grubun tüm yapay zeka gelişiminin durdurulması çağrısında bulunmadığını, bunun yerine geliştiricilerin potansiyel zararlarını tam olarak anlamadan yeni yetenekleri kullanıma sunma telaşını durdurmalarını istediğini vurguluyor.

Yine de şüpheciler, OpenAI’nin GPT-5’i geliştirmesini yavaşlatma konusunda potansiyel ticari çıkarları olan Musk gibi CEO’lara bakabilir ve Pause AI Açık Mektubu’nu bir halkla ilişkiler hilesinden biraz daha fazlası olarak reddedebilir.

Cado Security CTO’su Chris Doman yaptığı açıklamada, “Buradaki niyetlerden biraz şüphe duymalıyız – mektubun yazarlarının çoğunun kendi şirketlerinde ticari çıkarları var ve OpenAI’nin ilerlemesini yakalama şansı buluyor” dedi. Dark Reading’e. “Açıkçası, şu anda GPT-5’i eğittikleri için, şu anda GPT-4’ten daha güçlü bir yapay zeka sistemi eğiten tek şirketin OpenAI olması muhtemel.”

“Yapay Zekayı Duraklat” Açık Mektubu Herhangi Bir Şey Yapacak mı?

Abnormal Security araştırmacısı Dan Shiebler’e göre, ünlü isimlerin ötesinde, imzalayanların çeşitli geçmişleri ve kamusal bakış açıları mektubu ciddiye almaya değer kılıyor. Gerçekten de imza sahipleri arasında Princeton Üniversitesi’nden Fahri Profesör John Hopfield ve ilişkisel sinir ağlarının mucidi ve MIT’nin Yapay Zeka ve Temel Etkileşimler Merkezi’nde fizik profesörü olan Max Tegmark da dahil olmak üzere AI alanındaki en parlak akademik zihinlerden bazıları yer alıyor. .

Shiebler, Dark Reading’e yaptığı açıklamada, “Bu mektupla ilgili ilginç olan şey, imzalayanların ve motivasyonlarının ne kadar farklı olduğudur.” [artificial general intelligence] (bilgisayarlar kendilerini nasıl daha iyi hale getireceklerini bulan ve bu nedenle kapasiteleri patlayan) yakın bir tehlike haline gelirken, Gary Marcus gibi AI şüphecileri bu mektuba açıkça farklı bir açıdan yaklaşıyorlar.

Ancak, senSon zamanlarda, Shiebler mektubun AI gelişimini yavaşlatmak için herhangi bir şey yapacağını tahmin etmiyor.

Bu modellerde çantadan çıktı” dedi Shiebler. “Onları üretmedeki sınırlayıcı faktör para ve zamandır ve bunların her ikisi de hızla düşecektir. İşletmeleri bu modelleri güvenli ve emniyetli bir şekilde kullanmaya hazırlamalıyız, gelişimlerinde zamanı durdurmaya çalışmamalıyız.”

Netenrich’in baş tehdit avcısı John Bambenek’e göre yine de güvenlik ve etik hususlarına ışık tutmak iyi bir şey.

E-posta yoluyla, “Birinin herhangi bir şeyi duraklatacağı şüpheli olsa da, AI projelerinin etik sonuçlarının dikkate alınmasının geliştirme hızının çok gerisinde kaldığına dair artan bir farkındalık var” dedi. “Yaptığımız şeyi ve bunun yaratacağı derin etkileri yeniden değerlendirmenin iyi olacağını düşünüyorum.”



Source link