Yann LeCun, Marc Andreesen’in yapay zeka riski konusunda yaptığı hatanın aynısını yapıyor. Üretken yapay zekayı diğer kod, araç ve özelliklerle birleştiren bir sistemin ne kadar güçlü olabileceğini düşünmüyorlar. Yüksek Lisanslar çok büyük kötü sonuçlara neden olamaz, ancak güçlü araçlara sahip, insan odaklı Yüksek Lisans uygulamalarının olduğunu düşünmek saçma değil olabilir büyük çapta zarara neden olur.
Uyum ekibinin OpenAI’den ayrılmasıyla birlikte birçok kişi, OpenAI’de şirket içinde ciddiye alınmayan güvenlik risklerini tartışıyor. Yann LeCun ve diğerleri temelde bu görüşlerle dalga geçtiler ve hatta bu konuda endişelenmenin aptalca olduğunu düşünecek kadar ileri gittiler. Çoğunlukla e/ac kullanıyorum. Yapay zeka gelişimini ve büyümesini hızlandırmaya devam etmemiz gerektiğine inanıyorum, ancak riskleri hemen göz ardı etmekte hatalı olduğunu düşünüyorum.
Marc Andreessen’in yapay zeka güvenliği konusunda benzer bir görüşü var. Bu kadar önemliyken bu tartışmanın bu kadar incelikten yoksun olması bana çılgınca geliyor. Büyük sorunlardan biri riskler konusundaki belirsizliktir. Bu nedenle, AI güvenliğinin gerçek, pratik kategorilerini (daha önce yaptığım gibi) ancak kötü sonuçların somut örnekleriyle parçalara ayıracağım, böylece okuyucular riskleri gerçekten değerlendirebilir, ne düşündüklerine karar verebilir ve hatta çözümler düşünebilir.
Bu konuya girmeden önce, bunların çoğunun üretken yapay zekanın temelde bir tür kaldıraç olduğu gerçeğine indirgenebileceğini söylemek istiyorum. Bireylere ve şirketlere daha fazla güç verir, ancak aynı zamanda erişim sağlayabilecek kötü aktörlere de daha fazla güç verir.
Yapay Zeka Hizalama Riskleri
Bazı insanlar, milyonlarca veya milyarlarca insanı yok edecek ölçekte insan hedefleriyle gerilim içinde olan hedeflere sahip gelecekteki bir yapay zeka sisteminden endişe duyuyor. Bunu şu şekilde tanımlardım: Yapay zeka hizalaması kaygı. Saldırı senaryosu, yapay zekanın bilinçli hale geldiği ve kötü olduğumuz için tüm insanları yok etmek istediği bir senaryodur ya da bir sistemin anlamsız bir amaç uğruna tüm kaynakları tükettiği iyi bilinen ataç örneğidir. Ancak bunlar önümüzdeki 10-15 yıl içinde bile akla yatkın görünmüyor.
Bununla birlikte, yapay zeka sistemlerinden İsrail veya Hamas gibi belirli insan gruplarına zarar vermelerinin istenebileceğini düşünürseniz, yapay zeka sistemlerinin birbirlerine karşı savaşta kullanılmasının ne kadar önemli olduğunu görebilirsiniz. Ayrıca, üst düzey araştırmacıların, bir modelin kendisini bir döngü içinde önemli ölçüde iyileştirdiği kendi kendine öğrenen bir atılım bulma şansının sıfırdan yüksek olduğunu düşünüyorum. Böyle bir durumda ne olacağını tahmin etmek bile gerçekten zor.
Bütün bunlarla birlikte, hala en iyi kapalı kaynak modellerle karşılaştırılabilir güce sahip açık kaynaklı modellerle karşılaşacağız gibi görünüyor. Açık kaynak modelleri sansürsüz olacak şekilde eğitilebilir veya korkuluklar olmadan çalışacak şekilde eğitilebilir, dolayısıyla pratikte hizalama için çabalamak biraz anlamsız olabilir çünkü her zaman iyi hizalanmamış başka bir model olacaktır. Durum böyleyse, yapay zeka hizalama risklerinin nasıl azaltılacağına dair bazı ilginç çıkarımlar var.
Yapay Zeka Güvenlik Riskleri
Güvenlik belki de sektördeki en belirsiz terimdir, ancak güvenlikle ilgili olan ve uyum veya güvenlik riskleri kapsamına girmeyen, dikkate alınmaya değer bazı göz ardı edilemeyecek riskler olduğunu düşünüyorum, bu yüzden bunları dikkate alıyorum Yapay Zeka Güvenliği riskler. Aşağıdaki risklerden bazıları, aşağıdaki risklere katkıda bulunabilecek kadar kritiktir: p(doom)
(çok kötü sonuçların olasılığı), ancak kapsamlı olması açısından diğerlerinden bahsetmeye değer.
- Otonom güvenlik testi: Ben bunlara hackbot diyorum. Bunlar sadece Yüksek Lisans’lardan ÇOK daha fazlasıdır, ancak Yüksek Lisans’lar onları yeterince önemli bir şekilde etkinleştirir ve geliştirir; insan korsanlığını simüle eden yapay zeka yalnızca dar alanlarda mümkündü ve artık daha soyut bir şekilde mümkün, bu gerçekten ilginç ve yeni şeyler bulmak için kullanılabilir Sağlamlaştırılmış hata ödül programlarında 0 gün. Potansiyel korkunç sonuç: Diğer ülkeler veya teröristler bir hackbot’a erişebilir veya kendilerininkini kurabilirler ve bu, kritik altyapıyı etkileyecek veya çok fazla kaosa neden olacak bir ölçekte konuşlandırılacak kadar yeteneklidir.
- Riskli alanlarda yapay zeka kullanımı: Bu, 911 sevkıyatı, büyük ölçekli inşaat, mühendislik planları, askeri kararlar vb. gibi insanların hayatlarının tehlikede olduğu yerlerde üretken yapay zekanın uygulanma riskidir. Aslında yapay zekanın sahip olacağı konusunda iyimserim. İnsanların zaten hata yaptığı bu endüstrilerin çoğunda daha yüksek doğruluk elde edilir, ancak yine de dikkate değerdir. Bu uygulamalarda sağlam testlerin bulunmaması, ani enjeksiyona veya insan ölümlerine yol açan halüsinasyona neden olabilir.
- Kritik teknolojilerin kötü aktörler tarafından yaratılmasına yönelik giriş engelini azaltan modeller. Yıkıcı cihazlar, tehlikeli biyokimyasal maddeler vb. için basitleştirilmiş ve açıklayıcı nasıl yapılır kılavuzları artık hemen hemen her dilde mevcut olsa da, O Bugün mümkün olandan farklı ama eğer bunları öğrenmenin zorluğunu azaltmak istiyorsak, düşünmeye değer olduğunu düşünüyorum.
- Modellerde önyargı. Bu sistemler maliyetlerden tasarruf etme ve süreçleri otomatikleştirme konusunda son derece iyidir, ancak insanlar önyargılıdır ve bu nedenle modeller de öyledir. Bu önyargıyı modellerden kaldırmak son derece zordur. Dolayısıyla maliyetleri düşürmek için modeller uygulandığında, bir miktar ayrımcılık ve önyargının ortaya çıkması oldukça muhtemeldir.
Yapay Zeka Güvenlik Riskleri
- Hızlı enjeksiyon çözülmemiş bir durumdur Yapay Zeka Güvenliği Sistemin tasarımına bağlı olarak neredeyse sonsuz çeşitlilikte sonuçları olan bir sorun. Eğer dijital bir asistansa, anında enjeksiyon e-postalarınızı veya resimlerinizi sızdırabilir, ancak bir silah sisteminde bunun daha önemli sonuçları olabilir.
- Görünmez hızlı enjeksiyon, onu düzeltmenin zor doğası ve acil bir yetenek olması nedeniyle bizi uzun süre rahatsız edecek. Görünmez unicode etiketlerin her model sağlayıcı tarafından filtrelenmesi VEYA her yapay zeka uygulaması tarafından filtrelenmesi gerekir.
- Yüksek Lisans’lar, kimlik avı operasyonlarının kalite ve kişiselleştirme açısından büyük ölçüde ölçeklenmesine yardımcı olur.
Diğer Yapay Zeka Efektleri
- AI kız arkadaşlarının ailelerin ve doğan çocukların sayısının azalmasına katkıda bulunduğuna dair meşru endişelerim var. Ayrıca onların ilgi çekici, eğlenceli ve pek çok insanın en iyi (ya da tek) arkadaşı olacak kadar ilgili olmalarından da endişeleniyorum. Ve bence bunun birkaç olumlu yanı var ama pek çok olumsuz yanı da var.
- Derin sahtekarlıklar insanların neye güveneceklerini bilmelerini zorlaştırabilir. Ve bu, yargıçların olayların fotoğraflı veya sesli kanıtlarına ne kadar ağırlık verecekleri konusunda zorluk yaşamalarına neden olabilir.
- İş yer değiştirmesi. Kişisel olarak, işten çıkarmanın modellerin tonlarca fayda ve değer yarattığı anlamına geldiğini düşünüyorum, ancak bazı insanların neden endişelendiğini anlayabiliyorum. Bir çözüm bulabilecek kadar akıllı olduğumuzu düşünüyorum. UBI olabilir; Bu, başka iş yaratma biçimleri yoluyla da olabilir.
E/acc’ye gönül verdiğimi bir kez daha yinelemek istiyorum, bu nedenle yapay zeka gelişimini duraklatmamız veya durdurmamız gerektiğini düşünmüyorum ancak bazı meşru kaygıların olduğunu düşünüyorum. Yukarıda sıralanan risklerden endişe duyan kişilerin tamamen göz ardı edilmesi ve küçümsenmesi yanlış ve kabadır.
Şerefe! Umarım yazıyı beğenmişsinizdir 🙂
– Joseph
Bunun gibi daha fazla içerik yayınladığımda haberdar olmak için e-posta listeme kaydolun. Düşüncelerimi Twitter/X’te de paylaşıyorum.