GPT-4 Yeni Sorular Sorarken Gelişmiş Yanıtlar Sağlıyor



Büyük dil modelleri dünyasında yoğun bir zaman oldu. Mart ayı sonlarında, OpenAI bir kullanıcıların kişisel verilerinin ihlali. ChatGPT bağımsız bir özür yayınlamış görünmüyor. Sadece bir algoritma olarak, nasıl olabilir? “Doğru” ve “yanlış”, yalnızca içerik filtrelerinin hilesi tarafından bilinir.

OpenAI, kullanıcıların gizliliğini koruma ve verilerini güvende tutma taahhüdünü yeniden ortaya koydu; ancak, o zamandan beri bildirildi Samsung çalışanları gizli toplantı tutanaklarını ve kaynak kodunu ifşa etti ChatGPT’ye gönderilen istemler aracılığıyla. OpenAI, konuşmalarda hassas bilgilerin kullanımına karşı uyarıda bulunur, ancak yapay zeka endüstrisinin model ve hizmetlerin geliştirilmesinde ele alması gereken açıkça önemli riskler vardır. garanti, İtalyan veri koruma kurumu, ChatGPT kullanımını engellemek için bir karar yayınladı Mart ayının sonunda ve Kanada Gizlilik Komiseri Ofisi kendi soruşturmasını başlattı ChatGPT’nin gizlilik etkilerine. OpenAI ve AI topluluğu için nihai sonuçlar henüz görülmedi.

İlk OpenAI ihlalinin bildirilmesinden kısa bir süre sonra Future of Life Enstitüsü geldi. açık mektup, “dev yapay zeka deneyleri” dedikleri şeye altı aylık bir ara verilmesi çağrısında bulundu. Mektup, AI ile donatılmış otonom silahların zarar verme tehlikeleri konusunda uyarıda bulunan 2015 Life of Life Enstitüsü açık mektubuna imza atanların çoğu tarafından imzalandı. Mektupta ifade edilen duygular, yapay zeka endüstrisinin iki duayeni ile evrensel olarak kabul edilmiyor. Andrew Ng ve Yann LeCunaraştırmayı duraklatma çağrılarıyla anlaşmazlıklarını ortaklaşa iletmek.

Future Life Enstitüsü’nün “GPT-4’ten daha güçlü” yapay zeka sistemleri için bir geliştirme eşiği belirleyen açık mektubuyla, Google’ın üzerinde çalışanlar arasında bir dereceye kadar endişe olmalı. ozan ve Microsoft’un yardımcı pilot gözden kaçan sistemlerdir. Üretken önceden eğitilmiş transformatör (GPT) sınıfı modellerin, teknik camia ve popüler basında aldıkları ilgi göz önüne alındığında, henüz ego içermemesi bir şans olsa da; içinde duyurulan yeni yeteneklerin yanı sıra ChatGPT veri ihlallerini de yansıtmak uygun olacaktır. GPT-4.

Daha Geniş Endişeler

OpenAI tarafından bildirilen veri ihlali, güçlü AI sistemlerinin toplumsal etkileri, düzenleyici gözetimi, yönetişimi ve pratik uygulaması hakkında daha geniş bir endişe arka planında meydana geldi. Goldman Sachs’tan Analiz üretken yapay zeka sistemlerinin 10 yıllık bir süre içinde küresel GSYİH’da %7’lik bir artış sağlayabileceğini ve aynı anda 300 milyon kişinin işini etkileyebileceğini öne sürdü. bu Birleşik Krallık hükümetinin son teknik incelemesi (PDF) ayrıca önerilen belgede yansıtılan müdahaleci yaklaşımla karşılaştırılmıştır. AB Yapay Zeka Yasası.

OpenAI’nin ChatGPT veri ihlaline ilişkin ifşasında, hatanın “bazı kullanıcıların başka bir aktif kullanıcının sohbet geçmişinden başlıkları görmesine izin verdiği” ve muhtemelen “yeni oluşturulan bir sohbetin ilk mesajının göründüğü” gözlemlerini not etmek önemlidir. her iki kullanıcı da aynı anda aktifse başka birinin sohbet geçmişinde.”

Hata çözülürken, merkezi yapay zeka sistemlerinde mahremiyet ve mahremiyet riskleri, kullanıcılarla birlikte ortaya çıktı. veri. GPT-4’ün bildirilen performans verileri etkileyicidir ve resimlerden ve metinden oluşan çok modlu bilgi istemleri olasılığı, potansiyel uygulamaların kapsamını genişletir. Ancak tüm bu bilgi istemi verilerine ne olur? Kullanıcı hakkında ne diyor? Bu bilgi istemi verileri neyi ifşa edebilir? Ve yarının bilgi alanının doğruluğu için tüm bu üretilen olasılıksal çıktıların sonuçları nelerdir?

Ortaya Çıkan Sorular

İlk geliştirme için gerekli olan büyük hacimli eğitim verilerinin kaynağı hakkında da önemli sorular ortaya çıkıyor. Bu verilerin kullanımı için bilgilendirilmiş onam alındı ​​mı? Telif haklarına ve diğer fikri mülkiyet korumalarına saygı duyuluyor mu? Eğitim verilerinin doğruluğu nasıl belirlenir ve tahminlerin doğruluğu nasıl değerlendirilir? Bu soruların hiçbiri, etik temellerinin en iyi ihtimalle opak olduğu ve ChatGPT ve GPT tarafından çalkalanan tüm olasılıksal ve hatalı yanıtlar nedeniyle gelecekteki kendi kendine referans riskinin büyük olduğu tahmine dayalı metin sıralama teknolojisinin mevcut durumu tarafından kolayca yanıtlanamaz. -4 eğitim verileri külliyatını girin.

OpenAI açıkça belirtiyor ChatGPT SSS kullanıcı konuşmalarının eğitim amacıyla saklandığı ve Samsung’un yaşadığı sorunları önlemek için kullanıcıların hassas verileri istemlere dahil etmekten kaçınması gereken bir sayfa. Ancak düzenleyici denetime tabi olan veya kullanıcıyı açıkça tanımlayan açık bilgilerin ötesinde hassas verileri ne oluşturur? Her istem, kullanıcı ve benzersiz ilgi alanları hakkında bazı bilgileri ifşa eder. Yönlendirmelerin dili, deyimleri ve tonu, kullanıcının kişisel özelliklerine ve tercihlerine işaret eder. Bu tür karakterizasyonlar, bireysel kullanıcılara veya genel kullanıcı popülasyonunun türetilmiş alt kümelerine verilen yanıtların ince ayarını yapmak için kullanılabilir.

Sonunda, yazım ve noktalama işaretlerinde, görüntü geometrisinde veya GPT hizmetlerine girişlerin kaynak belgelerinde bulunan fark edilmeyecek kadar benzersiz özellikler, hassas bilgileri ayırt edebilir veya daha da kötüsü, ne makine ne de insan muhakemesi tarafından ayırt edilemeyen bir insan tepkisinin simülasyonunu mümkün kılabilir.

Buna paralel olarak, OpenAI’nin kurucu ortağı ve baş bilim adamı Ilya Sutskever, GPT-4’ün mimarisiyle ilgili olarak alınan kapalı kaynak duruşunun bir yanıt olarak gerekli olduğunu belirtmesiyle son zamanlarda başka bir heyecan yarattı. rekabetçi tehditler ve potansiyel güvenlik etkileri teknolojinin açıklanması ile ilişkilidir. İnovasyon süreçlerinde tipik olarak olduğu gibi, bugün düzenleyici ortam kopuk ve alandaki gelişmeleri yakalamak için kaybedilen bir yarışta. GPT-4’ün yeni yetenekleri ve önceki nesil GPT teknolojisine dayalı hizmetler, çoğu öngörülemeyen ve hayal bile edilemeyen önemli risklerle doludur. Model geliştirmede azaltılmış şeffaflık yardımcı olmayacaktır.

Riskli iş

Veri gizliliği ve mahremiyetine yönelik risk uygulama düzeyinde belirgin olsa da bu riskler ChatGPT, GPT-4 ve diğer merkezi yapay zeka sistemlerinin içsel bir bileşenidir. Değerli insan haklarından ödün vermeden yapay zekanın memnuniyetle karşılanan faydalarından yararlanmak için toplum olarak bu riskleri nasıl ele aldığımız, makine zekasındaki ilerlemelerin hızlandırılmasıyla ortaya çıkan birçok sorudan biridir. Bugün insan-makine görüşmelerimizin hakkımızda ifşa ettiği bilgilerle yeterince ilgilenmiyorsak, şu durumlarda daha çok endişelenebiliriz: AI araştırmacılarından oluşan bir ekibin zaten gösterdiği gibi, yakında bir gün, makineler gerçekten aklımızı okuma yeteneğine sahip olacak. İnsanlığın ve GPT-4’ün düşüneceği çok şey var.



Source link