ChatGPT aniden kullanıcılara diğer kullanıcıların sohbetlerinin başlıklarını göstermeye başladı.
Yeni gadget’lar ve yazılımlar, özellikle aceleye getirildiyse yeni hatalarla birlikte gelir. Bunu, teknoloji devleri arasındaki ChatGPT gibi büyük dil modellerini (LLM’ler) ve rakiplerini kapı dışarı etme yarışında çok net bir şekilde görebiliriz. En son ortaya çıkan LLM hatasında ChatGPT, bazı kullanıcıların diğer kullanıcıların konuşmalarının başlıklarını görmesine izin verdi.
LLM’ler, milyarlarca sayfalık yazılı materyalin girdisiyle eğitilen devasa derin sinir ağlarıdır.
ChatGPT’nin sözleriyle:
“Eğitim süreci, modeli kitaplar, makaleler ve web siteleri gibi büyük miktarda metin verisine maruz bırakmayı içerir. Eğitim sırasında model, oluşturduğu metin ile eğitim verilerindeki metin arasındaki farkı en aza indirmek için dahili parametrelerini ayarlar. Bu, modelin dildeki kalıpları ve ilişkileri öğrenmesine ve eğitim aldığı metne stil ve içerik açısından benzer yeni metinler üretmesine olanak tanır.”
LLM’leri yapmamaları gereken şekillerde davranmaları için kandırmak hakkında daha önce yazmıştık. Biz buna jailbreak diyoruz. Ve bunun iyi olduğunu söyleyebilirim. Tüm bunlar, bu karmaşık yeni araçlar için bir beta testi aşaması olarak görülebilecek sürecin bir parçası. Ve modelin sınırlamalarını aşabileceğimiz yolları bildirdiğimiz ve geliştiricilere işleri sıkılaştırma şansı verdiğimiz sürece, modelleri daha iyi hale getirmek için birlikte çalışıyoruz.
Ancak, bir model diğer kullanıcılar hakkında bilgi sızdırdığında, zaten kapatılmış olması gereken bir alana rastlarız.
Olanları daha iyi anlamak için, bu modellerin nasıl çalıştığına dair bazı temel çalışma bilgilerine sahip olmak gerekir. Aldıkları yanıtların kalitesini artırmak için, kullanıcılar LLM ile yaptıkları konuşmaları bir tür ileti dizisinde düzenleyebilirler, böylece model ve kullanıcı geriye dönüp hangi zemini kapsadıklarını ve ne üzerinde çalıştıklarını görebilirler. Açık.
ChatGPT ile, chatbot ile yapılan her görüşme, kullanıcının daha sonra tekrar ziyaret edilebileceği sohbet geçmişi çubuğunda saklanır. Bu, kullanıcıya birkaç konu üzerinde çalışma ve bunları düzenli ve ayrı tutma fırsatı verir.
Bu geçmişi diğer kullanıcılara göstermek, en azından rahatsız edici ve kabul edilemez olacaktır, çünkü utanç verici olabilir ve hatta hassas bilgiler verebilir.
Yine de, tam olarak olan buydu. Bir noktada, kullanıcılar geçmişlerinde kendilerine ait olmayan öğeler fark etmeye başladılar.
OpenAI, kullanıcılara başkalarının gerçek sohbetlere erişemeyeceği konusunda güvence verse de, kullanıcılar anlaşılır bir şekilde gizlilikleri konusunda endişeliydi.
Reddit’teki bir OpenAI sözcüsüne göre, temeldeki hata bir açık kaynak kitaplığındaydı.
OpenAI CEO’su Sam Altman, şirketin “korkunç” hissettiğini ancak “önemli” hatanın düzeltildiğini söyledi.
Hatırlanacak şeyler
ChatGPT gibi dev, etkileşimli LLM’ler hala geliştirmenin erken aşamalarında ve bazılarının inanmamızı istemesine rağmen, bunlar ne her şeyin cevabı ne de dünyanın sonu. Bu noktada, size olası bilgi kaynaklarını gösteren “eski moda” bir arama motorunun aksine, sorduğunuz konu hakkında bulduklarını yeniden ifade eden çok sınırlı arama motorlarıdır ve hangilerinin güvenilir, hangilerinin güvenilir olmadığına siz karar verebilirsiniz. ‘T.
LLM’lerden herhangi birini kullanırken, bunların hala bir test aşamasında olduklarını kendinize hatırlatın. Bunun anlamı:
- Özel veya hassas bilgileri beslemeyin Kendiniz veya işvereniniz hakkında. Diğer sızıntılar muhtemeldir ve daha da utanç verici olabilir.
- Sonuçları bir tuz tanesinden daha fazlasıyla alın. Modeller bilgi kaynağı sağlamadığından, fikirlerin nereden geldiğini bilemezsiniz.
- LLM’nin sınırlamalarına aşina olun. Kullandığı bilgilerin ne kadar güncel olduğunu ve özgürce konuşamadığı konuların anlaşılmasına yardımcı olur.
Malwarebytes, fidye yazılımının tüm kalıntılarını kaldırır ve yeniden virüs bulaşmasını önler. İşletmenizi korumaya nasıl yardımcı olabileceğimiz hakkında daha fazla bilgi edinmek ister misiniz? Aşağıdan ücretsiz bir deneme alın.
ŞİMDİ DENE