Kullanıcılar AI’yı terapist, avukat, sırdaş olarak ele alıyor


Sızan chatgpt sohbetleri, hassas verileri paylaşan kullanıcıları, ruh sağlığı konusunda tavsiyelerde bulunarak, AI chatbots ile aşırı paylaşım risklerini ortaya çıkardığını ortaya koyuyor.

Binlerce chatgpt konuşması göründü Ağustos 2025’te çevrimiçi olarak, birçok kişi sızıntının teknik olduğunu varsaydı. Bunun yerine, asıl mesele, kafa karıştırıcı ürün tasarımı ile birleştirilen insan davranışıydı. Kullanıcıların “sohbetleri keşfedilebilir hale getirmesine” izin veren şu anda kaldırılmış bir özellik, özel görüşmeleri herkesin bulması için arama motorları tarafından dizine eklenmiş halka açık web sayfalarına dönüştürmüştü.

Güvenlik Detektifi’ndeki araştırmacılar, bu sızdırılan konuşmaların 1.000’inden oluşan bir veri kümesini analiz ettiler ve toplam 43 milyon kelimeden fazla. Bulguları, insanların tedavi ettiğini gösteriyor AI Araçları Terapistler, danışmanlar ve hatta sırdaşlar gibi, genellikle normalde özel tutacakları bilgileri paylaşırlar.

Sızan chatgpt sohbetler: Kullanıcılar AI'yı terapist, avukat, sırdaş olarak ele alıyor
Google’da sızdırılmış chatgpt sohbetleri örneği (PCMAG ve Google üzerinden resim)

CHATGPT ile insanlar ne paylaşıyor

Bu konuşmalarda ortaya çıkan içeriklerin bazıları sıradan istemlerden daha ileri gidiyor. Kullanıcılar tam adlar, telefon numaraları, adresler ve özgeçmişler gibi kişisel olarak tanımlanabilir bilgileri açıkladılar. Diğerleri intihar düşünceleri, uyuşturucu kullanımı, aile planlaması ve ayrımcılık gibi hassas konular hakkında konuştu.

Araştırma ayrıca, konuşmaların küçük bir kısmının verilerin çoğunu açıkladığını gösterdi. 1.000 sohbetten sadece 100’ü analiz edilen toplam kelimelerin yarısından fazlasını içeriyordu. Bir maraton sohbeti 116.024 kelimeye kadar uzandı, bu da ortalama insan hızında yazılması yaklaşık iki gün sürdü.

Profesyonel tavsiye veya gizlilik riski?

Bayraklı sohbetlerin yaklaşık% 60’ı araştırmacıların “profesyonel istişareler” olarak kategorize ettiği şey altına düştü. Bir avukat, öğretmen veya danışmanı aramak yerine, kullanıcılar sordu Chatgpt Eğitim, yasal konular ve hatta zihinsel sağlık konusunda rehberlik için. Bu, insanların yapay zeka içinde bulunduğu güveni gösterirken, sohbet botunun yanıtlarının yanlış olduğu veya özel detaylar açığa çıktığında riskleri de vurgulamaktadır.

Bir durumda, AI bağımlılık hakkında bir konuşma sırasında bir kullanıcının duygusal durumunu yansıttı, tonu azaltmak yerine artan.

Shipra Sanganeria – Güvenlik

. çalışmak Kullanıcıların tüm özgeçmişleri yükledikleri veya akıl sağlığı mücadeleleri hakkında tavsiyelerde bulundukları vurgulanan vakalar. Bir örnekte, ChatGPT bir CV oluştururken birisini tam adlarını, telefon numaralarını ve çalışma geçmişini paylaşmaya teşvik etti ve sohbet bağlantısı kamuya açıklanırsa kimlik hırsızlığına maruz bıraktı. Başka bir durumda, AI bağımlılık hakkında bir konuşma sırasında bir kullanıcının duygusal durumunu yansıttı, tonu azaltmak yerine yükseldi.

Sızan chatgpt sohbetler: Kullanıcılar AI'yı terapist, avukat, sırdaş olarak ele alıyor
En İyi 20 Anahtar Kelime

Bu neden ciddi bir sorun

Olay iki soruna işaret ediyor. Birincisi, birçok kullanıcı sohbetleri “keşfedilebilir” hale getirerek, kelimelerinin arama motorları tarafından taranabileceğini ve halka açık hale getirilebileceğini tam olarak anlamadı. İkincisi, özelliğin tasarımı, özel konuşmaların çevrimiçi olmasını çok kolaylaştırdı.

Bunun da ötesinde, çalışma chatgpt’in sık sık olduğunu gösterdi ”halüsinatlar“Bir belge kaydettiğinde kaydettiğini iddia etmek gibi eylemler. Bu yanlışlıklar gündelik sohbetlerde normal görünebilir, ancak insanlar AI’yı güvenilir bir profesyonel araç olarak ele aldıklarında tehlikeli hale gelirler.

Başka bir konu, hassas ayrıntılar içeren konuşmalar halka açık olduğunda, kötü niyetli bir şekilde sömürülebilirler. Kişisel bilgiler dolandırıcılık, kimlik hırsızlığı veya doxxing’de kullanılabilir. Doğrudan PII olmasa bile, duygusal olarak savunmasız değişimler şantaj veya tacizde kötüye kullanılabilir.

Araştırmacılar bunu iddia ediyor Openai Paylaşılan konuşmaların nasıl ele alındığı konusunda asla güçlü gizlilik garantileri yapmamıştır. Bu sızıntıdan sorumlu özellik kaldırılmış olsa da, yapay zekayı güvenli bir sırdaş gibi davranan kullanıcıların temel davranışı değişmeden kalır.

Ne Değiştirilmesi Gerekiyor

Güvenlik -Detektif iki ana eylem önerir. İlk olarak, kullanıcılar arayüzün ne kadar özel hissettiği önemli değil, hassas kişisel bilgileri chatbot konuşmalarına koymaktan kaçınmalıdır. İkincisi, AI şirketlerinin uyarılarını daha netleştirmeleri ve paylaşım özellikleri daha sezgisel hale getirmeleri gerekiyor. Bir sohbet paylaşılmadan önce PII’nin otomatik olarak redaksiyonu kazara sızıntıları önleyebilir.

Araştırmacılar ayrıca kullanıcı davranışını anlama konusunda daha fazla çalışma çağrısında bulundular. Neden bazı insanlar on binlerce kelimeyi tek bir sohbete döküyor? Kullanıcılar AI’ya ne sıklıkla terapistler veya hukuk uzmanları gibi davranıyor? Ve tonu yansıtacak, yanlış bilgi üretebilecek veya özel verileri koruyamayan bir sisteme güvenmenin sonuçları nelerdir?

Şaşırmış? Olma!

Bu bulgular sürpriz olmamalıdır. Şubat 2025’te, Hackread.com bir ana dalda bildirildi Omnigpt veri ihlali Hackerların çevrimiçi olarak son derece hassas bilgileri ortaya çıkardığı yerlerde.

Sızan veri kümesi, ChatGPT-4, Claude 3.5, şaşkınlık, Google Gemini ve Mid-Journey gibi AI modelleri ile 34 milyondan fazla kullanıcı konuşması içeriyordu, çünkü OmNigpt birkaç gelişmiş modeli tek bir arayüze birleştirdi.

Konuşmaların yanı sıra, ihlal ayrıca yaklaşık 30.000 kullanıcı e -posta adresi, telefon numaraları, giriş bilgileri, özgeçmişler, API anahtarları, WhatsApp sohbet ekran görüntüleri, polis doğrulama sertifikaları, akademik ödevler, ofis projeleri ve çok daha fazlasını ortaya koydu.

Daha da kötüsü, omnigpt tarafından uyarıldığında sorunu yanıtlamaya veya ele almaya bile zahmet etmedi. Hackread.com. Şirketin kullanıcı gizliliği ve güvenliği için ne kadar az saygı duyduğunu size anlatır.

Ana şey

Bununla birlikte, Güvenlik -Detektif’in analizi ve chatgpt sohbet sızıntısı, hack veya veri ihlalleri ve AI’ya güvenen insanlar hakkında başka bir kişiye anlatmaktan çekineceklerdir ve bu sohbetler kamu alanına düştüğünde, sonuçlar hemen ve kişiseldir.

Yapay zeka platformları daha güçlü gizlilik korumaları sunana ve insanlar paylaştıkları şeylere daha dikkat edinceye kadar, özel bir sohbet ile halka açık olabilecek bir şey arasındaki farkı söylemek zor olacaktır.





Source link