Meta, Google ve Microsoft gibi şirketlerden en popüler üretken AI ve Büyük Dil Modeli (LLM) platformlarından bazıları, hassas verileri topluyor ve bilinmeyen üçüncü taraflarla paylaşıyor, kullanıcıları sınırlı şeffaflıkta bırakıyor ve bilgilerinin nasıl depolandığı, kullanıldığı veya paylaşıldığı konusunda neredeyse hiç kontrol.
AI platformları eğitimde kullanıcı verilerini yakaladı
Google’ın İkizler, Meta AI, Deepseek ve Pi.Ai dahil olmak üzere bu platformların çoğu, AI modellerini eğitmek için kullanılmayı tercih etmenin yollarını sunmuyor gibi görünüyor. Kişisel veya hassas veriler girildikten sonra, bir AI modelinin eğitim veri kümesinden silmek için pratik bir mekanizma yoktur.
GDPR gibi yasalar bireylere veri silme talep etme hakkı verirken, bilgilerin bir makine öğrenme modelinden nasıl kaldırılacağı hala belirsizdir. Sonuç olarak, birçok şirket şu anda bu tür verileri gerçekleştirdikten sonra kaldırma zorunlu değildir veya teknik olarak mümkün değildir. İletişim bilgileri veya tescilli iş detayları, potansiyel olarak kullanıcının açık bilgisi veya rızası olmadan modelin eğitim verilerine gömülebilir.
Kim ne toplar
Üretken AI günlük yaşamın büyüyen bir parçası haline geldikçe, kullanıcılar genellikle bu araçların hangi kişisel verileri topladığından, nasıl kullanıldığının ve nerede bittiğinin farkında değildir. Araştırmacılar, üç temel alanda 11 alt kategoride önde gelen AI platformlarını analiz ettiler: model eğitiminde kullanıcı verilerinin nasıl kullanıldığı, her platformun gizlilik uygulamalarının şeffaflığı ve veri toplama ve üçüncü taraf paylaşımının kapsamı.
- Meta.ai Ve İkizler burcu Kullanıcılarının kesin konum verilerini ve fiziksel adreslerini toplayın.
- Claude Google Play Store listesine göre üçüncü taraflarla e -posta adreslerini, telefon numaralarını ve uygulama etkileşimi verilerini paylaşır.
- Grok (XAI), kullanıcılar tarafından sağlanan fotoğrafları ve uygulama etkileşimlerini üçüncü taraflarla paylaşabilir.
- Meta.ai Araştırma ortakları ve kurumsal grup üyeleri de dahil olmak üzere dış varlıklarla adları, e -posta adreslerini ve telefon numaralarını paylaşır.
- Microsoft’un Gizlilik Politikası, kullanıcı istemlerinin çevrimiçi reklamcılıkta veya Microsoft’un reklam teknolojisinde yer alan üçüncü taraflarla paylaşılabileceğini ima eder.
- İkizler burcu– Deepseek– Pi.Ai Ve Meta.aibüyük olasılıkla kullanıcılara modelleri istemleriyle eğitmeyi seçme olanağı vermiyor.
- Chatgpt Model eğitimi için hangi istemlerin kullanılacağı ve açık bir gizlilik politikası hakkında bilgi söz konusu olduğunda en şeffaf olduğu ortaya çıktı.
Netlik arayan kullanıcılar için bile, ayrıntılar genellikle parçalanmış yardım sayfalarına gömülür veya yoğun yasal olarak yazılır. Incogni, analiz edilen her gizlilik politikasının üniversite düzeyinde bir okuma yeteneği gerektirdiğini buldu.
Çalışan AI kullanımı gizli iş bilgilerini sızdırabilir
Bireysel gizliliğe ek olarak, işletmeler daha da büyük risklerle karşılaşabilir. Çalışanlar, bunun tescilli verilerin modelin eğitim veri kümesinin bir parçası haline gelmesine neden olabileceğini fark etmeden, dahili raporların veya iletişimin taslağına yardımcı olmak için üretken AI araçlarını sık sık kullanırlar. Bu koruma eksikliği sadece bireyleri istenmeyen veri paylaşımına maruz bırakmakla kalmaz, aynı zamanda diğer kullanıcılarla gelecekteki etkileşimlerde tekrar kullanılmasına, gizlilik, uyumluluk ve rekabetçi riskler yaratmasına da yol açabilir.
“Çoğu insan güvenilir bir asistanla sohbet ettiklerini ve iletişim bilgilerini veya gizli ticari bilgilerini vermediklerini varsayar” dedi. “Gerçek çok daha invaziv ve şirketler verilerinizde gerçekte neler olduğunu anlamayı kolaylaştırmıyor. Kullanıcılar neyin toplandığını, kimin görüldüğünü ve nasıl durdurulacağını bilmeyi hak ediyor. Şu anda bu cevapları bulmak genellikle zor veya hiç var değil.”