OpenAI Mahkeme Kararı, ChatGPT Verilerinin Süresiz Olarak Saklanmasını Zorunlu Hale Getiriyor


Talep 1,4 milyar görüşmeyle başladı.

The New York Times’tan gelen ve daha sonra 20 milyon rastgele örneklenmiş ChatGPT sohbetine indirilen bu şaşırtıcı ilk talep, OpenAI’yi, güvenlik uzmanlarının yapay zeka endüstrisindeki veri saklama uygulamalarını temelden yeniden şekillendirebileceği konusunda uyardığı yasal bir mücadeleye sürükledi. Telif hakkı ihlali davası, fikri mülkiyet anlaşmazlıklarının ötesinde, kullanıcı gizliliği, veri yönetimi ve dava gizlilik taahhütleriyle çatıştığında AI şirketlerinin karşılaştığı yükümlülükler konusunda daha geniş bir mücadeleye dönüştü.

OpenAI, 13 Mayıs’ta, kullanıcı silme talepleri veya gizlilik düzenlemesi gereklilikleri ne olursa olsun, aksi takdirde silinecek tüm çıktı günlüğü verilerini saklaması yönünde şirkete talimat veren bir mahkeme koruma emri aldı. Bölge Hakimi Sidney Stein, OpenAI’nin itirazının ardından 26 Haziran’da kararı onayladı ve kullanıcının gizlilik çıkarlarının davada belirlenen koruma ihtiyaçlarını geçersiz kılması gerektiği yönündeki iddiaları reddetti.

Gizlilik Taahhütleri Yasal Yükümlülüklerle Çatışıyor

Koruma emri, OpenAI’yi tüketici ChatGPT ve API kullanıcı verilerini süresiz olarak korumaya zorluyor ve bu, kullanıcıların kaydetmemeyi tercih ettiği konuşmalara ilişkin şirketin standart 30 günlük silme politikasıyla doğrudan çelişiyor. Bu gereklilik, Aralık 2022’den Kasım 2024’e kadar olan verileri kapsamakta olup ChatGPT Free, Plus, Pro ve Team abonelerinin yanı sıra Sıfır Veri Saklama sözleşmesi olmayan API müşterilerini de etkilemektedir.

ChatGPT Enterprise, ChatGPT Edu ve Sıfır Veri Saklama sözleşmelerine sahip ticari müşteriler, koruma gerekliliklerinin dışında kalır. Bu emir, OpenAI’nin varsayılan olarak iş verileri üzerinde model eğitmeme politikasını değiştirmiyor.

OpenAI, korunan verileri küçük, denetlenen bir hukuk ve güvenlik ekibiyle sınırlayan kısıtlı erişim protokolleri uyguladı. Şirket, bu bilgilerin gizli tutulacağını ve yasal yükümlülüklerin yerine getirilmesi dışında kullanılamayacağını savunuyor. Şu anda New York Times’a, mahkemeye veya harici taraflara hiçbir veri aktarılmayacaktır.

Ayrıca okuyun: OpenAI, Yeni Yapay Zeka Modeli Geliştirme Ortasında Emniyet ve Güvenlik Komitesini Duyurdu

Telif Hakkı Davası Veri Koruma Taleplerini Yönlendiriyor

New York Times, OpenAI’nin ChatGPT ve GPT-4 dahil büyük dil modellerini eğitmek için yasa dışı olarak milyonlarca haber makalesini kullandığını iddia ederek telif hakkı ihlali davasını Aralık 2023’te açtı. Dava, bu izinsiz kullanımın telif hakkı ihlali ve haksız rekabet teşkil ettiğini iddia ediyor ve OpenAI’nin fikri mülkiyetten izin veya tazminat olmaksızın kar elde ettiğini öne sürüyor.

The Times maddi tazminattan fazlasını istiyor. Davada, telif hakkıyla korunan eserleri kullanan tüm GPT modellerinin ve eğitim setlerinin imha edilmesi, potansiyel zararın yasal ve fiili olarak milyarlarca dolara ulaşması talep ediliyor.

Gazetenin hukuk ekibi, başka bir yapay zeka şirketinin daha önce ilgisiz bir davada 5 milyondan fazla özel kullanıcı sohbetini teslim etmeyi kabul etmesi nedeniyle, koruma taleplerinin onay gerektirdiğini savundu. OpenAI, bu örneği kendi durumuyla alakasız olduğu gerekçesiyle reddetti.

Teknik ve Düzenleyici Komplikasyonlar

Süresiz saklama gerekliliklerine uymak önemli mühendislik zorlukları doğurur. OpenAI’nin, dünya çapındaki kullanıcılardan gelen yüz milyonlarca konuşmayı depolayabilecek, aylarca süren geliştirme çalışmaları ve önemli miktarda finansal yatırım gerektiren sistemler oluşturması gerekiyor.

Koruma emri, GDPR dahil uluslararası veri koruma düzenlemeleriyle çelişkiler yaratıyor. OpenAI’nin hizmet koşulları, Yargıç Stein’ın vurguladığı gibi, yasal gereklilikler için verilerin korunmasına izin verirken, şirket, The Times’ın taleplerinin makul keşif kapsamını aştığını ve yerleşik gizlilik normlarını terk ettiğini savunuyor.

OpenAI, potansiyel olarak New York Times makale metnini içeren konuşmaları belirlemek için korunan örnekler üzerinde hedefli aramalar da dahil olmak üzere gizliliği koruyan çeşitli alternatifler önerdi. Bu öneriler, gizliliğin daha geniş çapta açığa çıkmasını en aza indirirken yalnızca telif hakkı talepleriyle ilgili verileri sağlamayı amaçladı.

Son mahkeme değişiklikleri sınırlı bir rahatlama sağladı. 26 Eylül 2025 itibarıyla OpenAI’nin artık tüm yeni sohbet günlüklerini saklaması gerekmiyor. Ancak şirket, önceki siparişte kayıtlı olan tüm verileri saklamalı ve The New York Times tarafından işaretlenen ChatGPT hesaplarındaki bilgileri muhafaza etmeli ve gazete, korunan kayıtları incelerken işaretlenen kullanıcı listesini genişletme yetkisine sahip olmalıdır.

“Uzun vadeli yol haritamız, ChatGPT ile mesajlarınız için istemci tarafında şifreleme de dahil olmak üzere verilerinizi gizli tutmak için tasarlanmış gelişmiş güvenlik özellikleri içeriyor. Ürünlerimizdeki güvenlik sorunlarını tespit etmek için tam otomatik sistemler oluşturacağız. Yalnızca ciddi suiistimal ve kritik riskler (birinin hayatına yönelik tehditler, başkalarına zarar verme planları veya siber güvenlik tehditleri gibi) küçük, yüksek düzeyde incelenmiş, insan incelemecilerden oluşan bir ekibe iletilebilir.” – Dane Stuckey, Bilgi Güvenliği Baş Sorumlusu, OpenAI

Yapay Zeka Yönetişimine Etkileri

Bu vaka, soyut yapay zeka gizlilik endişelerini 400 milyon ChatGPT kullanıcısını etkileyen acil operasyonel zorluklara dönüştürüyor. Güvenlik uygulayıcıları, koruma emrinin yapay zeka etkileşimlerinde veri silinmesine ilişkin temel varsayımları yerle bir ettiğini belirtiyor.

OpenAI CEO’su Sam Altman, durumu “Yapay Zeka ayrıcalığı” kavramlarına yönelik ihtiyaçların artması olarak nitelendirdi ve yapay zeka sistemleriyle yapılan görüşmelerin avukat-müvekkil ayrıcalığına benzer korumalar alması gerektiğini öne sürdü. Şirket, sınırsız veri korumanın yapay zeka iletişim gizliliği açısından tehlikeli emsaller oluşturması olarak değerlendiriyor.

Dava, ChatGPT’yi hassas bilgileri işleyen uygulamalara entegre eden kurumsal kullanıcılar için ilgili senaryolar sunuyor. OpenAI teknolojisini sağlık hizmetleri, hukuk veya finansal hizmetler için kullanan kuruluşların, süresiz saklama gereklilikleri göz önüne alındığında HIPAA ve GDPR dahil düzenlemelere uygunluğu yeniden değerlendirmesi gerekir.

Hukuk analistleri, bu vakanın muhtemelen üçüncü taraf keşif girişimlerini davet ettiği ve ilgisiz vakalarda davacıların rakiplerin korunmuş yapay zeka konuşma kayıtlarına erişim aradığı konusunda uyarıyor. Bu tür gelişmeler, veri gizliliği sorunlarını daha da karmaşık hale getirecek ve potansiyel olarak avukat-müvekkil ayrıcalıklarının korunmasını gerektirecektir.

Sonuç, yapay zeka şirketlerinin eğitim verilerine nasıl eriştiğini ve bunları nasıl kullandığını önemli ölçüde etkileyecek ve potansiyel olarak gelecekteki yapay zeka teknolojilerinin geliştirilmesini ve dağıtımını yeniden şekillendirecek. Adil kullanım doktrininin yapay zeka modeli eğitimine uygulanması ve yapay zeka telif hakkı davalarında keşif sınırlarıyla ilgili temel sorular hâlâ çözülmemiş durumda.

Ayrıca okuyun: OpenAI’nin SearchGPT’si: Siber Güvenlik Uzmanları için Oyun Değiştirici mi, yoksa Pandora’nın Kutusu mu?



Source link