ChatGPT’nin Büyük Bir Gizlilik Sorunu Var


OpenAI yayınlandığında Temmuz 2020’de GPT-3, büyük dil modelini eğitmek için kullanılan verilere kısa bir bakış sunuyordu. Teknik bir makaleye göre, üretken metin sistemini oluşturmak için web’den, Reddit gönderilerinden, kitaplardan ve daha fazlasından kazınan milyonlarca sayfa kullanılıyor. Bu verilerde, kendinizle ilgili çevrimiçi olarak paylaştığınız bazı kişisel bilgiler yer alır. Bu veriler şimdi OpenAI’nin başını belaya sokuyor.

31 Mart’ta İtalya’nın veri düzenleyicisi, OpenAI’nin eğitim verilerinde yer alan milyonlarca İtalyan’ın kişisel bilgilerini kullanmayı durdurmasını talep eden geçici bir acil durum kararı yayınladı. Düzenleyiciye göre, Garante per la Protezione dei Personali, OpenAI, ChatGPT’de kişilerin kişisel bilgilerini kullanma konusunda yasal hakka sahip değildir. Yanıt olarak OpenAI, daha fazla araştırma yapan yetkililere yanıt verirken İtalya’daki insanların chatbot’una erişmesini engelledi.

Eylem, Batılı bir düzenleyici tarafından ChatGPT’ye karşı gerçekleştirilen ilk eylemdir ve genellikle çok geniş internet verileri üzerinde eğitilen dev üretken yapay zeka modellerinin oluşturulması etrafındaki gizlilik gerilimlerini vurgular. Sanatçılar ve medya şirketleri, üretici yapay zeka geliştiricilerinin çalışmalarını izinsiz kullandıklarından şikayet ettikleri gibi, veri düzenleyici de şimdi aynı şeyi insanların kişisel bilgileri için söylüyor.

Tüm Avrupa’da benzer kararlar alınabilir. İtalya’nın soruşturmasını duyurmasından sonraki günlerde, Fransa, Almanya ve İrlanda’daki veri düzenleyicileri, bulguları hakkında daha fazla bilgi istemek için Garante ile temasa geçti. Gelişmeleri izleyen Norveç’in veri koruma dairesinin uluslararası başkanı Tobias Judin, “İş modeli, bulabildiğiniz her şey için interneti kazımaksa, o zaman burada gerçekten önemli bir sorun olabilir” diyor. Judin, yasa dışı bir şekilde toplanabilecek veriler üzerine kurulu bir modelin, herhangi birinin araçları yasal olarak kullanıp kullanamayacağı konusunda soru işaretleri uyandırdığını ekliyor.

İtalya’nın OpenAI’ye darbesi, büyük AI modellerinin incelenmesinin giderek artmasıyla da geliyor. 29 Mart’ta teknoloji liderleri, gelecekteki etkilerinden korkarak ChatGPT gibi sistemlerin geliştirilmesine ara verilmesi çağrısında bulundu. Judin, İtalyan kararının daha acil endişeleri vurguladığını söylüyor. Judin, “Aslında, bugüne kadarki AI gelişiminin potansiyel olarak büyük bir eksikliği olabileceğini görüyoruz” diyor.

İtalyan işi

Kuruluşların insanların kişisel verilerini toplama, saklama ve kullanma şeklini kapsayan Avrupa’nın GDPR kuralları, kıta genelinde 400 milyondan fazla kişinin verilerini koruyor. Bu kişisel veriler, bir kişinin adından IP adresine kadar herhangi bir şey olabilir; birinin kimliğini belirlemek için kullanılabiliyorsa, o kişinin kişisel bilgisi olarak kabul edilebilir. Amerika Birleşik Devletleri’ndeki eyalet düzeyindeki gizlilik kurallarının yama çalışmasının aksine, GDPR’nin korumaları, insanların bilgileri çevrimiçi olarak ücretsiz olarak mevcutsa geçerlidir. Kısacası: Birinin bilgilerinin kamuya açık olması, onu boşaltabileceğiniz ve onunla istediğiniz her şeyi yapabileceğiniz anlamına gelmez.

İtalyan Garante, ChatGPT’nin GDPR kapsamında dört sorunu olduğuna inanıyor: OpenAI, 13 yaşın altındaki kişilerin metin oluşturma sistemini kullanmasını engelleyecek yaş kontrollerine sahip değil; insanlar hakkında doğru olmayan bilgiler sağlayabilir; ve insanlara verilerinin toplandığı söylenmedi. Belki de en önemlisi, dördüncü argümanı, ChatGPT’yi eğitmek için kullanılan büyük miktarda veride insanların kişisel bilgilerini toplamanın “yasal bir dayanağı” olmadığını iddia ediyor.

İngiltere’deki Newcastle Üniversitesi’nde hukuk, inovasyon ve toplum profesörü olan Lilian Edwards, “İtalyanlar blöflerini gördüler” diyor. “AB’de bunun veri koruma yasasının ihlali olduğu oldukça açık görünüyordu.”



Source link