İtalya’nın gizlilik ve veri koruma düzenleyicisi, OpenAI’nin ChatGPT hizmetine yönelik yakın zamanda uyguladığı yasağı, hizmetin düzenleyicinin endişelerini gidermek için bir dizi önlem uygulaması halinde Nisan 2023’ün sonunda kaldıracak.
Garante per la Protezione dei Data Personali (GPDP), Microsoft destekli OpenAI’ye, ChatGPT’nin gizlilik yasalarını ihlal etmeden verileri işlemesinin hiçbir yolu olmadığını ve bunu destekleyen hiçbir yasal dayanak olmadığını söyleyerek Mart ayı sonunda İtalya’daki hizmetini durdurmasını emretti. eğitim amacıyla verilerin toplanması ve işlenmesi.
Ayrıca, 13 yaşın altındaki çocukların ChatGPT’ye girilen istemlerden gelen uygunsuz yanıtlara maruz kalabileceği anlamına gelen bir yaş doğrulama mekanizmasının bulunmadığına da değinildi.
GPDP şimdi OpenAI’ye, ChatGPT teklifinin güvenliğiyle ilgili endişelerini gidereceğine inandığı bir dizi koşul dayattı.
“OpenAI, 30 Nisan’a kadar İtalyan SA tarafından şeffaflık, veri konularının hakları – kullanıcılar ve kullanıcı olmayanlar dahil – ve kullanıcıların verilerine dayanan algoritmik eğitim için işlemenin yasal dayanağı ile ilgili önlemlere uymak zorunda olacak. ” dedi düzenleyici yaptığı açıklamada.
“Yalnızca bu durumda İtalyan SA, İtalyan kullanıcıların verilerinin işlenmesine geçici bir sınırlama getiren siparişini kaldıracak, artık siparişin temelini oluşturan aciliyet ortadan kalkacak ve böylece ChatGPT İtalya’dan bir kez daha kullanılabilir olacak.”
OpenAI şimdi, ChatGPT’yi çalıştırmak için gereken veri işlemenin “düzenlemelerini ve mantığını” ve hem kullanıcı hem de kullanıcı olmayan veri sahiplerine tanınan hakları açıklayan bir bildirim hazırlamalı ve çevrimiçi olarak kullanıma sunmalıdır.
İtalya’da kaydolan kullanıcılara, ChatGPT’yi kullanmalarına izin verilmeden önce bu bildirimin sunulması ve 18 yaşından büyük olduklarını veya 13 ila 18 yaşları arasındaysa ebeveyn iznini almış olduklarını beyan etmeleri gerekir. Yaş sınırlaması mekanizması 30 Eylül 2023’e kadar uygulanmalıdır.
OpenAI’ye ayrıca sözleşme performansına ilişkin tüm referansları kaldırması ve – Avrupa Birliği (AB) GDPR’deki hesap verebilirlik ilkelerine uygun olarak – eğitim algoritmaları için kişisel verilerin işlenmesi için geçerli yasal dayanak olarak onay veya meşru temele dayanması emredilmiştir.
ChatGPT tarafından yanlış kullanıldığında veri sahiplerinin kişisel verilerini silmesini veya düzeltmesini sağlamak için bir dizi önlem uygulamalı ve kullanıcı olmayanların kişisel verilerin işlenmesine itiraz etme haklarını kullanmalarına olanak sağlamalıdır – meşru menfaat olarak seçilmiş olsa bile işlenmesi için yasal dayanak.
Son olarak, OpenAI’ye, verilerinin eğitim algoritmaları için kullanımı hakkında bireyleri bilgilendirmek için İtalyan medyasında bir kamuoyu bilinçlendirme kampanyası yürütmesi talimatı verildi.
GPDP, “İtalyan SA, yürürlükteki mevzuatın olası ihlallerini tespit etmek için soruşturmalarını sürdürecek ve sürmekte olan bilgi toplama tatbikatının tamamlanmasının ardından bunun gerekli olduğu kanıtlanırsa ek veya farklı önlemler almaya karar verebilir” dedi.
Immuniweb’in kurucusu ve Europol’ün veri koruma uzmanları ağının bir üyesi olan Ilia Kolochenko şu yorumu yaptı: “Gizlilik sorunları, ChatGPT gibi üretici yapay zekanın yakın gelecekte karşılaşabileceği düzenleme sorunlarının yalnızca küçük bir kısmı. Pek çok ülke, sağlık, sigorta veya istihdam gibi belirli bir bağlamda bu ilham verici sözler ne anlama gelirse gelsin, ayrımcılık yapılmamasını, açıklanabilirliği, şeffaflığı ve adaleti sağlamayı amaçlayan her tür yapay zeka teknolojisi için yeni mevzuat üzerinde aktif olarak çalışıyor.
“Düzenleme eğilimi, Avrupalı düzenleyicilerin ayrıcalığı değildir. Örneğin, Amerika Birleşik Devletleri’nde FTC, yapay zekanın geleceğini aktif olarak şekillendirmeye hazırlanıyor.”
Eğitim verileri
Kolochenko, üretken yapay zeka ile ilgili en büyük sorunlardan birinin, içerik oluşturuculardan veya bireylerden herhangi bir izin almadan yapay zeka tedarikçileri tarafından çok düzenli bir şekilde toplanan eğitim verileri olduğunu söyledi.
Mevcut fikri mülkiyet (IP) yasasının buna karşı çok az koruma sağladığı veya hiç koruma sağlamadığı, ancak büyük ölçekli veri kazıma uygulamalarının muhtemelen dijital kaynakların hizmet şartlarını ihlal ettiği ve bunun da sonunda davaya yol açabileceği konusunda uyardı.
Bu, dedi Kolochenko, yapay zekayı yasaklamanın hala harika bir fikir olmadığını ekledi. “Yasalara uyan şirketler itaatkar bir şekilde yasağa uyarken, düşman ulus devlet ve tehdit aktörleri araştırma ve geliştirmelerine kolayca devam ederek küresel yapay zeka yarışında haksız avantaj elde edecek” dedi.