İtalyan veri koruma otoritesinin ChatGPT kullanımına yönelik ani bir yasak, yapay zeka (AI) ve veri gizliliği uzmanlarını, çığır açan ancak son derece tartışmalı hizmetin kullanımını resmi olarak kısıtlamanın bu koşullar altında mantıklı ve doğru düşünen bir önlem olup olmadığı konusunda ikiye ayırdı. veya bireylerin özgürlükleri için tüyler ürpertici sonuçları olan büyük bir aşırı tepki.
Veri koruma düzenleyicisi Garante per la Protezione dei Dati Personali (GPDP), 31 Mart Cuma günü ChatGPT’nin ABD’deki sahipleri OpenAI’ye karşı emrini yayınladı.
Yetkili, ChatGPT’yi yasa dışı yollardan veri toplamakla suçladı. ChatGPT’nin gizlilik yasalarını ihlal etmeden verileri işlemeye devam etmesinin “mümkün olmadığını” ve eğitim amacıyla veri toplamasını ve işlemesini destekleyen hiçbir yasal dayanak olmadığını iddia etti. GPDP, ChatGPT botunun sağladığı bilgilerin her zaman doğru olmadığını, bunun da yanlış verilerin işlenmekte olduğu anlamına geldiğini ekledi.
Ayrıca GPDP, ChatGPT’nin bir yaş doğrulama mekanizmasından yoksun olduğunu ve bunu yaparak, OpenAI’nin hizmet şartları hizmetin yalnızca 13 yaş ve üstü kullanıcılara yönelik olduğunu iddia etse de, reşit olmayanların yaş ve farkındalığa uygun yanıtlar almasına neden olduğunu söyledi.
İtalyanlar ayrıca hizmette 20 Mart’ta meydana gelen bir veri ihlalini de hesaba kattı. Bu olay, redis-py açık kaynak kitaplığında, aktif kullanıcının sohbet geçmişlerini bazı durumlarda diğer kullanıcılara ifşa eden ve ayrıca dokuz saatlik bir pencerede ChatGPT Plus hizmeti abonelerinin yaklaşık %1,2’sinin ödeme bilgilerini ifşa eden bir hatadan kaynaklandı. Bu veriler, ad ve soyadları, e-posta ve posta adreslerini ve sınırlı kredi kartı verilerini içeriyordu.
Avrupa Birliği (AB) Genel Veri Koruma Yönetmeliği (GDPR) kapsamında, OpenAI’nin Avrupa Ekonomik Alanı’ndaki (EEA) atanmış temsilcisinin, siparişe uymak için uygulanan önlemleri GPDP’ye bildirmek için 20 günü olacak, aksi takdirde €’ya kadar para cezasıyla karşı karşıya kalacak 20 milyon veya dünya çapındaki yıllık cironun %4’ü.
Karar, İtalya’yı ChatGPT’nin kullanımına ilişkin herhangi bir türde yasak veya kısıtlama koyan ilk ülke yapıyor – ancak Çin, İran, Kuzey Kore ve Rusya da dahil olmak üzere birçok ülkede mevcut değil, çünkü OpenAI orada kullanıma sunmadı.
Gizlilik taahhüdü
ChatGPT yaptığı açıklamada, sonuç olarak İtalya’da hizmete erişimi devre dışı bıraktığını, ancak yakında tekrar çevrimiçi olmasını umduğunu söyledi. “İnsanların mahremiyetini korumaya kararlı” olduğunu ve bildiği kadarıyla, GDPR ve diğer gizlilik yasa ve yönetmeliklerine uygun olarak faaliyet gösterdiğini söyledi.
ChatGPT eğitiminde kişisel verilerin kullanımını azaltmak için çalıştıklarını, çünkü sistemin bireyleri değil genel olarak dünyayı öğrenmesini istediğini de sözlerine ekledi.
Sıfırlama zamanı
İtalyan yetkililerin duyurularına son rötuşları yaptığı sıralarda, aralarında Apple’ın kurucu ortağı Steve Wozniak ve giderek kararsızlaşan sosyal medya baronu Elon’un da bulunduğu 1.000’den fazla AI uzmanı ve teknoloji endüstrisindeki diğer isimlerden oluşan bir grup Musk, ChatGPT’nin arkasındaki büyük dil modeli (LLM) gibi yapay zeka modellerinin oluşturulması ve geliştirilmesi konusunda geçici bir moratoryum çağrısı yapan açık bir mektuba isimlerini koydu.
İmzacılar mektuplarında, AI’ları konuşlandırma yarışının kontrolden çıktığını ve insanlığın bu tür sistemlerin gerçekten yararlı etkileri ve yönetilebilir riskleri olup olmayacağını belirlemesine izin vermek için bir ara verilmesi gerektiğini savundu. Endüstri gönüllü olarak geri adım atmazsa, hükümetleri adım atmaya çağırdılar.
Jamf’in stratejiden sorumlu başkan yardımcısı Michael Covington, GPDP’nin kararını benzer gerekçelerle alkışlayanlar arasındaydı. “Düzenleyicilerin ayağa kalktığını ve bireysel mahremiyeti korumak için tasarlanmış yazılı politikaları uyguladığını gördüğümde cesaretleniyorum, bu Jamf’ta temel bir insan hakkı olarak gördüğümüz bir şey” dedi.
“ChatGPT muazzam bir büyüme yaşıyor ve bu büyüme sıfıra yakın korkuluklarla gerçekleşti. OpenAI, veri işleme politikalarının eksikliği ve iyi duyurulmuş veri ihlalleri gibi birkaç sorunu ele aldı. Bu gerçekten yenilikçi teknolojinin daha kontrollü bir şekilde gelişebilmesi için sıfırlamaya zorlamanın değerini görüyorum.
Covington, “Bununla birlikte, sağduyuyu düzenleme ve bir ‘gerçeği’ diğerine dayatma girişimlerini gördüğümde endişeleniyorum” diye ekledi. “JAMF olarak, kullanıcıları veri gizliliği konusunda eğitmeye ve onları üçüncü taraflarla paylaşmak istedikleri veriler üzerinde daha fazla kontrol ve karar verme yetkisine sahip olmaya inanıyoruz.
“Kullanıcıların herhangi bir AI hizmetine çok fazla şey vermesinden korktukları için teknolojiyi kısıtlamak, çalışma yöntemlerimizi dönüştürmek için inanılmaz bir potansiyele sahip olan ChatGPT gibi araçların büyümesini engelleyebilir” dedi.
“Ayrıca, bugün internette pek çok yanlış bilgi var, ancak dünyanın ‘gerçekleri’ nasıl izleyeceğini bilmeden, ifade özgürlüğüne saygı duymalıyız ve buna olgusal yanlışlıklar da dahildir. Hangi yapay zeka motorunun en güvenilir olduğuna pazarın karar vermesine izin verin, ancak özellikle bu heyecan verici teknoloji emekleme aşamasındayken, yanlışlık korkusuyla araçları susturmayın.”
Güvenlik endişeleri daha da kötüleşecek
Abnormal Security’de makine öğrenimi başkanı Dan Shiebler, modeller API’ler ve halka açık internet ile daha yakından entegre hale geldikçe LLM’lerle ilgili güvenlik endişelerinin muhtemelen “önemli ölçüde daha kötü” olacağını söyledi; ChatGPT eklentileri için destek.
Daha fazla bu tür eylemlerin takip edebileceğini tahmin etti. “Genel olarak AB, teknoloji düzenlemesi konusunda oldukça hızlı hareket ettiğini gösterdi – GDPR büyük bir yenilikti – bu nedenle diğer üye ülkelerden ve potansiyel olarak AB’nin kendisinden daha fazla düzenleme tartışması görmeyi bekliyorum” dedi.
Shiebler, yasağın AI’nın gelişimi üzerinde çok fazla bir etkisinin olmasının muhtemel olmadığını, çünkü bunun herhangi bir yargı alanından çok esnek bir şekilde yapılabileceğini söyledi. Ancak, yasaklar veya kısıtlamalar AB veya ABD’ye yayılmaya başlarsa, bu çok daha büyük bir engel olacaktır.
Bununla birlikte, Birleşik Krallık’ın LLM’ler için olası kötü amaçlı kullanım durumlarıyla ilgili endişeleri “kesinlikle” incelemesi gerekirken, benzer bir politika benimsemenin yardımcı olmayacağını söyledi. “Acil bir genel yasağın Birleşik Krallık’ı görüşmeden dışlama olasılığı her şeyden daha fazladır” dedi.
ChatGPT’nin temelini oluşturan LLM’ler hakkında kapsamlı araştırmalar yürüten WithSecure’dan Andrew Patel, İtalya’nın yasağının AI sistemlerinin devam eden gelişimi üzerinde çok az etkisi olacağını ve ayrıca gelecekteki modelleri İtalyanca konuşanlar için önemli ölçüde daha tehlikeli hale getirebileceğini söyleyerek aynı fikirde.
“Bu modelleri eğitmek için kullanılan veri kümeleri zaten çok sayıda İtalyanca örnek içeriyor” dedi. “İtalyan girişini gelecekteki modellere kapatmak, bu tür modellerin İtalyan girdileri için diğerlerinden biraz daha kötü olmasına neden olacaktır. Bu, içinde olmak için harika bir durum değil.”
Bariz aşırı tepki
İtalyan yetkililerin çok ileri gidip gitmediği sorusuna Patel, “Evet, bu aşırı bir tepki” yanıtını verdi.
ChatGPT’yi “doğal” bir teknolojik ilerleme olarak tanımlayan Patel, GPDP’nin sorunu gerçekten İtalyan vatandaşlarının işgalci bir ABD teknoloji şirketiyle etkileşim kurmasıyla ilgili olsaydı, ABD merkezli diğer platformlara karşı benzer eylemlerde bulunacağını söyledi.
“ChatGPT’nin bir ABD şirketi tarafından barındırılması bir faktör olmamalı” dedi. “Yapay zekanın dünyayı ele geçirebileceği endişesi de olmamalı.
Patel, her İtalyan vatandaşının ChatGPT’ye erişimini kısıtlayarak İtalya’nın kendisini önemli bir dezavantaja soktuğunu savundu.
“ChatGPT, yaratıcılığı ve üretkenliği sağlayan kullanışlı bir araçtır” dedi. “İtalya, onu kapatarak, belki de bizim neslimiz için mevcut olan en önemli aracı kesti. Tüm şirketlerin güvenlik endişeleri vardır ve elbette çalışanlara ChatGPT ve benzeri sistemlere şirket açısından hassas veriler sağlamamaları talimatı verilmelidir. [But] bu tür politikalar, ev sahibi ülke tarafından değil, bireysel kuruluşlar tarafından kontrol edilmelidir.”
Rapid7’de baş AI araştırmacısı olan Erick Galinkin, LLM’lerin eğitim verilerini ezberlediğinin yıllardır bilindiğini ve eğitim verilerinden örnekleri yeniden üreten sayısız üretken model örneği olduğunu, bu nedenle ChatGPT’nin kullanıcıları şaşırtmaması gerektiğini söyledi. GPDP.
Nihayetinde, GPDP’nin endişelerinin LLM’lerin gerçek eğitimi ve konuşlandırılmasından çok veri toplamadan kaynaklandığını, bu nedenle endüstrinin gerçekten ele alması gereken şeyin, hassas verilerin onu eğitim verilerine nasıl dönüştürdüğü ve nasıl toplandığı olduğunu söyledi.
“Bender ve diğerlerinin makalelerinde iyi bir şekilde ele aldığı gibi, Stokastik papağanların tehlikeleri üzerinebu modellerin gerçekten de yapay zeka etiği ve yapay zeka güvenlik topluluğu tarafından yıllardır iyi bilinen gerçek gizlilik riskleri var” dedi.
“Diş macununu tabiri caizse tüpün içine geri koyamayız. Bu modelleri ‘yasaklamak’ – bu bağlamda bu terim ne anlama geliyorsa – bu şirketlerin erişimi kısıtlamak için daha fazla hainliği teşvik etmesi ve bu tür modelleri eğitmek için para harcayabilen teknoloji devlerinin ellerinde daha fazla güç toplamasıdır.
“Bunun yerine, hangi verilerin toplandığı, nasıl toplandığı ve modellerin nasıl eğitildiği konusunda daha fazla açıklık aramalıyız” dedi.