Çalışanlarınızın ChatGPT’yi kullanması sizi GDPR’yi ihlal etmiş olabilir mi?


ChatGPT ile ilgili son haberler arasında, nüfusun önemli bir bölümünün ChatGPT gibi üretken yapay zekanın nasıl çalıştığına dair yeterli bilgiye sahip olmadığına dair büyük endişeler var. Bu, potansiyel olarak gizli bilgilerin kasıtsız olarak ifşa edilmesine ve dolayısıyla GDPR’nin ihlaline neden olabilir.

Chatbot’un iş büyümesine ve verimliliğe yardımcı olma potansiyeli, birden çok sektörden kullanıcı sayısında artışa neden oldu. Bununla birlikte, çalışanların dikkatsizce gizli kurumsal bilgileri, hassas hasta ve müşteri verileriyle birlikte chatbot’a gönderdiği durumların ardından endişeler arttı.

Bu nedenle, sağlık ve eğitim gibi tüm alanlarda çalışanların uyumlu kalmasını sağlamak için işletmelerin etkili önlemler alması önemlidir.

İşletmelerin uyum önlemlerini uygulama aciliyeti, Cyberhaven tarafından yakın zamanda yapılan bir araştırmanın, çalışanların ChatGPT’ye kopyalayıp yapıştırdıkları verilerin %11’ini hassas verilerin oluşturduğunu ortaya çıkarmasının ardından geldi. Bir örnekte soruşturma, özel hasta ayrıntılarını chatbot’a giren bir tıp doktorunun ayrıntılarını sağladı ve bunun yansımaları hala bilinmiyor.

Bu, GDPR uyumluluğu ve gizliliği ile ilgili ciddi endişelere yol açar.

Öncelikli endişe, ChatGPT gibi büyük dil modellerinin (LLM’ler) kişisel verileri eğitim için nasıl kullandığı ve daha sonra hattın aşağısına yeniden üretilebileceği etrafında toplanmıştır. Örneğin, bir tıp uzmanı hastanın gizli bilgilerini girmişse, ChatGPT’nin daha sonra söz konusu hastayla ilgili bir sorgu durumunda bu verileri başka bir kullanıcıya verebilme olasılığı var mı?

Bir iş bağlamında kullanıma gelince, benzer endişeler vardır. ChatGPT’yi idari amaçlarla kullanan işletmeler, çalışanlar sohbet robotuna hassas bilgiler girebileceğinden müşterileriyle olan gizlilik sözleşmelerini tehlikeye atıyor olabilir. Aynı şekilde, kodlar ve iş planları gibi ticari sırlar da chatbot’a girilirse ifşa olma riskiyle karşı karşıya kalabilir ve böylece çalışanları sözleşmeden doğan yükümlülüklerini potansiyel olarak ihlal edebilir.

İtalyan veri koruma düzenleyicisinin ChatGPT yasağıyla ilgili haberler çıktığında endişelerim daha da belirginleşti. O zamandan beri, düzenleyici, ChatGPT’nin yeni önlemlere uyması durumunda yasağı kaldıracağını söyledi. yakın zamanda yahoo! Makale, otoritenin yapay zeka sohbet robotundan, aracın çalışması için devam eden veri işlemenin arkasındaki “yöntemleri ve mantığı” kullanıcılara sağlamasını istediğini söyledi.

Ayrıca, kullanıcılara ve kullanıcı olmayanlara “hizmet tarafından yanlış bir şekilde oluşturulan kişisel verilerin düzeltilmesini veya bir düzeltme mümkün değilse silinmesini talep etme” araçları verilmelidir. [and] algoritmalarını çalıştırmak için kişisel verilerinin işlenmesine ‘basit ve erişilebilir bir şekilde’ karşı çıkmak”.

Ancak, öğrenilen verilerin yetersizliği konusundaki endişeleri gidermiyor gibi göründükleri için, bu önlemlerin yeterli olup olmadığından emin değilim. Bunun ışığında, ChatGPT kullanan tüm işletmeler, çalışanlarının GDPR ile uyumlu kalmasını sağlamak için etkili önlemler almalıdır.

Neyin özel ve gizli veri olduğunu açıklığa kavuşturarak ve bu tür hassas bilgileri paylaşmanın yasal sonuçlarını ana hatlarıyla belirterek, bu verilerin sızdırılma riskini büyük ölçüde azaltabilmelisiniz.

Veri uyumluluğu ve güvenlik eğitimine yardımcı olmak için aşağıdaki eyleme geçirilebilir ipuçlarını göz önünde bulundurun:

  • Girdiğiniz herhangi bir şeyin daha sonra kamu malı olarak erişilebilir olabileceğini varsayın;
  • Yazılım kodunu veya dahili verileri girmeyin;
  • AI kullanımını içerecek şekilde gizlilik sözleşmelerini gözden geçirin;
  • Çalışan sözleşmelerinde açık bir madde oluşturun;
  • AI kullanımı hakkında yeterli şirket eğitimi düzenleyin;
  • Bir şirket politikası ve bir çalışan kullanım kılavuzu oluşturun;

Pan-Avrupa sorunu

İtalya’nın ChatGPT deneyimi, Avrupa’daki şirketlerin uyum önlemlerine öncelik verme ihtiyacını vurgulamaktadır.

LLM’ler henüz gelişiminin ilk aşamalarında olduğundan, birçok kişi bunların nasıl işlediğine dair net bir anlayışa sahip olmayabilir, bu da istemeden özel bilgileri gönderme riskini artırır. Dahası, LLM’lerin arayüzleri her zaman GDPR ile uyumlu olmayabilir ve bu da şirket veya müşteri verilerinin tehlikeye atılması durumunda sorumlulukla ilgili yasaların bulanık olmasına yol açar.

ChatGPT’yi uygun eğitim ve dikkat olmadan kullanan işletmeler, bilmeden kendilerini GDPR veri ihlallerine maruz bırakabilir ve bu da önemli para cezalarına, itibarlarının zarar görmesine ve haklarında yasal işlem yapılmasına neden olabilir. Bu nedenle, yeterli eğitim ve düzenleyici önlemler olmaksızın bir işyeri aracı olarak kullanılması tavsiye edilmez.

Şu anda Birleşik Krallık’ta çoğu sektörde veri ihlallerinin en büyük nedenlerinden biri insan hatasıdır. Yapay zeka kurumsal alanda daha sık kullanıldığından, eğitime öncelik vermek önemlidir.

İşletmeler artık kendi işlerinde düzenlemelerin yapılmasını sağlamak ve çalışanları yapay zeka sohbet robotlarının verileri nasıl entegre edip aldığı konusunda eğitmek için harekete geçmelidir. Birleşik Krallık’ın AI düzenlemesine inovasyon yanlısı bir yaklaşımın geliştirilmesi için tartışmalara girmesi de zorunludur.”

Kuruluşlar ve işletmeler, kanunen kişisel bilgileri korumak ve üçüncü şahısların yetkisiz erişimini engellemekle yükümlüdür. Bu yükümlülüğü yerine getiremezlerse ve bir ihlal meydana gelirse, etkilenen bireyler tazminat talep etme hakkına sahiptir.

Richard Forrest hukuk direktörüdür. Hayes Connorveri koruma ihmalinden kaynaklanan veri ifşasını kapsayan uzman bir hukuk firması ve veri ihlali iddiaları mahremiyet ihlalleri, kimlik hırsızlığı ve mali kayıp ile ilgili.



Source link