Generative AI: Veri gizliliği, yedekleme ve uyumluluk


Üretken veya konuşmaya dayalı yapay zeka (AI) araçları, OpenAI’nin ChatGPT’si ve Google’ın Bard’ı gibi uygulamaların sorgulara veya istemlere insan benzeri yanıtlar oluşturması nedeniyle bazı tartışmaların yanı sıra çok fazla dikkat çekti.

Bu uygulamalar, büyük içerik veritabanlarından yararlanır ve fikri mülkiyet, gizlilik ve güvenlikle ilgili soruları gündeme getirir. Bu yazıda, sohbet robotlarının nasıl çalıştığına, veri gizliliği ve uyumluluğuna yönelik risklere ve oluşturulan içeriğin yedekleme açısından nerede durduğuna bakıyoruz.

Daha doğru bir şekilde “üretken yapay zeka” olarak adlandırılan bu araçlar, insan benzeri yanıtlar oluşturmak için büyük dil modellerinden yararlanır (kutuya bakın). OpenAI’nin geniş dil modeli, Generative Pre-trained Transformer’dır (veya GPT); Google Bard, Diyalog Uygulamaları için Dil Modeli’ni (LaMDA) kullanır.

Ancak, bu hizmetlerin hızlı büyümesi BT uzmanları arasında endişe yarattı. VigiTrust’un kurucusu Mathieu Gorge’a göre, yakın tarihli bir araştırma projesinde, görüştüğü 15 baş bilgi güvenliği görevlisinin tümü, üretici yapay zekadan bir endişe olarak bahsetti.

Gorge, “En ciddi endişeler, üretken yapay zeka kullanırken IP sızıntısı ve gizliliğidir” diyor ve web veya uygulama tabanlı yapay zeka araçlarının kullanım kolaylığının, başka bir gölge BT biçimi oluşturma riskini taşıdığını ekliyor.

Çevrimiçi hizmetler olarak üretken yapay zeka uygulamaları, verileri internet üzerinden iletir ve işler. Ana hizmetler, verileri fiziksel olarak nerede depoladıklarını ayrıntılı olarak açıklamaz.

Freeform Dynamics’ten Tony Lock, “Bu hizmetlerin her birinin farklı hüküm ve koşulları vardır ve bunları çok dikkatli bir şekilde okumanız gerekir” diyor. “Girişlerinizi kullanıyorlar mı, yani bir dahaki sefere oturum açtığınızda kim olduğunuzu ve sorgularınızı nasıl ifade etmeyi sevdiğinizi biliyorlar mı? Muhtemelen bu bilgilerin bir kısmını saklıyorlar. Bazıları eski verileri kullandığından çoğu şey sistemlere bağlıdır [to answer queries] ve diğerleri dışarı çıkıp bulabildikleri her şeye bakıyorlar.

Chatbot’lar ve veri gizliliği

Bununla birlikte, bu hizmetlerin veri gizliliği politikaları vardır. Örneğin ChatGPT, kullanıcıların görüşmeleri birer birer (30 günlük bir sınır içinde) silmesine, tüm verilerini silmesine veya tüm hesaplarını silmesine olanak tanır.

Ve hizmet, kötüye kullanımı önlemek için sorguları izler. ChatGPT, hizmetlerini iyileştirmek için kullanıcı verilerini saklar, ancak kullanıcılar devre dışı bırakabilir. Bu arada Google, Bard’ın hizmeti iyileştirmek ve Google’ın makine öğrenimi hizmetlerini iyileştirmek için “konuşmalarınızı, konumunuzu, geri bildirimlerinizi ve kullanım bilgilerinizi” topladığını belirtiyor. Çevrimiçi söylentilere rağmen, Gmail veya diğer Google hizmet hesaplarındaki kişisel bilgilere erişmez.

Bu önlemlere rağmen, chatbot hizmetleri işletmeler için bir dizi zorluk teşkil etmektedir. Modelleri için herkese açık verileri kullanırlar, ancak kurumsal tabanlı makine öğrenimi ve yapay zekanın aksine, firmaların eğitim verileri üzerinde hiçbir kontrolü veya görünürlüğü yoktur. Bir çalışanın Bard veya ChatGPT ile fikri mülkiyeti veya sağlık veya mali kayıtlar gibi kişisel olarak tanımlanabilir verileri paylaşmasını engellemenin otomatik bir yolu da yoktur.

Gorge, “Onu nerede ve ne zaman kullanacağınıza ilişkin bir politikanız ve kurallarınız olması gerekir” diyor. Pazarlama materyalleri oluşturmak için üretken bir AI aracı kullanmak kabul edilebilir, ancak sözleşmeler gibi hassas ve kritik belgeler için kullanılmamalıdır.

PA Consulting veri güvenliği uzmanı Richard Watson-Bruhn, ayrıca verilerin nerede tutulacağını ve modelde nelerin kullanılacağını tanımlamanız gerektiğini söylüyor.

“Modelde sohbet benzeri içerik kullanıyor olabilirsiniz veya kayıtlar için ayrı tutuyor olabilirsiniz” diyor. “Örneğin Chat GPT, önceki sohbetleri kaydeder ve genellikle bunları model sonuçlarını iyileştirmek için kullanır. Bununla birlikte, modele dahil edilmemiş olsalar bile, sohbetleri geçici olarak tutmak için önemli uygunluk nedenleri de olabilir.”

Chatbot’lar ve uyumluluk

Herkese açık chatbot hizmetlerinin kullanımı da bir dizi uyumluluk sorusunu gündeme getirir. Firmalar, üretken yapay zeka ile müşteri verilerini kullanmak istiyorsa, veri işlemenin GDPR ile uyumlu olmasını sağlamaları gerekecektir. Dahili olarak çalıştırılan sistemler için bu onayların alınması mümkündür.

Herkese açık sohbet robotları için bu neredeyse kesinlikle imkansız, bu da uzmanları kişisel verilerin paylaşılmasına ve hatta devlet yasaklarına karşı tavsiyelerde bulunmaya sevk ediyor.

Bunlar, GDPR’ye uyumsuzluk nedeniyle İtalya’daki DPA geçici yasağında (artık kaldırıldı) ve Samsung’un ChatGPT aracını kullanırken maruz kaldığı güvenlik ihlalleri gibi olaylarda görüldü. Güvenlik ve mahremiyet sorumluları, yapay zeka kullanımının ticari kullanımı, riskleri ve uyumluluk gereklilikleri hakkındaki değerlendirmelere ve sorulara çekiliyor.

İşletmeler, müşterileri etkileyen kararlar almak için üretken yapay zekayı kullanırsa başka bir uyumluluk sorunu ortaya çıkar. Düzenleyiciler, yapay zeka veya makine öğrenimi sistemleri tarafından alınan kararlara daha yakından bakıyor ve bunların makul gerekçelerle, önyargı ve ayrımcılık olmaksızın alındığını görmek isteyecekler.

Şirket içi teknoloji için, kararların kayıtlarını tutmak kolay olmalı ve firmalar ayrıca modelleri eğitmek için kullanılan verilerin ayrıntılarını da kaydetmelidir. Bunların hiçbiri genel sohbet robotlarıyla mümkün değildir. Ayrıca, üretken bir yapay zeka sisteminin, görünüşte benzer sorgulara dayalı olarak farklı kararlar alması mümkündür – dil modelleri, bir insan analist için farklı kelimeleri veya tümcecikleri farklı şekillerde yorumlayabilir – ve eğer eğitim verileri veya büyük dil modeli değişirse, bu aynı zamanda sonuçları etkiler.

Bu, firmaların üretici yapay zeka sistemleri tarafından alınan kararları açıklamasını ve bunları gerekçelendirmesini zorlaştırıyor.

Pure Storage’da Avrupa’dan sorumlu saha baş teknoloji sorumlusu Patrick Smith, “Sorunlardan biri tekrarlanabilirlik veya tekrarlanabilirliğin olmamasıdır” diyor. “Aynı sorguları bu AI araçlarından birine koyarsanız, aynı yanıtı alır mısınız? Eğitim verilerini sürekli olarak güncelliyorlarsa yapmayacağınızdan şüpheleniyorum. Kendi sistemlerinize koyabileceğiniz araçlara bakarsanız, eğitim verilerini herhangi bir noktada açıkça kilitleyebilirsiniz.”

Chatbot’lar ve yedekleme

Bu, kuruluşların chatbot verilerini nasıl yedeklediği veya bunun mümkün olup olmadığı sorusunu gündeme getirir. ChatGPT gibi hizmetler, sorguları 30 gün boyunca kaydeder ve sorguları ve yanıtları dışa aktarmak mümkündür. Ancak bir kez daha, bunu yapmak hizmeti kullanan kişiye düşüyor – büyük ölçüde deneysel hizmetler için kurumsal düzeyde otomatikleştirilmiş yedekleme ve uyumluluk araçları henüz yok – ve eğitim verilerinin anlık görüntüsünü almanın bir yolu yok herhangi bir sorgu için (kutuya bakın).

Bu, CIO’lar ve baş veri görevlileri üretken yapay zeka ile deneyler yapmak isteyecek olsa da, teknolojinin ana akım kurumsal kullanım için yeterince olgunlaşmadan önce kat etmesi gereken daha çok yol olduğunu gösteriyor.



Source link