Çalışanların ChatGPT yapay zeka modeline hassas bilgiler girebileceğine dair endişelerin ortasında, bir veri gizliliği sağlayıcısı, şirketlerin müşteri ve çalışan verilerini yanlışlıkla ifşa etme riskini azaltmayı amaçlayan bir düzeltme aracı başlattı.
Private AI’nin yeni PrivateGPT platformu, OpenAI’nin yüksek profilli sohbet botu ile entegre olarak, kullanıcılar ChatGPT istemlerine girerken gerçek zamanlı olarak 50’den fazla türde kişisel olarak tanımlanabilir bilgiyi (PII) otomatik olarak yeniden düzenler.
PrivateGPT, sohbet sürecinin ortasında oturur ve ChatGPT’ye göndermeden önce sağlık verilerinden ve kredi kartı bilgilerinden iletişim verilerine, doğum tarihlerine ve Sosyal Güvenlik numaralarına kadar her şeyi kullanıcı istemlerinden çıkarır. PrivateGPT yaratıcısı Private AI tarafından bu hafta yapılan bir açıklamaya göre, ChatGPT yanıt verdiğinde, PrivateGPT, deneyimi kullanıcılar için daha sorunsuz hale getirmek için yanıt içindeki PII’yi yeniden dolduruyor.
Private AI’ın kurucu ortağı ve CEO’su Patricia Thaine yaptığı açıklamada, “Üretken yapay zeka, yalnızca kullanımı güvenli hale getirmek için doğru araçlar varsa, kuruluşlarımızda ve toplumlarımızda bir alana sahip olacaktır.” “Kişisel bilgileri üçüncü taraf kuruluşlarla paylaşarak, [companies] Bu verilerin nasıl depolandığı ve kullanıldığı üzerindeki kontrolü kaybederek kendilerini ciddi uyumluluk ihlalleri riskine sokar.”
Gizlilik Riskleri ve ChatGPT
Bir kullanıcı ChatGPT istemine her veri girdiğinde, bilgi, algoritmanın yeni neslini eğitmek için kullanılan hizmetin LLM veri kümesine alınır. Endişe, hizmet için uygun veri güvenliğinin olmaması durumunda bilgilerin daha sonraki bir tarihte alınabilmesidir.
“Yapay zekanın diğer sorgular için kaynak malzeme olarak tüm girdileri tüketmesi, bir şirketin verilerinin tam olarak nasıl ve nerede son bulacağına dair kara bir kara kutu oluşturuyor ve bugün çoğu şirketin kalbinde yer alan sıkı veri güvenliğini tamamen alt üst ediyor” uyarısında bulunuyor. Rezonate’in kurucu ortağı ve CEO’su Roy Akerman.
Bu veri açığa çıkma riski teorik değildir, not edilmelidir: Mart ayında OpenAI, Reddit’te özel sohbetlerin ekran görüntüleri görünmeye başladıktan sonra kullanıcıların sohbet geçmişlerini yayınlayan bir hatayı kabul etti.
OpenAI, kullanıcıları ChatGPT kullanırken seçici olmaları konusunda uyardı: “Geçmişinizden belirli istemleri silemiyoruz. Lütfen konuşmalarınızda hassas bilgileri paylaşmayın.”
Hizmet baş döndürücü bir oranda benimsense bile (rekor sürede, lansmandan sadece iki ay sonra 100 milyon kullanıcıya ulaştı) çalışanlar, ChatGPT söz konusu olduğunda gizliliğin nasıl ele alınacağını öğrenmeye devam ediyor.
Yakın tarihli bir raporda, veri güvenliği hizmeti Cyberhaven, müşteri şirketlerindeki 1,6 milyon çalışanın %4,2’sinden gizli bilgiler, müşteri verileri, kaynak kodu ve yasal düzenlemelere tabi bilgiler dahil olmak üzere hassas verilerin ChatGPT’ye girilmesine yönelik istekleri tespit etti ve engelledi.
Bu olgunun somut bir örneği olarak, ayın başlarında Samsung mühendislerinin ChatGPT’ye üç önemli sızıntı yaptığı ortaya çıktı: yarı iletken bir veri tabanından hatalı kaynak kodu, belirli Samsung ekipmanlarındaki kusurları belirleme kodu ve dahili bir tutanak. toplantı.
Akerman, “Yapay zeka dil modellerinin geniş çapta benimsenmesi, kod oluşturma ve analiz teslimini hızlandırmanın bir yolu olarak geniş çapta kabul görüyor” diyor. “Yine de veri sızıntısı çoğunlukla bu hızın, verimliliğin ve kalitenin bir yan ürünüdür. Dünya çapındaki geliştiriciler bu teknolojileri kullanmak konusunda endişelidir, ancak mühendislik yönetiminin yapay zekanın yapması ve yapmaması gerekenlere ilişkin rehberliği henüz uygulamaya konulmamıştır. veri gizliliğine saygı gösterilmesini ve sürdürülmesini sağlamak için kullanın.”