Gartner’a göre hukuk ve uyumluluk liderleri, kuruluşlarının altı özel ChatGPT riskine maruz kalma durumunu ve üretken yapay zeka araçlarının sorumlu kurumsal kullanımını sağlamak için hangi korkulukları oluşturmaları gerektiğini ele almalıdır.
Gartner Legal & Compliance Practice’de kıdemli yönetici analisti Ron Friedmann, “ChatGPT ve diğer büyük dil modeli (LLM) araçları tarafından üretilen çıktılar çeşitli risklere eğilimlidir” dedi. “Hukuk ve uyumluluk liderleri, bu sorunların kuruluşları için önemli bir risk oluşturup oluşturmadığını ve hem kuruluş içinde hem de üçüncü ve üçüncü taraflardan oluşan genişletilmiş işletme içinde hangi kontrollerin gerekli olduğunu değerlendirmelidir. Bunun yapılmaması, işletmeleri yasal, itibarla ilgili ve finansal sonuçlara maruz bırakabilir.”
Hukuk ve uyumluluk liderlerinin değerlendirmesi gereken altı ChatGPT riski şunları içerir:
Uydurma ve yanlış cevaplar
ChatGPT ve diğer LLM araçlarıyla ilgili belki de en yaygın sorun, yüzeysel olarak makul olmasına rağmen yanlış bilgi verme eğilimidir.
Friedmann, “ChatGPT, yanlış olan uydurma cevaplar ve var olmayan yasal veya bilimsel alıntılar da dahil olmak üzere ‘halüsinasyonlara’ eğilimlidir” dedi. “Hukuk ve uyumluluk liderleri, çalışanların ChatGPT tarafından üretilen tüm çıktıları kabul edilmeden önce doğruluk, uygunluk ve gerçek yararlılık açısından incelemelerini gerektiren bir kılavuz yayınlamalıdır.”
Veri gizliliği ve gizliliği
Hukuk ve uyumluluk liderleri, ChatGPT’ye girilen herhangi bir bilginin, sohbet geçmişi devre dışı bırakılmadığı takdirde, eğitim veri setinin bir parçası haline gelebileceğinin farkında olmalıdır.
Friedmann, “İstemlerde kullanılan hassas, özel veya gizli bilgiler, kuruluş dışındaki kullanıcılar için yanıtlara dahil edilebilir” dedi. “Yasal ve uyumluluk, ChatGPT kullanımı için bir uyumluluk çerçevesi oluşturmalı ve hassas kurumsal veya kişisel verilerin herkese açık LLM araçlarına girilmesini açıkça yasaklamalıdır.”
Model ve çıktı yanlılığı
OpenAI’nin ChatGPT’de önyargı ve ayrımcılığı en aza indirme çabalarına rağmen, bu sorunların bilinen vakaları zaten meydana geldi ve OpenAI ve diğerlerinin bu riskleri en aza indirmeye yönelik devam eden aktif çabalarına rağmen muhtemelen devam edecek.
Friedmann, “Önyargıyı tamamen ortadan kaldırmak muhtemelen imkansızdır, ancak yasal ve uyumluluğun yapay zeka yanlılığını yöneten yasaların üstünde kalması ve kılavuzlarının uyumlu olduğundan emin olması gerekir” dedi. “Bu, çıktının güvenilir olduğundan emin olmak için konunun uzmanlarıyla ve veri kalitesi kontrollerini ayarlamak için denetim ve teknoloji işlevleriyle çalışmayı içerebilir.”
Fikri mülkiyet (IP) ve telif hakkı riskleri
Özellikle ChatGPT, muhtemelen telif hakkıyla korunan materyalleri içeren büyük miktarda internet verisi üzerinde eğitilmiştir. Bu nedenle, çıktıları telif hakkı veya IP korumalarını ihlal etme potansiyeline sahiptir.
Friedmann, “ChatGPT, çıktısının nasıl üretildiğine ilişkin kaynak referansları veya açıklamalar sunmuyor” dedi. “Hukuk ve uyumluluk liderleri, ChatGPT çıktısı için geçerli olan ve kullanıcıların ürettikleri çıktıları telif hakkı veya IP haklarını ihlal etmediğinden emin olmak için incelemelerini gerektiren telif hakkı yasasında yapılan değişiklikleri yakından takip etmelidir.”
Siber dolandırıcılık riskleri
Kötü aktörler, geniş ölçekte yanlış bilgiler (ör. sahte incelemeler) oluşturmak için zaten ChatGPT’yi kötüye kullanıyor.
Ayrıca, ChatGPT de dahil olmak üzere LLM modellerini kullanan uygulamalar, modeli kötü amaçlı yazılım kodları yazma veya kimlik avı geliştirme gibi tasarlanmamış görevleri gerçekleştirmesi için kandırmak üzere kötü niyetli düşman istemlerinin kullanıldığı bir bilgisayar korsanlığı tekniği olan hızlı enjeksiyona karşı da hassastır. bilinen sitelere benzeyen siteler.
Friedmann, “Hukuk ve uyumluluk liderleri, bu konuda şirket siber güvenlik personeline notlar verilip verilmeyeceğini veya ne zaman gönderileceğini araştırmak için siber risk sahipleriyle koordinasyon sağlamalıdır” diye ekledi. “Ayrıca, bilgilerinin kalitesini doğrulamak için durum tespiti kaynaklarının denetimini yapmalıdırlar.”
Tüketiciyi koruma riskleri
ChatGPT kullanımını tüketicilere ifşa etmeyen (örneğin, bir müşteri destek sohbet botu biçiminde) işletmeler, müşterilerinin güvenini kaybetme ve çeşitli yasalar uyarınca haksız uygulamalarla suçlanma riskiyle karşı karşıyadır.
Örneğin, Kaliforniya sohbet robotu yasası, belirli tüketici etkileşimlerinde kuruluşların bir tüketicinin bir bot ile iletişim kurduğunu açık ve dikkat çekici bir şekilde ifşa etmesini zorunlu kılar.
Friedmann, “Hukuk ve uyumluluk liderlerinin, kuruluşlarının ChatGPT kullanımının ilgili tüm düzenlemelere ve yasalara uygun olduğundan ve müşterilere uygun açıklamaların yapıldığından emin olması gerekiyor” dedi.