Hukuk, uyumluluk ve gizlilik liderleri, GenAI’nın hızla benimsenmesi konusunda endişeli


Gartner’a göre, GenAI’nın hızla benimsenmesi hukuk, uyumluluk ve gizlilik liderleri için önümüzdeki iki yılın en önemli konusu olacak.

GenAI benimseme endişesi

Ankete katılanların %70’i, GenAI’nın hızla benimsenmesinin kendileri için en büyük endişe kaynağı olduğunu bildirdi.

Gartner Hukuk, Risk ve Uyumluluk Uygulaması araştırma direktörü Stuart Strome, “Yetenek ve kullanılabilirlikteki artışlar, şirketlerin GenAI’yi hızlı ve yaygın bir şekilde benimsemesine yol açtı” dedi. “Yapay zeka düzenlemeleri hâlâ geliştirilme aşamasındayken belirsizlikler ve öngörülemeyen riskler çok fazla. İşletmelerin bu güçlü yeni teknolojinin etik ve yasal kullanımını sağlamak için bu zorluklarla mücadele etmesi gerekecek.”

Gartner uzmanları hukuk, uyumluluk ve gizlilik liderlerinin ele alması gereken dört temel alan belirledi.

Temel risklere ilişkin sınırlı görünürlük

Benimseme kolaylığı, yaygın uygulanabilirlik ve GenAI araçlarının bir dizi farklı iş görevini yerine getirme yeteneği, güvence ekiplerinin yeni risklere ilişkin görünürlüğünün sınırlı olacağı anlamına geliyor.

Strome, “Bu riskleri tespit etmek ve yönetmek için yeni süreçlerin uygulamaya konması zaman alacak ve bu arada işletmeleri açığa çıkaracak” dedi. “Hukuk liderleri, yeni süreçler uygulanıncaya kadar önceden var olan, köklü ve geniş çapta dağıtılmış risk izleme ve yönetim uygulamalarını uyarlamalıdır. Örneğin, GenAI kullanımını izlemek için veri envanterlerini ve gizlilik etki değerlendirmelerinin işleme faaliyetlerine ilişkin kayıtları değiştirebilirler.”

Çalışanların kabul edilebilir kullanıma ilişkin netlik eksikliği

Çalışanlar, teknolojiyi yöneten kurallara aşina olmamaları nedeniyle, teknolojinin kabul edilebilir kullanımının ne olduğu konusunda netlikten yoksun kalacaklardır. Hukuk liderleri, politikalarda ve kılavuzlarda kabul edilebilir kullanım örneklerini savunurken, “kaçınılması gereken” sonuçlar üzerinde fikir birliği oluşturmaya çalışmalı ve bu sonuçların olasılığını en aza indirecek kontroller oluşturmalı.

Strome, “Hukuk liderlerinin GenAI çıktısı için zorunlu bir insan incelemesi başlatması, kurumsal IP veya kişisel bilgilerin ChatGPT gibi kamuya açık araçlara girilmesini yasaklaması ve halka açık herhangi bir çıktıda GenAI kaynağının açık bir şekilde belirtilmesini gerektiren politikalar geliştirmesi gerekiyor” dedi. “Politika rehberliğine yasaklı ve kabul edilebilir GenAI kullanımına ilişkin gerçek dünyadan örnekler eklemek ve politikalar güncellendiğinde çalışanları uyarmak önemlidir. Ayrıca, GenAI araçlarında kullanıcıların yasaklı durumlar için araçları kullanmadıklarını kanıtlamalarını gerektiren açılır pencereler gibi gömülü kontroller geliştirmek için BT ile birlikte çalışmayı düşünün.”

Yapay zeka yönetişimine duyulan ihtiyaç

GenAI araçları hızla her yerde bulunur hale geldikçe, olumsuz sonuçlara ilişkin zayıf sorumluluk, kabul edilemez yasal ve gizlilik riskleri yaratabilir. Ancak çoğu şirket için yapay zeka yönetişimi, mevcut işlevsel organizasyon yapılarına tam olarak uymayacaktır ve ihtiyaç duyulan uzmanlık, işletmenin geneline dağılmış olabilir, hatta hiç mevcut olmayabilir. Hukuk liderlerinin, GenAI için onaylar, politika yönetimi, risk yönetimi ve eğitime ilişkin rolleri ve sorumlulukları açıkça belgelemeleri gerekir.

Strome, “Hukuk liderleri, işlevler arası bir yönlendirme komitesi kurulmasını veya mevcut bir komitenin görev alanının değiştirilmesini, kullanım ilkeleri ve standartlarının oluşturulmasını ve yapay zeka yönetişimiyle ilgili rol ve sorumlulukların uyumlu hale getirilmesini savunmalıdır” dedi.

GenAI araçları tekrarlanan yasal görevlere yardımcı olma potansiyeline sahiptir

GenAI’nin doğal dil çıktısı üretme kapasitesi, hukuk ekipleri için çeşitli departman kullanımlarına uygundur. Bu, avukatların düşük değerli işlere harcadığı zamanı en aza indirme potansiyeline sahiptir. GenAI araçları, yasal araştırma yürütmek, sözleşme taslakları hazırlamak ve mevzuat özetleri oluşturmak gibi zaman alıcı, tekrarlayan görevlere yardımcı olma potansiyeline sahip olsa da, çıktıları sıklıkla hatalar içeriyor; hukuk liderleri, çıktıların doğruluk açısından gözden geçirilmesini sağlamalıdır.

Hukuk liderleri, yazılı çıktıların üretilmesini içeren düşük riskli, tekrarlayan, zaman alıcı görevler için GenAI otomasyonunu veya güçlendirmesini test etmek amacıyla dahili bir pilot program geliştirmelidir. Ayrıca harcanan zaman ve çıktı kalitesine ilişkin pilot sonuçları, geleneksel olarak üretilen sonuçlarla karşılaştırmalıdırlar.

“GenAI’nin işletmeler için kullanım kolaylığı ve uygulama esnekliği göz önüne alındığında, bu yıl hukuk liderleri için en çok başvurulan riskin GenAI’nin hızlı benimsenmesi olması şaşırtıcı değil, ancak hukuk liderleri sadece kullanımını kısıtlayan acımasız politikalar oluşturarak tepki vermemeli” dedi. Strome.

“Bu yaklaşım muhtemelen iş rekabetini etkileyecek ve çalışanları kişisel cihazlarında GenAI araçlarını yasadışı bir şekilde kullanmaya teşvik edecek. İlerici hukuk liderleri, GenAI’nin değer yaratabileceğini kabul ediyor ve çalışanları ve iş ortaklarını yüksek fayda, düşük riskli kullanım senaryolarına yönlendiren yönetişim ve politikalar geliştirmek için kuruluşlarındaki diğer kişilerle birlikte çalışıyorlar,” diye bitirdi Strome.



Source link