Zendesk’ten yeni bir rapor, şirketler için AI araçlarını kullanan şirketler için büyüyen bir sorunun ana hatlarını çiziyor: Birçoğu riskleri yönetmeye hazır değil. AI Trust Report 2025, AI müşteri hizmetine ve desteğine geçerken, şirketlerin sadece% 23’ünün bunu yönetmeye çok hazır olduğunu buluyor.
Rapor, veri gizliliğinden model yanlılığına kadar değişen endişeleri vurgulamaktadır. Ancak temel zorluk güvendir: Müşteriler AI’nın nasıl kullanıldığını anlamadıklarında veya rahat hissetmediklerinde, etkileşim kurma olasılıkları daha düşüktür. Ve şirketlerin çerçeveleri olmadığında, kendilerini yasal, itibar ve operasyonel serpinti.
Uyum devam etmiyor
Hukuk ekipleri için en büyük endişelerden biri AI düzenlemesinin parçalanmış doğasıdır. AB’nin AI Yasası küresel olarak merkez sahne almış olsa da, birçok ülke ve ABD eyaleti kendi çerçevelerini yayınlıyor. Bu, işletmelerin birden fazla, bazen çelişkili kurallara uymaları gerektiği anlamına gelir.
Rapora göre, şirketlerin sadece yüzde 20’sinin üretken AI için olgun bir yönetişim stratejisi var. Bu, çoğu firmanın, genellikle araçlar zaten kullanıldıktan sonra rıza, veri işleme, model gözetim ve açıklanabilirlik süreçleri oluşturmak için uğraşmasına neden olur.
Cisos ve Clos için bu geç aşama katılımı bir sorun olabilir. Yasal incelemeler, sistem tasarımını veya satıcı seçimlerini şekillendirmek için çok geç gelebilir ve düzenleyici bir yanlış adım şansını artırabilir.
Baş hukuk memuru Zendesk, yardım net güvenliğine şunları söyledi: “AI yönetişimimiz, tasarım, şeffaflık ve açıklanabilirlik ve müşteri kontrolü ile gizlilik ve güvenlik gibi, yasal yargı alanları arasında uygulanan temel ilkeler etrafında inşa edilmiştir. Yapay zeka spesifik yönetişim adımları, risklerin belirlenmesini ve azaltılmasını en aza indirgemek için sınırlı hale getirilen, ürün geliştirme sürecimize doğrudan ürün geliştirme sürecimize yerleştiriyoruz.”
AI yeni risk türleri sunar
Araştırmacılar, hukuk ekiplerinin ve CISO’ların anlaması gereken AI’ye özgü birkaç tehdit olduğunu özetliyorlar. Bunlar şunları içerir:
- Kullanıcıların söylemeleri veya yapmamaları gereken bir şey söylemek için AI araçları almaya çalıştıkları jailbreaking
- Saldırganların AI davranışını girdi yoluyla manipüle ettiği hızlı enjeksiyon
- AI’nın yanlış veya fabrikasyon bilgiler ürettiği halüsinasyonlar
- Hassas bilgilerin yapay zeka çıktılarında sona erdiği veri sızıntısı
Bu riskler tipik BT tehditlerinin ötesine geçer. Örneğin, bir AI modeli müşterilere yanlış cevaplar verirse veya kişisel bilgileri sızdırıyorsa, işletme hem yasal iddialar hem de itibar zararıyla karşılaşabilir. Ve eğer bu AI davranışı açıklanamaz veya denetlenemezse, bu kararları savunmak çok zorlaşır.
Müşteriler gözetim bekliyor
Müşteriler dikkat ediyor. Zendesk, müşterilerin yapay zeka ile etkileşime girdiklerinde “saygın, korunmuş ve anlaşılmış” hissettiklerini gösteren araştırmalara atıfta bulunuyor. Bu, şirketlerin basit feragatnamelerin veya onay kutularının ötesine geçmesi gerektiği anlamına gelir.
Müşteriler artık AI’nın ne zaman dahil olduğunu, nasıl çalıştığını ve verileri üzerinde hangi kontrole sahip olduklarını bilmeyi bekliyor. Bu beklentiler karşılanmazsa, şirketler artan karmaşa, müşteri şikayetleri ve hatta sınıf eylemi davaları-özellikle de sağlık veya finans gibi düzenlenmiş endüstrilerde görebiliyorlardı.
Yasal ekipler için, ürün tasarımı, satıcı sözleşmeleri ve iç hesap verebilirlik hakkında yeni sorular ortaya çıkarır. Yapay zeka yanlış gittiğinde riski kime sahip? Bir ajan kusurlu bir AI tavsiyesine güvenirse ne olur? Onlar Clos ve Cisos’un birlikte cevap vermesi gereken iş sorularıdır.
Hukuk Liderleri şimdi ne yapabilir?
Yapay zeka yönetişimi sonradan düşünen şirketler kendilerini riske atıyor. Yasal ekipler için yanıtın proaktif olması gerekir, reaktif değil. Bu, CISOS ile yakın çalışmak anlamına gelir:
- Şeffaflık, adalet veya rızadaki boşluklar için mevcut AI dağıtımlarını denetleyin
- Yasalar geliştikçe adapte olabilecek esnek uyum çerçeveleri oluşturun
- Satıcıların sözleşmeli olarak yönetişim standartlarına bağlı olduğundan emin olun
- Sadece son incelemelere değil, AI ürün planlamasına erken katılın
En önemlisi, işletmenin korkulukları belirlemesine yardımcı olmak anlamına geliyor. Bir müşteri bir AI kararına dava açarsa, şirket bu kararın nasıl verildiğini, kimin incelediğini ve hangi önlemlerin mevcut olduğunu gösterebilmelidir.