Bu blogda, kuruluşlar içindeki AI riskinden kimin sorumlu olduğunu ve sorumlu olması gerektiğini ve bu önemli sorumluluğu almaları için nasıl güçlendirileceğini araştıracağız.
AI Güvenlik Riskleri
“AI riski” gerçekten ne anlama geliyor? AI Güvenlik riskleri, ancak bunlarla sınırlı olmamak üzere, aşağıdakileri içeren çok çeşitli olasılıklara atıfta bulunabilir:
- Arka uç üretim sistemleri gibi dahili kaynaklara erişmek için AI motorunu kullanma
- AI motorunun gizli bilgileri sızdırmasını sağlamak
- Bir AI motorunu yanlış bilgilendirmeye ikna etmek
Bu riskler olabilir En kıdemli güvenlik liderine ait olun, ancak güvenlik riskleri gibi diğer AI riskleri ne olacak?
AI Güvenlik Riskleri
AI riskleri sadece güvenlik risklerini değil, güvenlik risklerini de içermektedir. Bunlar daha çok AI motoru gibi etik ve marka itibar kategorisine girer:
- Uygunsuz veya yaygın bir şey söylemek
- Birine başkasına nasıl zarar vereceğini öğretmek
- Hayatlarıyla ilgili kişisel detayları kullanarak başka bir kişiyi taklit etmek
Yapay zeka güvenliği söz konusu olduğunda, bu riskler için mülkiyetin ürün, yasal, gizlilik, halkla ilişkiler ve pazarlama dahil olmak üzere birçok alanı kapsadığı zorlayıcı bir durum yapabilirsiniz.
Evet, AI güvenliğinin farklı unsurları bu takımların her birinin görüşüne girebilir, ancak hepsi birlikte sahip olamazlar. Aksi takdirde, hiç kimse onlara sahip olmayacak ve hiçbir şey yapılmayacak – tüm bu liderleri hızlı kararlar için bir araya getirme konusunda iyi şanslar.
Gizlilik ekibinin rolü
Gördüğüm yaygın bir çözüm, gizlilik ekibinin AI risklerine sahip olmasıdır. AI modellerinizin kişisel olarak tanımlanabilir bilgiler (PII), gizlilik kişi, grup veya ekip ile ilgilenmesi önemli değil, veri kullanımı için satıcıları ve yazılım sistemlerini değerlendirmek için zaten donanımlı ve genellikle hangi verilerin aktığı ve Nereye.
Gizlilik, yapay zeka risklerini yönetme konusunda süreçler oluşturmak ve satıcıları işe almak için güçlü bir savunucudur. Ne yazık ki, tek başına gizlilik ekibi çok daha büyük resmi yönetemez.
Bir AI Risk Konseyi Kurulması
Yalnızca gizlilik görüşünün ötesine geçen daha büyük sorular ve kararlar ne olacak? Kimin sorumluluğu karmaşık soruları cevaplamak gibi:
- AI modelinin izleyicileri kimlerdir?
- AI güvenlik riskini nasıl tanımlarız? “Güvensiz” bir çıktı belirleyen korkuluklar nelerdir?
- Bir LLM etkileşiminin yanlış gitmesinin yasal sonuçları nelerdir ve nasıl hazırlanabiliriz?
- AI modelimizi kamuoyuna doğru bir şekilde temsil etmenin en iyi yolu nedir?
En iyi uygulama olmalı Veri Koruma Görevlisi veya gizlilikten sorumlu üst düzey yetkili tarafından yönetilen ilgili departman başkanlarından oluşan bir AI Risk Konseyi oluşturulması.
Hala yönetici imzalama veya geri alım gerektiren kararlar olacaktır. Bu durumlarda, konsey, şirketin kullanımı ve uygulanabilir AI gelişimi konusundaki daha büyük şirket kararlarına karar vermek ve onaylamak için düzenli olarak toplanmalıdır. Konsey, ilgili her perspektifin konuşmanın bir parçası olmasını sağlar ve riski yönetme konusundaki yanlış adımları ideal olarak sınırlar.
Bunun gibi bir konsey oluşturmanın ve toplanmanın söylenenden daha kolay olabileceğini kabul etmek istiyorum. AI hakkında olduğumuz gibi düşünüyorsanız, bunun hem bir tehdit hem de bir fırsat olduğunu biliyorsunuz. Bu zaten C-suite radarında bir şey, o zaman neden kodlamıyorsunuz? Zorluk seviyesi bir dizi faktöre bağlı olacaktır, ancak sonunda, kuruluşunuzdaki en kapsamlı AI risk yönetimini sunmanın hala buna değer olduğuna inanıyorum.
AI riskini yönetmeye başlayın
Bu fikirler teoride iyi geliyorsa, ancak AI riskini dahili olarak yönetme fikri hala göz korkutucu ise, yalnız değilsiniz. Herhangi bir organizasyondaki AI risklerinin devasa kapsamını nereden başlayacağını ve gerçekten kavramak genellikle zordur. HackerOne’da, her kuruluşun farklı olduğunu ve bu nedenle farklı AI riskleri olduğunu biliyoruz. Kuruluşunuzdaki AI güvenlik ve güvenlik risklerinin nasıl yönetileceği hakkında daha fazla bilgi edinmek için e -Kitabımızı indirin: AI’da etik ve güvenlik risklerini yönetme nihai kılavuzu.