Bu yardımda net güvenlik röportajında, Brooke Johnson, baş hukuk müşaviri ve İK ve Güvenlik SVP’si Ivanti, AI yönetişimindeki yasal sorumlulukları araştırarak, işlevler arası işbirliğinin riski hafifletirken ve uyumluluğu sağlarken güvenli, etik yapay zeka kullanımını nasıl sağladığını vurgulamaktadır.
Yasal ve yönetişim perspektifinden bakıldığında, yönetilmeyen AI kullanımının en büyük riskleri nelerdir?
Temel riskler teknoloji, etik ve hukukun kesişiminde yatmaktadır. GENAI Tools, güçlü olsa da, veri gizliliği, önyargı, güvenlik ve etik gibi alanlarda zorluklar getirir. Örneğin işe alım al. Genai destekli bir işe alım aracı, kusurlu veya önyargılı eğitim verilerine dayalı kararlar alırsa, ayrımcı sonuçlar riski hem ciddi hem de olasıdır. Bu araçların nasıl işlediğine dair şeffaflık olmadan, şirketler tam olarak anlayamayacakları sonuçlar için sorumluluk riskiyle karşı karşıya kalırlar.
Daha sonra, bu riskleri ele almak sadece BT ekiplerine bırakılamaz. Yasal, başından itibaren sorumlu entegrasyonu şekillendirmek için AI yönetişim stratejisinin ön saflarında olmalıdır.
Yasal ekipler, yeniliği bastırmayan net, uygulanabilir korkuluklar yaratmak için İK, BT ve güvenlik ile nasıl çalışmalıdır?
Başarılı AI yönetişimi sorumlu yeniliği sağlamakla ilgilidir. Riske çapraz fonksiyonel, organizasyon çapında bir yaklaşım, bunu başarmanın anahtarıdır. Ivanti olarak, geleneksel olarak yasal, İK, BT ve güvenlik gibi sessiz departmanların ortak hedefler etrafında bir araya geldiğinde, sonucun sadece uyumluluktan daha fazlası olduğunu gördük; Stratejik ivme.
Bu tür bir hizalama yaratmak kasıtlı tasarım gerektirir. Departman sınırlarını aşan ortak hedefleri tanımlamaya başlayın. Hem fonksiyonel uzmanlık hem de görevlerinin ötesinde düşünme yetenekleri için ekip üyelerini seçin. Sadece bireysel faaliyetleri değil, kolektif sonuçları ölçen metrikler geliştirin.
Kritik olarak, bu yaklaşım geniş bir iş zihniyeti ile liderlik gerektirir: uyumluluğu ve riski engelleyiciler olarak değil, ilerleme sağlayıcılar olarak gören profesyoneller. Bu yerinde, inovasyon güvenli bir şekilde ölçeklenebilir.
Özellikle GitHub Copilot, ChatGPT veya kod oluşturma sistemleri gibi araçlarla, teknik ekiplerde AI’da kötüye kullanımı veya aşırı güvenin önlenmesinde yasal rol nedir?
Yetkisiz AI kullanımını yasaklamak caziptir. Bununla birlikte, bu kısa görüşlüdür-özellikle AI benimseme arttığında. Araştırmamız, BT çalışanlarının% 74’ünün şu anda Gen AI araçlarını kullandığını ve yine de endişe verici bir şekilde, neredeyse üçte birinin yönetimini söylemeden yaptığını göstermektedir.
Kural kırıcıları kovalamak yerine, hukuk ekipleri yönetilen etkinliğe doğru kaymaya öncülük etmelidir. AI’nın zaten kullanımda olduğunu ve proaktif olarak nerede ve nasıl güvenli bir şekilde yapılabileceğini tanımlayın. Ivanti’de, çapraz fonksiyonel AI Yönetişim Konseyi (AIGC), çalışanların araçları inceleyerek ve kabul edilebilir kullanım durumlarını netleştirmek için rehberliği değerlendirerek bu gri alanlarda gezinmesini desteklemektedir.
Eğitim de kritiktir. Hukuk ekipleri farklı AI araçlarının güvenlik sonuçları hakkında net ve pratik eğitim sağlamaya ve kısıtlamaların neden var olduğunu açıklamaya öncülük ettiğinde, çalışanlar işlerini verimli ve güvenli bir şekilde yapma yetkisine sahiptir.
Şirketler AI politikalarının sadece yazılı değil, departmanlar ve coğrafyalar arasında faaliyete geçmesini nasıl sağlayabilir?
AI yönetişimi yalnızca eyleme geçirilebilirse çalışır. Birincisi, yaptırım uygulanmış olsun ya da olmasın, AI kullanımının kuruluşunuzda büyük olasılıkla gerçekleştiğini kabul edin. Hangi araçların kullanıldığını ve hangilerinin standartlarınızı karşıladığını anlamak için değerlendirmeler yapın.
Ardından, AI’nın ne zaman ve nasıl uygulanabileceğine dair açık, pragmatik politikalar oluşturun. Takımları, erişimi kolay ve güvence altına alarak, onaylanmamış alternatiflere güvenmeyi azaltarak veteriner platformlarla donatın.
Eğitim esastır. İnsanlar sadece kısıtlamaların değil, AI korkuluklarının arkasındaki mantığı anladıklarında, onları takip etme olasılıkları daha yüksektir.
Son olarak, yapay zeka yönetişimi yaşam süreci olarak ele alın. Araçlar ve tehditler gelişir ve politikalarınız da olmalıdır. Fonksiyonel işbirliği, departmanlar ve coğrafi sınırlar arasında sürekli iyileştirme ve operasyonel tutarlılık sağlar.
Proaktif şirketlerin, tepki vermeyi beklemek yerine düzenlemeden önce iç AI yönetişimini nasıl şekillendirmesi gerektiğine dair görüşünüz nedir?
İç AI yönetişiminin kurulmasında proaktif olmak artık isteğe bağlı değildir – bu bir iş zorunluluğudur. Kontrolsüz AI kullanımının yasal ve etik riskleri, düzenlemenin yetişmesini beklemek için çok önemlidir. Sorumlu yönetişim başlangıçtan itibaren yerleşmelidir.
Ivanti’nin yaklaşımının temel taşı AI sistemlerinin açıklanabilir olmasını sağlamaktır. Bu, yüzey seviyesi güvencelerinin ötesine geçmek, AI modellerinin nasıl oluşturulduğunu, hangi verilere eğitildiklerini ve hataların ve önyargıların nasıl hafifletildiğini sormak anlamına gelir. Hukuk ekibimiz ayrıca, hem teknik yetenekleri hem de etik temelleri inceleyerek satıcıların seçilmesinde merkezi bir rol oynamaktadır.
Bu sadece uyumlulukla ilgili değil, güven oluşturmakla ilgili. Küresel bir şirket olarak, sadece ABD yasalarıyla değil, aynı zamanda AB AI Yasası gibi gelişen uluslararası çerçevelerle de hizalanıyoruz. Bunlar sağlam, ölçeklenebilir ve gelecekteki kanıtlar oluşturmamıza yardımcı olur.
AI kalmak için burada. Şirketler, yönetişim ve çalışanlarla güçlendirerek, aynı zamanda yeniliğin etik sınırlar içinde olmasını sağlayarak riski azaltabilir ve AI’nın tam potansiyelini sorumlu bir şekilde açabilir.