Çalışanlar sessizce AI’yı işe getiriyor ve güvenliği geride bırakıyor


BT departmanları AI yönetişim çerçevelerini uygulamak için yarışırken, ManageEngine’e göre birçok çalışan AI için bir arka kapı açtı.

Organizasyonlar Gölge AI

Yetkisiz AI kullanımının yükselişi

Shadow AI, Kuzey Amerika’daki örgütlere sessizce sızdı ve en dikkatli BT liderlerinin bile tespit etmek için mücadele ettiği kör noktalar yarattı.

Resmi yönergelere ve yaptırımlı araçlara rağmen, Shadow Al istisnadan ziyade norm haline gelmiştir. BT karar vericilerinin (ITDMS)% 70’i kuruluşlarında yetkisiz AI kullanımını tespit etmiştir.

Çalışanların% 60’ı onaylanmamış AI araçlarını bir yıl öncesine göre daha fazla kullanıyor ve çalışanların% 93’ü bilgi girişini onaysız AI araçlarına girmeyi kabul ediyor. ITDM’lerin% 63’ü veri sızıntısı veya maruziyeti gölge AI’nın birincil riski olarak görüyor. Tersine, çalışanların% 91’i Shadow AI’nın hiçbir risk, fazla risk veya ödülle ağır basan bir risk oluşturmadığını düşünüyor.

Notları veya çağrıları özetlemek (%55), beyin fırtınası (%55) ve verileri veya raporları analiz etmek (%47), Shadow AI ile tamamlanan en iyi görevlerdir. Genai metin araçları (%73), AI yazma araçları (%60) ve kod asistanları (%59) ITDM’lerin çalışanların kullanımı için onayladığı en iyi AI araçlarıdır.

“Gölge AI hem en büyük yönetişim riskini hem de işletmedeki en büyük stratejik fırsatı temsil ediyor,” diyor ManageEngine AI Araştırma Direktörü Ramprakash Ramamoorthy. “Gelişecek kuruluşlar, güvenlik tehditlerini ele alan ve gölge AI’yı gerçek iş ihtiyaçlarının stratejik bir göstergesi olarak yeniden şekillendiren kuruluşlardır. BT liderleri, savunma yapmaktan proaktif olarak şeffaf, işbirlikçi ve çalışanların kullanma konusunda güçlendiğini hissettikleri AI ekosistemleri inşa etmeye geçmelidir.”

Gölge AI boşluklarını tanımlamak

Gölge AI kullanımını bir yükümlülükten stratejik bir avantaja dönüştürmek için BT liderlerinin rapor tarafından açıklanan eğitim, görünürlük ve yönetişimdeki boşlukları kapatmaları gerekiyor. Özellikle, yapay zeka modeli eğitimi, güvenli kullanıcı davranışı ve organizasyonel etki etrafında eğitim eksikliği sistematik kötüye kullanımı teşvik etmektir.

BT ekipleri AI araçlarını mümkün olduğunca çabuk onaylamak ve entegre etmek için hareket etse bile, kör noktalar kuruluşlarda büyümeye devam ediyor. Bu arada, Shadow AI, yerleşik yönetişim politikalarının yetersiz uygulanması nedeniyle çoğalır.

% 85’i çalışanların AI araçlarını BT ekiplerinin bunları değerlendirebileceğinden daha hızlı benimsediğini bildirmektedir. Çalışanların% 32’si şirket onayını onaylamadan Gizli Müşteri Verilerini AI Araçlarına girerken,% 37’si özel şirket verilerine girdi.

ITDM’lerin% 53’ü, çalışanların işle ilgili AI görevleri için kişisel cihazların kullanımının kuruluşlarının güvenlik duruşunda kör bir nokta oluşturduğunu söylüyor. Sadece% 54’ü kuruluşlarının AI yönetişim politikaları uyguladığını ve yetkisiz kullanım için aktif olarak izlediğini bildirirken,% 91’i genel olarak politikalar uyguluyor.

İşyerinde yapay zekanın geleceği

Proaktif olarak AI’yi yönetmek, güvenliği korurken çalışan girişiminden yararlanmak anlamına gelir. Shadow AI’da keşfedilen iş değerini sunar, ancak bunu onaylanan AI araçları aracılığıyla yapar.

% 63 onaylı AI araçlarının standart iş akışlarına ve iş uygulamalarına entegre edilmesini tavsiye edin,% 60’ı kabul edilebilir AI kullanımı ile ilgili politikaların uygulanmasını önermektedir ve% 55’i veteriner ve onaylanmış araçların bir listesinin oluşturulmasını önermektedir.

Çalışanların% 66’sı adil ve pratik politikalar oluşturmanızı önerir,% 63’ü görevleriyle ilgili resmi araçlar sağlamayı önerir ve% 60’ı riskleri anlama konusunda daha iyi eğitim verilmesini tavsiye eder.

ManageEngine bölgesel teknik başkanı Sathish Sagayaraj Joseph, “Gölge AI çoğu organizasyon için ölümcül bir kusurdur” dedi. “BT ekipleri göremedikleri riski yönetemezler ve kullanıcıların açıklamayacağı iş değerini etkinleştiremezler. Proaktif AI yönetimi, ve iş profesyonellerini ortak, organizasyonel hedefler arayışında birleştirir. Bu, çalışanların AI ile ilgili riskleri anlamak ve bunlardan kaçınmak için donanımlı olduğu anlamına gelir ve AI’yı gerçek iş outcunlarını yönlendiren şekillerde kullanmalarına yardımcı olmak için güçlenir.”



Source link