İş yerinde Genai Tools ile ne paylaştığınıza dikkat edin


Görevleri kolaylaştırmak için Genai’yi işyerinde kullanıyoruz, ancak risklerin farkında mıyız? Netskope’e göre, ortalama kuruluş şimdi ayda AI araçlarıyla 7.7GB’dan fazla veri paylaşıyor ve kurumsal kullanıcıların% 75’i Genai özellikleriyle uygulamalara erişiyor.

Genai işyeri riski

Genai’nin karanlık tarafı

Kuruluşların% 89’unun AI kullanımına sıfır görünürlüğe sahip olması, gözetim ve kontrolde bir boşluk ortaya koymaktadır. Bunun da ötesinde, Genai araçlarının% 71’ine kişisel, iş dışı hesaplarla erişilmektedir. Şirket hesapları kullanıldığında bile, girişlerin% 58’i tek oturum açma (SSO) atlar. Bu, güvenlik ekiplerinin çalışanların kullandığı araçlar veya paylaşılan bilgiler hakkında hiçbir görüş sahibi olmadığı anlamına gelir.

Samsung çalışanları, görevlerine yardımcı olmak için chatgpt kullanırken istemeden son derece gizli verileri ortaya çıkardı ve şirketin Genai araçlarını yasaklamasına yol açtı.

Deepseek, Çin’de bulunan güvenli sunucularda kullanıcı verilerini topladığı uyarılarına rağmen büyük indirmeler gördü ve bunu çeşitli amaçlar için kullandı.

Gölge AI

Daha da büyük bir sorun Gölge AI’dır – AI araçlarının resmi onayı olmadan bir kuruluşta kullanılması. AI daha az iz bırakır ve kişisel cihazlarda veya tarayıcılarda olabilir. Hassas verilerin AI araçlarına girmek, bu bilgilerin harici sunucularda şirketin kontrolünün ötesinde depolanmasına ve veri sızıntıları ve gizlilik ihlallerinin riskini artırmasına neden olabilir.

Ivanti, ofis çalışanlarının% 81’inin Genai konusunda eğitilmediklerini ve% 15’inin onaylanmamış araçlar kullandığını bildirdiğini buldu.

Snow Tait, “Tek bir endüstri gölge AI riskine diğerinden daha duyarlı olmasa da, daha büyük kuruluşlar veya tanınmış markalar genellikle etkisinden ciddi itibar hasarı ile karşılaşma olasılığı en yüksektir” dedi.

Genai’yi yasaklamak yeterli değil

Genai, çoğu şirketin devam edebileceğinden daha hızlı hareket ediyor. Birçoğunun hala çalışanların bu araçları iş yerinde nasıl kullanması gerektiğine dair kuralları yoktur.

Şu anda bazı şirketlerin yaptıkları, genai kullanımını tamamen yasaklamak veya yalnızca belirli uygulamaları engellemektir. Bir şeyin neden potansiyel bir tehlike olduğunu anlamadan tek başına bir yasak yeterli değildir ve gölge kullanımına yol açar.

Kuruluşlar ne yapmalı:

  • Politikaları uygulayın Genai araçlarının ne zaman kullanılabileceğini ve zararlı hataları önlemek için insan gözetiminin ne zaman gerektiğine göre tanımlanması.
  • Personel Eğitimi Sağlayın ve genai araçlarının sorumlu ve uyumlu kullanımını sağlamak için düzenli olarak kullanımını denetleyin.
  • Kontrol ve Kısıt Kişisel verileri korumak ve gizlilik yasalarına uymak için Genai’ye girilen bilgi türü.

Eğitim anahtardır. Çalışanlar, bu uygulamaların ve araçların uygunsuz kullanılırsa zararsız olmadığının farkında olmalıdır.

Yönetici kör nokta

Kuruluşlar Genai teknolojisine geri dönmeyi göze alamazlar. Sonuç olarak, bazıları nasıl çalıştıklarını veya hangi riskleri taşıdıklarını tam olarak anlamadan araçları uygulamak için baskı altına alınabilir. “AI kullanıyoruz” demek yatırımcılarla bir çağrıda iyi gelebilir, ancak bir ihlal, dava veya kötü basına dönüşebilir.

“Genai kesinlikle bir BT güvenlik evriminin bir sonraki önemli nedeni gibi görünüyor ve çoğu kuruluş, kullanıcılarını görmenin, kontrol etmenin ve korumanın yollarını arayacak, yapay zeka her süreçte yerleştikçe.

Liderlerin AI uzmanları olmaları gerekmez, ancak doğru soruları sormaları gerekir. Model hangi verileri kullanıyor? Nasıl izleniyor? Bir şeyler ters giderse kim sorumlu? Bu farkındalık olmadan, yapay zekayı benimsemek bir strateji değildir. Bu bir kumar.



Source link