Kullanıcıları güçlendirin ve Genai veri kaybına karşı koruma


06 Haz, 2025Hacker HaberleriYapay Zeka / Sıfır Güven

GENAI Veri Kaybı

Üretken AI araçları 2022’nin sonlarında yaygın olarak kullanılabilir hale geldiğinde, sadece dikkat eden teknoloji uzmanları değildi. Tüm endüstrilerdeki çalışanlar, üretkenliği artırmak, iletişimi kolaylaştırmak ve işleri hızlandırmak için üretken yapay zekanın potansiyelini derhal tanıdılar. Pek çok tüketici dalgaları gibi, ilk inovasyondan önceki yenilikler-File Paylaşım, Bulut Depolama ve İşbirliği Platformları-Ai, resmi kanallar aracılığıyla değil, daha akıllı çalışmaya istekli çalışanların elleriyle işletmeye indi.

Hassas verilerin kamu AI arayüzlerine beslenme riski ile karşı karşıya kalan birçok kuruluş aciliyet ve güçle yanıt verdi: erişimi engellediler. İlk savunma önlemi olarak anlaşılabilir olsa da, kamu AI uygulamalarını engellemek uzun vadeli bir strateji değildir-bu bir stopgap. Ve çoğu durumda, etkili değil.

Gölge AI: Görünmeyen risk

Zscaler tehdidi ekibi takip ediyor AI ve Makine Öğrenimi (ML) Trafiği İşletmeler arasında ve rakamlar ilgi çekici bir hikaye anlatıyor. Sadece 2024’te Tehditlabz, bir önceki yıla göre 36 kat daha fazla AI ve ML trafiğini analiz etti ve kullanımda 800’den fazla farklı AI uygulamasını belirledi.

Engelleme, çalışanların AI kullanmasını engellemedi. Dosyaları kişisel hesaplara e -posta ile gönderir, telefonlarını veya ev cihazlarını kullanırlar ve AI sistemlerine girmek için ekran görüntüleri yakalarlar. Bu geçici çözümler hassas etkileşimleri, kurumsal izleme ve korumalardan göz ardı ederek gölgelere taşır. Sonuç? Büyüyen bir kör nokta Gölge AI olarak bilinir.

Onaylanmamış AI uygulamalarının engellenmesi, raporlama panolarında kullanımın sıfıra düşmesini sağlayabilir, ancak gerçekte kuruluşunuz korunmaz; Gerçekte olanlara karşı kör.

SaaS benimsemesinden dersler

Daha önce buradaydık. Bir hizmet aracı olarak erken yazılım ortaya çıktığında, BT ekipleri bulut tabanlı dosya depolama uygulamalarının onaylanmamış kullanımını kontrol etmek için uğraştı. Cevap dosya paylaşımını yasaklamak değildi; Aksine, çalışan beklentilerini kolaylık, kullanılabilirlik ve hız için eşleştiren güvenli, kesintisiz, tek işaretli bir alternatif sunmaktı.

Ancak, bu sefer bahislerin etrafında daha da yüksektir. SaaS ile veri sızıntısı genellikle yanlış yerleştirilmiş bir dosya anlamına gelir. Yapay zeka ile, bu verileri gittikten sonra silmenin veya almanın hiçbir yolu olmadan fikri mülkiyetinize yanlışlıkla bir kamu modelini eğitmek anlamına gelebilir. Büyük bir dil modelinin hafızasında “Geri Al” düğmesi yoktur.

Önce görünürlük, sonra politika

Bir kuruluş AI kullanımını akıllıca yönetebilmeden önce, gerçekte neler olduğunu anlamalıdır. Görünürlük olmadan trafiği engellemek, mülk hatlarının nerede olduğunu bilmeden bir çit inşa etmek gibidir.

Daha önce böyle sorunları çözdük. Zscaler’ın trafik akışındaki konumu bize eşsiz bir bakış noktası verir. Hangi uygulamalara, kime ve ne sıklıkla erişildiğini görüyoruz. Bu gerçek zamanlı görünürlük, riski değerlendirmek, politikayı şekillendirmek ve daha akıllı, daha güvenli AI benimsemesini sağlamak için gereklidir.

Sonra, politikayla nasıl başa çıktığımızı geliştirdik. Birçok sağlayıcı sadece “izin” veya “blok” siyah beyaz seçenekleri verecektir. Daha iyi yaklaşım, örtük bir güven ve talep sürdürmeyen, bağlamsal değerlendirme varsaymayan sıfır tröst ilkelerine uyum sağlayan bağlama duyarlı, politika odaklı yönetişimdir. Her AI kullanımı aynı risk seviyesi sunmaz ve politikalar bunu yansıtmalıdır.

Örneğin, bir AI uygulamasına kullanıcı için dikkatli bir şekilde erişim sağlayabilir veya işlemin yalnızca tarayıcı izolasyon modunda izin verebilir, bu da kullanıcıların potansiyel olarak hassas verileri uygulamaya yapıştıramadıkları anlamına gelir. İyi çalışan bir diğer yaklaşım da, kullanıcıları şirket içinde yönetilen kurumsal onaylı bir alternatif uygulamaya yönlendirmektir. Bu, çalışanların veri maruziyetini riske atmadan üretkenlik avantajlarını elde etmelerini sağlar. Kullanıcılarınızın AI kullanmanın güvenli, hızlı ve yaptırımlı bir yolu varsa, etrafınızda dolaşmaları gerekmez.

Son olarak, Zscaler’ın veri koruma araçları, çalışanların belirli kamu AI uygulamalarını kullanmalarına izin verebileceğimiz, ancak yanlışlıkla hassas bilgiler göndermelerini engelleyebileceğimiz anlamına gelir. Araştırmamız, Zscaler bulutunda 4 milyondan fazla veri kaybı önleme (DLP) ihlali, hassas kurumsal verilerin – finansal verilerin, kişisel olarak tanımlanabilir bilgiler, kaynak kodu ve tıbbi verilerin – bir AI başvurusuna gönderilmesi amaçlanan ve bu işlemin Zscaler politikası tarafından engellendiği durumları gösteriyor. Zscaler’ın DLP uygulaması olmadan bu AI uygulamalarında gerçek veri kaybı meydana gelirdi.

Etkinleştirmeyi koruma ile dengeleme

Bu, AI benimsemesini durdurmakla ilgili değil – sorumlu bir şekilde şekillendirmekle ilgili. Güvenlik ve üretkenlik çelişmek zorunda değil. Doğru araçlar ve zihniyetle kuruluşlar her ikisini de başarabilir: kullanıcıları güçlendirmek ve verileri korumak.

Zscaler.com/security adresinden daha fazla bilgi edinin

Bu makaleyi ilginç mi buldunuz? Bu makale, değerli ortaklarımızdan birinin katkıda bulunan bir parçasıdır. Bizi takip edin Twitter ve daha fazla özel içeriği okumak için LinkedIn.





Source link