AI her yerde. Copilots, çalışanların verimliliği artırmasına yardımcı olur ve temsilciler cephe müşteri desteği sağlar. LLM’ler, işletmelerin verilerinden derin bilgiler elde etmelerini sağlar.
Bununla birlikte, AI açıldıktan sonra, AI aç bir Pac-Man gibi davranır, alabileceği tüm verileri tarar ve analiz eder. AI, ait olmadığı durumlarda kritik verileri ortaya çıkarsa, oyun biter. Veriler inanılmaz olamaz.
Ve AI yalnız değil – yayılan bulut karmaşıklıkları, onaylanmamış uygulamalar, eksik MFA ve daha fazla risk kurumsal veriler için bir gıdıklama zaman bombası yaratıyor. Uygun veri güvenliği önlemleri olmayan kuruluşlar, hassas bilgilerinin felaketli bir ihlalini riske atar.
AI’nın veri riski üzerindeki etkisini ölçmek için Varonis, Veri Güvenliği Raporu: Yapay zekanın veri riski üzerindeki etkisinin ölçülmesi. Raporun tamamını indirin ve verilere yönelik en son riskler hakkında bilgi edinmek için okumaya devam edin.
Araştırmacılar, insandan makine risk faktörlerini yakalamaya başladılar: ne kadar hassas veri (çalışan maaşları, Ar-Ge bilgileri, kaynak kodu ve daha fazlası) copilot ve ajanların bir istem ile erişebileceği veya ortaya çıkabileceği.
Araştırmacılar ayrıca makine-makine risklerine baktı: LLM’leri beslemek için kullanılan verilerin bütünlüğü. Yanlış veriler felaket etkilerini tetikleyebilir. Manipüle edilmiş klinik veriler, çığır açan ilacın gelişimini zayıflatabilir. Kötü aktörler, kötü niyetli kodları LLMS içine sessizce yerleştirebilir.
Ekibimiz, 1.000 gerçek dünya BT ortamından verileri analiz etti ve hiçbir kuruluşun ihlal geçirmez olmadığını tespit etti.
Aslında, kuruluşların% 99’u AI tarafından kolayca ortaya çıkabilecek hassas veriler ortaya koymuştur.
Raporu okuyun
Bir veri riski derin dalış
Varonis, AI hazırlık anketlerine ve anketlerine dayanan sonuçlar değil, ampirik risk kanıtı sağlamak için 1.000 veri risk değerlendirmesinden elde edilen verileri analiz etti.
Veri güvenliği raporu, AI, bulut ortamları ve Microsoft 365, AWS, Snowflake, Box, Salesforce ve diğerleri gibi en popüler SaaS uygulamaları ve hizmetleri ile ilişkili veri risklerine derinlemesine dalmaktadır.
Kahraman bulundu:
- Kuruluşların% 99’unda AI araçlarına gereksiz yere maruz kalan hassas veriler var
- Yapay zeka eğitim verileri de dahil olmak üzere hassas bulut verilerinin% 90’ı AI araçları için açık ve erişilebilir
- % 98’inde Shadow AI dahil olmak üzere doğrulanmamış uygulamalar var.
- 7’de 1’inde MFA’yı SaaS ve Multi-cloud ortamlarında zorlamayın
- % 88’inin ortamlarında gizlenen hayalet kullanıcıları var
Birlikte ele alındığında, araştırmacılar hiçbir organizasyonun yapay zeka için tam olarak hazırlanmadığını buldular. İncelenen 1.000 kuruluşun tümü AI döneminde bir ihlal riski altındaydı.
Varonis olay müdahalesi ve bulut operasyonları başkan yardımcısı Matt Radolec, “Yapay zeka veri riskine ışık tutuyor” dedi. “Kuruluşlar, izin modellerini tam olarak anlamadan AI’yı benimsiyor ve bu, verilerin isteymeden çalışanlara, diğer kullanıcılara ve hatta harici olarak maruz bırakılabileceği anlamına geliyor.”
Rapor, kuruluşların yapay zeka için verilerini güvence altına almak için proaktif adımlar atmanın üç yolunu özetlemektedir:
- Saldırganların çalınan bir kimlikle yapabileceği hasarı proaktif olarak azaltarak patlama yarıçapınızı azaltın.
- Verilerinizi sürekli olarak izleyin, erişim yönetişimini ve duruş yönetimini otomatikleştirin ve proaktif tehdit algılaması kullanın.
- Yapay zeka ve otomasyon kullanın. BT ve güvenlik ekipleri, sorunları ve güvenlik açıklarını gidermek için AI ve otomasyondan yararlanabilir.
Varonis’in analizi, büyüklük veya sektörden bağımsız olarak kuruluşların büyük çoğunluğunun güçlü veri güvenliği uygulamalarını sürdürme mücadelesini ortaya koydu. AI gelişmeye devam ettikçe, kuruluşların veri korumasına öncelik vermeleri ve etkili güvenlik önlemleri uygulaması çok önemlidir.
Veri Güvenliği Durum Raporunu İndirin: Yapay zekanın veri riski üzerindeki etkisini ölçmek.
Varonis tarafından sponsorlu ve yazılmıştır.