Zscaler’e göre, AI/ML aracı kullanımı 2024’te küresel olarak arttı ve işletmeler AI’yı günlük iş akışlarına yerleştiren operasyonlara ve çalışanlara entegre ediyor.
Raporda, AI/ML araçlarının kurumsal kullanımında yıllık% 3.000+bir büyüme, yeni üretkenlik, verimlilik ve inovasyon seviyelerinin kilidini açmak için sektörler arasında AI teknolojilerinin hızlı bir şekilde benimsenmesini vurgulamaktadır. Bulgular, Şubat 2024’ten Aralık 2024’e kadar Zscaler Cloud’daki toplam 536,5 milyar AI ve ML işlemlerinin analizine dayanmaktadır.
İşletmeler, toplam 3.624 TB olan AI araçlarına önemli miktarda veri gönderiyor ve bu teknolojilerin operasyonlara ne ölçüde entegre edildiğini vurguluyor. Bununla birlikte, bu evlat edinme artışı da artan güvenlik endişeleri getirmektedir. İşletmeler, tüm AI/ML işlemlerinin% 59,9’unu engelledi, veri sızıntısı, yetkisiz erişim ve uyum ihlalleri de dahil olmak üzere AI/ML araçlarıyla ilişkili potansiyel riskler etrafında işletme farkındalığını işaret etti.
Tehdit aktörleri, saldırıların karmaşıklığını, hızını ve etkisini arttırmak için yapay zekayı giderek daha fazla kullanıyor – işletmeleri güvenlik stratejilerini yeniden düşünmeye zorluyor.
Zscaler baş güvenlik görevlisi Deepen Desai, “Yapay zeka endüstrilerini dönüştürdükçe, yeni ve öngörülemeyen güvenlik zorlukları da yaratıyor. Veriler AI inovasyonu için altındır, ancak güvenli bir şekilde ele alınmalıdır” dedi.
Chatgpt AI/ML işlemlerine hakim
CHATGPT, en çok kullanılan AI/ML uygulaması olarak ortaya çıktı ve tanımlanmış küresel AI/ML işlemlerinin% 45.2’sini yönlendirdi. Yine de, işletmelerin hassas veri maruziyeti ve onaylanmamış kullanım konusundaki artan endişeleri nedeniyle en çok bloklu araçtı. En çok bloklu diğer uygulamalar arasında Grammarly, Microsoft Copilot, Quillbot ve WordTune, AI-geliştirilmiş içerik oluşturma ve verimlilik iyileştirmeleri için geniş kullanım kalıpları gösteriyor.
İşletmeler, AI inovasyonu ve güvenlik arasında giderek daha dar bir ip yürüyorlar. Yapay zeka evlat edinme büyümeye devam ettikçe, kuruluşlar rekabetçi kalmak için AI/ML’nin gücünden yararlanırken riskler üzerindeki dizginleri sıkılaştırmak zorunda kalacaklar.
AI, siber riskleri arttırıyor, ajan AI ve Çin’in açık kaynaklı Deepseek’in kullanımıyla tehdit aktörlerinin saldırıları ölçeklendirmesini sağlıyor. Şimdiye kadar 2025’te, Deepseek’in Openai, Antropik ve Meta gibi Amerikan devlerini meydan okuduğumuz, AI gelişimini güçlü performans, açık erişim ve düşük maliyetlerle bozduğunu gördük. Bununla birlikte, bu tür gelişmeler de önemli güvenlik riskleri getirmektedir.
Tarihsel olarak, Frontier AI modellerinin geliştirilmesi, küçük bir grup seçkin “inşaatçı” ile sınırlıydı – Openai ve Meta gibi büyük temel modellere milyarlarca dolar döktü. Bu temel modeller daha sonra, daha geniş bir “benimseyen” veya son kullanıcılar kitleye ulaşmadan önce uygulamalar ve AI ajanları inşa eden “geliştiriciler” tarafından kaldırıldı.
Deepseek, eğitim maliyetini önemli ölçüde düşürerek ve taban LLM’lerini dağıtarak bu yapıyı bozarak, çok daha büyük bir oyuncu havuzunun AI alanına girmesini mümkün kıldı. Bu arada, Xai’nin GROK 3 modelinin piyasaya sürülmesiyle şirket, GROK 2’nin açık kaynak olacağını duyurdu – yani Mistral’in Küçük 3 modelinin beğenileriyle birlikte, kullanıcıların açık kaynak AI söz konusu olduğunda daha fazla seçeneği var.
Endüstriler AI/ML işlemlerini güvence altına alma çabalarını artırıyor
Amerika Birleşik Devletleri ve Hindistan en yüksek AI/ML işlem hacimlerini üretti ve bu da AI güdümlü inovasyona doğru küresel kaymayı temsil etti. Bununla birlikte, bu değişiklikler bir boşlukta meydana gelmez ve bu ve diğer coğrafyalardaki kuruluşlar katı uyumluluk gereksinimleri, yüksek uygulama maliyetleri ve yetenekli yetenek sıkıntısı gibi artan zorluklarla boğuşmaktadır.
Finans ve sigorta sektörü, yaygın olarak benimsenmesini yansıtan tüm kurumsal AI/ML faaliyetlerinin% 28,4’ünü oluşturdu ve sektör tarafından desteklenen sahtekarlık tespiti, risk modelleme ve müşteri hizmetleri otomasyonu gibi kritik işlevlerin göstergesidir. Üretim, muhtemelen tedarik zinciri optimizasyonu ve robotik otomasyondaki yenilikler tarafından yönlendirilen işlemlerin% 21,6’sını oluşturdu.
Hizmetler (%18.5), teknoloji (%10.1) ve sağlık hizmetleri (%9.6) dahil olmak üzere ek sektörler de AI’ya olan güvenlerini artırırken, her endüstri de yeni riskler ortaya koyan ve muhtemelen genel evlat edinme oranını etkileyen benzersiz güvenlik ve düzenleyici zorluklarla karşı karşıyadır.
Endüstriler ayrıca AI/ML işlemlerini güvence altına alma çabalarını da artırıyor, ancak engellenen AI/ML aktivitesi hacmi değişiyor. Finans ve sigorta AI işlemlerinin% 39,5’ini engeller. Bu eğilim, endüstrinin katı uyum manzarasına ve finansal ve kişisel verileri koruma ihtiyacı ile uyumludur.
Yapay zeka işlemlerinin% 19,2’sini üreten, AI’nın yaygın olarak kullanıldığı, ancak güvenlik riskleri için yakından izlendiği stratejik bir yaklaşım önerirken, hizmetler daha dengeli bir yaklaşım benimseyerek AI işlemlerinin% 15’ini engeller. Öte yandan, sağlık hizmetleri AI işlemlerinin sadece% 10,8’ini engeller. Çok miktarda sağlık verisi ve PII kullanmasına rağmen, sağlık kuruluşları AI araçlarını güvence altına almak için hala gecikiyor ve güvenlik ekipleri hızlı inovasyona yetişiyor.
Deepfores, endüstriler arasında büyük bir sahtekarlık vektörü olacak
İşletmeler AI’yı iş akışlarına entegre ettikçe, Gölge AI riskleriyle de yüzleşmelidirler – verilere yol açabilecek AI araçlarının yetkisiz kullanımı
Sızıntılar ve güvenlik kör noktaları. Uygun kontroller olmadan, hassas iş bilgileri açığa çıkarılabilir, üçüncü taraf AI modelleri tarafından tutulabilir veya hatta kullanılabilir
dış sistemleri eğitmek.
Genai, sosyal mühendislik saldırılarını 2025 ve ötesinde, özellikle ses ve video kimlik avında yeni seviyelere yükseltecek. Genai tabanlı takımların yükselişiyle, başlangıç erişim broker grupları, geleneksel kanallarla birlikte AI tarafından üretilen sesleri ve videoyu giderek daha fazla kullanacaktır. Siber suçlular, güvenilirliklerini ve başarı oranlarını artırmak için yerel dilleri, aksanları ve lehçeleri benimsedikçe, kurbanların hileli iletişimi tanımlaması zorlaşacaktır.
İşletmeler ve son kullanıcılar AI’yi hızla benimsedikçe, tehdit aktörleri, kötü amaçlı yazılımları kolaylaştırmak, kimlik bilgilerini çalmak ve hassas verileri kullanmak için tasarlanmış sahte hizmetler ve araçlar aracılığıyla yapay zeka güven ve ilgi alanından giderek daha fazla yararlanacaklar.
Deep pheake teknolojisi, manipüle edilmiş halka açık figür videolarının ötesinde daha sofistike dolandırıcılıklara uzanan yeni bir sahtekarlık dalgasını besleyecek. Dolandırıcılar zaten sahte kimlik kartları oluşturmak, hileli sigorta talepleri için kaza görüntüleri üretmek ve hatta sağlık sistemlerinden yararlanmak için sahte X-ışınları üretmek için AI tarafından oluşturulan içerik kullanıyor.
Derin kek araçları daha gelişmiş ve erişilebilir hale geldikçe – ve çıktıları daha ikna edici hale geldikçe, kimlik doğrulamasını ve iletişimdeki güvenini baltalayarak tespit etmek daha zor olacaktır.
AI uygulamalarını güvenli bir şekilde benimsemek için stratejik, aşamalı bir yaklaşım şarttır. En güvenli başlangıç noktası, potansiyeli azaltmak için tüm AI uygulamalarını engellemektir.
Veri sızıntısı. Ardından, kurumsal verilerin tam gözetimini korumak için veteriner AI araçlarını katı erişim kontrolleri ve güvenlik önlemleri ile aşamalı olarak entegre edin.