SOC ajanları: Yeni AI Gamble


Ajan AI, Yapay Zeka ve Makine Öğrenimi, Yeni Nesil Teknolojiler ve Güvenli Gelişim

AI tarafından yönetilen SoC’ler için acele, güvenlik uzmanları güven ve yönetişim sorunları konusunda uyarıyor

Pooja Tikekar (@Poojatikar) •
9 Eylül 2025

SOC ajanları: Yeni AI Gamble
AI SOC ajanları güvenlik operasyonlarının geleceği olarak lanse edilmektedir, ancak bazı siber güvenlik uzmanları özerk AI çözümlerinin hala olgunlaşmamış olduğundan ve onları zorlamak için gereken korkuluklardan yoksundur. (Resim: Shutterstock)

Satıcılar onları siber güvenlikteki son atılım olarak tanıtıyorlar. “AI SOC ajanları” dijital güvenlik analistleri olarak hizmet eder, uyarıları triyaj yapmak, tehditleri araştırmak ve insan personelinin günlükleri kontrol etmek için zamana sahip olmadan önce harekete geçmek için günün etrafında koşarlar. Güvenlik operasyon merkezlerinin yöneticileri için, tekrarlayan çalışmaları yorulmak bilmeyen bir makineye götürme olasılığına direnmek zordur.

Ayrıca bakınız: Ondemand Web Semineri | Cortex XSIAM3.0: #1 AI güdümlü SECOPS platformu

SOCS, çoğu yanlış pozitif olan her gün binlerce uyarı ile karşı karşıya. Analistler hızlı bir şekilde yanıyor. Yıpranma yüksektir. Otomatik bir asistan uyarıları filtreleyebilir, günlüklerden verileri çekebilir, kalıpları araştırabilir ve açık dilde sonuçlar verebilirse? Ya düşük seviyeli tehditleri kendi başına düzeltebilirse?

ABD’de en hızlı büyüyen otomotiv perakendecisi Carvana’daki CISO için, TERQ’nun AI SOC analistini Tier-1 ve Tier-2 uyarılarını tetiklemek için “Bana beyinsiz görünüyordu.”

Carvana Ciso Dina Mathers, “Geleneksel güvenlik operasyonlarınızın başlaması için yapay zeka kullanmak için çok güçlü bir kullanım durumu var. Sonra oradan büyüyebilirsiniz.” Dedi.

Aslında, Gartner son zamanlarda siber güvenlik liderlerinin% 42’sinin pilotluk yaptıklarını veya şu anda tehdit tespiti ve tepkisi için AI ajanlarını kullandıklarını söylediğini buldu.

Ancak iyimserlik ve yönetici alımının altında, birçok güvenlik uygulayıcısı risk görüyor. Çoğu özerk AI çözümünün hala olgunlaşmamış, yanlış cevaplara eğilimli olduğu ve onları amok koşmasını engellemek için gereken korkuluklardan yoksun olduğu konusunda uyarıyorlar.

Güvenlik kuruluşları içindeki bağlantıyı kendileri düşünün. Bir Exabeam anketine göre, siber güvenlik liderlerinin yüzde yetmiş biri AI’nın güvenlik ekipleri arasında verimliliği önemli ölçüde artırdığına inanıyor, ancak analistlerin sadece% 22’si – aslında araçlarla çalışanlar – verimlilik iddiaları ile aynı fikirde. Sadece% 10’u özerk bir şekilde çalışmak için bir ajana güveneceklerini söylüyor.

Prime Time için hazır değil misiniz?

En büyük sorunlardan biri doğruluktur: AI ajanları toplam güvenle yanlış cevaplar üretir. Uygulamada, bu, normal veya daha kötüsü, gerçek bir saldırıdan makyaj açıklamasıyla kaymasına izin vermek anlamına gelebilir.

Forrester’da başkan yardımcısı ve analisti Jeff Pollard, “Prime Time’a hazır olmaktan daha uzak olamazlar” dedi (bkz: bkz: AI ajanlarının neden yeni katılım kurallarına ihtiyacı var?).

Kontrollü testler%60’tan fazla hata oranlarını göstermektedir. Pollard, gerçek tehlike, “resme hatalar girildiğinde – ajan ve AI ajan mimarilerinde – başarısız değiller, yayılıyorlar ve daha sonra tüm sistem boyunca basamaklar.

Bu basamaklı etki, hataları insan personelinden daha pahalı hale getirir. Bir AI ajanının hatası, diğer bağlı araçlarda yankılanabilir ve aşağı akıştaki her sonucu kirletebilir. “Bu bir kabus fabrikası,” dedi Pollard. İnsanlardan farklı olarak, hatanın sisteme tam olarak nerede girdiği izlemek genellikle imkansızdır. Hataları saptamak için gereken telemetri ve takımların mevcut olmadığını söyledi.

Lytical Ventures ortağı Taylor Margot, bu ajanların kendi başlarına hareket etme yeteneğinin onları daha tehlikeli hale getirdiğini söyledi. Kötü kapsamlı bir talimat, bir temsilcinin kimsenin beklemediği adımları atmasını sağlayabilir. Bir sistemin bütçeleri yeniden tahsis etmek, pazarlama kampanyalarını iptal etme veya erişim haklarını onay olmadan değiştirme gibi iş kararları almaya başlayabileceği Margot resimleri senaryoları. “Bunların her biri izin verici bir sorundur” dedi.

AI ajanlarına çok fazla güven vermek, bugünlerde birçok kuruluşun karşı karşıya olduğu daha büyük bir sorun ortaya koyuyor: toplantı odasındaki coşku SOC tabanına yansıtılmıyor. Pollard, bu kültürel uyumsuzluk, AI araçlarını kullanarak aslında daha ağır yüklerle karşılaşan analistlerle ortada yakalanan güvenlik operasyonlarını bıraktı. Uyarıları doğrudan araştırmak yerine, şimdi birkaç sistemin çalışmalarını bir kerede denetlemeli ve kanıtları görmeden sonuçlara güvenmeye karar vermelidirler.

“Aslında bu kararı veren kişi üzerindeki bilişsel yükü artırıyoruz. Bunu gerçekten azaltmıyoruz çünkü tıklamaları azaltıyoruz” dedi. Diyerek şöyle devam etti: “Bunu daha da zorlaştırıyoruz çünkü eğer bu çağrıyı yanlış yaparsanız, o zaman organizasyon için yıkıcı.”

Güven Boşluğunu Köprüleme

Halüsinasyonlar ve güven boşluğu görülebilir zorluklar ise, yönetişim gizli olanıdır. Mevcut kimlik ve erişim kontrolleri, birden fazla platformda hareket eden otomatik sistemler değil, insanlar için oluşturulmuştur. Yeni çerçeveler olmadan, kuruluşlar kimlikleri atayamaz veya iptal edemez, eylemleri izleyemez veya izinleri sınırlayamaz. Forrester ekibi kısa süre önce sıfır güven çerçevesi üzerine inşa edilen ancak “en az ajans” dediği şeyi ekleyen Aegis Framework’ü önerdi. “En az ayrıcalık artık yeterli olmayacak. Ajanların yönetişimi gerçek farkın olacağı yerdir.” Dedi.

Ancak yönetişim boşlukları sadece kimlikle ilgili değildir. Pollard, AI ajanlarının “kullanılmayan bir dizi beceri ve sonsuz irade” olduğuna dikkat çekti. Bir veri kaynağından engellenirse, durmazlar. Bir başkasını ararlar. Ve bu içgüdüsel doğaçlama öngörülemeyen riskler yaratabilir.

“Geleneksel yazılım dünyasında, eğer böyle bir şey olursa, çökecek ya da işe yaramazdı. Bize bir çeşit hata verecekti” dedi. “Bu dünyada, bu ajan bu verilere ulaşmak için alternatif yolları keşfedecek ve bu ajanın kullanılmasını istemediğiniz verilerle etkileşime girmesine yol açabilir.”

Üçüncü taraf bağımlılığı başka bir kör nokta ekler. Birçok kuruluş, AI ajanlarının filolarını tedarik etmek için dış satıcılara güvenmektedir. Margot, “Satıcılar, aracı oyun kitabınızın veya araçlarınızın baskın tedarikçisi olacak ve bu noktada, temelde kuruluşunuzda benzeri görülmemiş düzeyde erişim sağlayan bilinmeyen bir üçüncü taraf riskinin bilinmeyen bir ağına girdiniz.” Üçüncü taraf riski AI güvenliğini yeniden şekillendirecek).

Pollard buna farklı satıcılardan AI ajanlarının bulut, SaaS ve OT ortamlarında çalıştığı bir “protokol savaşı” diyor.

Saldırganlar yakından izliyor. Cisco Talos’un sosyal yardım başkanı Nick Biasini, Ajan AI’nın bir sonraki kimlik hedefleri olabileceğini söyledi. “Kimlik konusundaki dikkat hiçbir yere gitmiyor; eğer bir şey varsa, buradan daha da kötüleşecek” dedi.

“Güzel olmaz mıydı?”

Risklere rağmen, kuruluşlar uyarı biletleri işleme gibi tekrarlayan görevlerin düşük asılı meyvelerini seçmeye çalıştıkça SOC’de ajan AI’nın benimsenmesi hızlanıyor. AI ajanları aylarca verileri özetleme, her olay için kritik vakaları ve taslak yanıtları tanımlama kapasitesine sahiptir.

“AI modelini – ajan modelini – bir beceri olarak eğitebilir ve sonra tüm P1 hizmet biletlerimin tümünü yinelemesini sağlayabilmem iyi olmaz mıydı?” Dedi Michael Leland, başkan yardımcısı ve Ada CTO’su.

Satıcılar AI özerkliği için daha da ileriye doğru itiyorlar. TORQ CEO’su Ofer Smadari, şirketinin AI güvenlik operasyonları için AI güvenlik çözümünün, sorunları düz İngilizce run kitaplarına göre çözerek “baştan yukarıdan tam soruşturma” yapabileceğini söyledi. Global Banks ve Fortune 500 şirketleri zaten TORQ’nun yapay zeka çözümünü kullanıyor (bkz:: Torq, SOC’ları özerk siber ajanlarla nasıl yeniden kablolu olarak yeniden bağlıyor?).

Smadari, “Müşterilerimizden her gün öğreniyoruz. Yani, bir yaşam döngüsü gibi – müşterilerimizden öğreniyoruz, ürün için bir şeylere giriyoruz ve ihtiyaç hızına göre yenilik yapmaya devam ediyoruz.” Dedi.

Seattle Startup Dropzone AI kısa bir süre önce AI “kişilerini” bir SOC analistinin ötesinde tehdit avı, güvenlik açığı yönetimi ve uyumluluk yönetimi gibi alanlara genişletmek için B Serisi finansmanında 37 milyon dolar topladı. Kurucu ve CEO Edward Wu, şirketin AI SOC analistinin, yaklaşık% 30’dan geleneksel yaklaşımlarla% 80 ila% 90’ını araştırmak için uzman insan analistlerinin gerekçesini zaten taklit ettiğini söyledi (bkz: bkz: Dropzone AI, siber AI ajan ekosistemini inşa etmek için 37 milyon dolar alıyor).

WU, güvenlik ekiplerinin farklı siber güvenlik işlevlerinde uzmanlaşmış AI destekli dijital işçilerden oluşan bir ekiple faaliyet göstereceği bir gelecek öngörüyor. Ancak her büyük siber güvenlik platformu satıcısının kendi AI ajanlarını oluşturmasıyla birlikte, birlikte çalışabilirlik ve satıcı tarafsızlığının güvenlik operasyonları için çok önemli olacağını söyledi.

Wu, “Bir AI ajanı veya dijital işçi olarak oraya gitmek ve ‘Hey, ben bir AI SOC analistiyim, ama sadece Crowdstrike ve başka bir şeyle çalışıyorum’ demek istemiyorsunuz. “Bu günün sonunda çok etkili olmayacak.”

Ancak yapay zeka ajanları için korkuluklar bina zaman çizelgesi geçmiş teknolojilerden çok daha kısadır. Forrester’dan Pollard, “15 yıllık bir başlangıç ​​yapmayacağız.” Dedi. “Belki bir yıllık bir başlangıç ​​yapacağız – eğer öyleyse.”





Source link