AI ajanları SOC’de nasıl devrim yaratabilir – insan yardımı ile


Bu ses otomatik olarak oluşturulur. Geri bildiriminiz varsa lütfen bize bildirin.

Ulusal Liman, Md. – Yapay zeka, güvenlik operasyon merkezlerinin çalışmalarını dönüştürmeye hazırlanıyor, ancak uzmanlar, insanların her zaman şirketlerin siber güvenlik olaylarına verdiği yanıtlara – gittikçe daha fazla yardımcı olan özerk sistemleri polisleştirmeleri gerektiğini söylüyor.

AI ajanları, tekrarlayan ve karmaşık SOC görevlerini otomatikleştirebilir, ancak öngörülebilir gelecek için, Gartner Güvenlik ve Risk Yönetimi Zirvesi’nde sunulan uzmanlara göre, benzersiz insan bilgisini kopyalayamama veya ısmarlama ağ konfigürasyonlarını anlayamama da dahil olmak üzere önemli sınırlamalara sahip olacaklar.

AI vaadi, bu yılki Gartner Konferansı’na hakim oldu, burada uzmanlar, teknolojinin siber savunucuların işlerini nasıl daha kolay hale getirebileceğini paylaştı, bir SOC’deki deneyimli insanların yerini almadan önce uzun bir yolu olsa bile.

“Hız olarak, sofistike, [and] Saldırıların ölçeği [go] Yukarı, bu zorluklarla başa çıkmamıza yardımcı olmak için Agentic AI kullanabiliriz. ” Sunumu sırasında dedi. “Makine hızını AI’nın kendisinden daha iyi savunmak daha iyi ne olabilir?”

Sessiz bir ortak

Güvenlik uzmanlarına göre, AI, SOC çalışanlarına buradaki sunumlarındaki birkaç önemli görevle zaten yardımcı olabilir. Gartner başkan yardımcısı Analisti Pete Shoard, AI’nin insanların karmaşık arama sorgularını otomatikleştirerek, “dili öğrenmek zorunda kalmadan” kod yazmasına ve teknik olmayan yöneticiler için olay raporlarını özetleyerek bilgi bulmalarına yardımcı olabileceğini söyledi.

Ancak bu faaliyetlerin otomatikleştirilmesi, yanlış kullanılırsa risk taşıyor, dedi Shoard. SOCS, insan tarafından yazılmış koda uygulanan aynı “sağlam test süreçleri” ile AI tarafından yazılmış kodu gözden geçirmelidir ve çalışanların AI özetlerini incelemeleri gerektiğini söyledi, böylece buna dayanarak “karar verecek biri” için “zinciri açmayacak”.

Gelecekte AI, müdahalelerin soruşturulmasını ve iyileştirilmesini bile otomatikleştirebilir.

AI SOC girişimlerinin çoğu şu anda AIT’leri “bilişsel yükü azaltmak” için AI kullanmaya odaklanmaya odaklanmaya odaklanıyor, Google Cloud’daki CISO ofisinde kıdemli personel güvenlik danışmanı Anton Chuvakin. Uzak gelecekte, “Makinelerin hala bazı sorunları çözmesini, çözmesini istiyorum” dedi.

Chuvakin, bazı BT uzmanlarının özenle özelleştirilmiş bilgisayar sistemlerinde AI’nın gevşemesine izin verme ihtimalinden “korkabilir”, ancak böyle bir şey görünen bir geleceğe hazırlanmaları gerektiğini söyledi.

Microsoft’tan Rajjoub, “Sizin adınıza çalışan bir ajanınız olduğu bir geleceğe sahip olduğunuz bir gelecek hayal edin ve ortamınızda bir saldırı mümkün hale gelmeden önce bile koruyabilir ve savunabilir” dedi.

Rajjoub, altı ay içinde AI ajanlarının kendi başlarına akıl yürütebileceğini ve insan operatörlerinin belirtilen hedeflerine ulaşmak için bir ağda çeşitli araçları otomatik olarak dağıtabileceğini tahmin etti. Bir buçuk yıl içinde, bu ajanların bu hedeflerin peşinde kendilerini geliştirebileceklerini ve değiştirebileceklerini söyledi. Ve iki yıl içinde, ajanların atandıkları daha geniş hedeflere ulaşmak için verdikleri özel talimatları değiştirebileceğini tahmin etti.

“Bundan iki, üç, dört, beş, altı yıl değil” dedi. “Kelimenin tam anlamıyla haftalar ve aylar hakkında konuşuyoruz.”

Sınırlamalar ve riskler

Ancak AI ajanları daha fazla görev üstlendikçe, onları izlemek daha karmaşık hale gelecektir.

“Çalışanlarımızın ajanların nasıl inşa edildiğinin hızına ayak uydurabileceğini gerçekten düşünüyor muyuz?” dedi Gartner araştırma başkan yardımcısı Dennis Xu. “Muhtemelen asla yetişemeyeceğiz.”

Cesur bir çözüm önerdi: “Aracıları izlemek için ajanları kullanmamız gerekiyor. Ancak bu zaman ufukta daha fazla.”

Birçok analist, SOC’de AI’nın konuşlandırılmasında dikkatli olmaya çağırdı. Chuvakin, bazı “akla yatkın ama riskli” ve diğerleri, AI’nin orta vadeye yakın geleceğe ulaşabileceğine inanmak için “düz bir reddetme” kategorisini anlattı.



Source link