Bu ses otomatik olarak oluşturulur. Geri bildiriminiz varsa lütfen bize bildirin.
Ulusal Liman, Md. – Yapay zeka, güvenlik operasyon merkezlerinin çalışmalarını dönüştürmeye hazırlanıyor, ancak uzmanlar, insanların her zaman şirketlerin siber güvenlik olaylarına verdiği yanıtlara – gittikçe daha fazla yardımcı olan özerk sistemleri polisleştirmeleri gerektiğini söylüyor.
AI ajanları, tekrarlayan ve karmaşık SOC görevlerini otomatikleştirebilir, ancak öngörülebilir gelecek için, Gartner Güvenlik ve Risk Yönetimi Zirvesi’nde sunulan uzmanlara göre, benzersiz insan bilgisini kopyalayamama veya ısmarlama ağ konfigürasyonlarını anlayamama da dahil olmak üzere önemli sınırlamalara sahip olacaklar.
AI vaadi, bu yılki Gartner Konferansı’na hakim oldu, burada uzmanlar, teknolojinin siber savunucuların işlerini nasıl daha kolay hale getirebileceğini paylaştı, bir SOC’deki deneyimli insanların yerini almadan önce uzun bir yolu olsa bile.
“Hız olarak, sofistike, [and] Saldırıların ölçeği [go] Yukarı, bu zorluklarla başa çıkmamıza yardımcı olmak için Agentic AI kullanabiliriz. ” Sunumu sırasında dedi. “Makine hızını AI’nın kendisinden daha iyi savunmak daha iyi ne olabilir?”
Sessiz bir ortak
Güvenlik uzmanlarına göre, AI, SOC çalışanlarına buradaki sunumlarındaki birkaç önemli görevle zaten yardımcı olabilir. Gartner başkan yardımcısı Analisti Pete Shoard, AI’nin insanların karmaşık arama sorgularını otomatikleştirerek, “dili öğrenmek zorunda kalmadan” kod yazmasına ve teknik olmayan yöneticiler için olay raporlarını özetleyerek bilgi bulmalarına yardımcı olabileceğini söyledi.
Ancak bu faaliyetlerin otomatikleştirilmesi, yanlış kullanılırsa risk taşıyor, dedi Shoard. SOCS, insan tarafından yazılmış koda uygulanan aynı “sağlam test süreçleri” ile AI tarafından yazılmış kodu gözden geçirmelidir ve çalışanların AI özetlerini incelemeleri gerektiğini söyledi, böylece buna dayanarak “karar verecek biri” için “zinciri açmayacak”.
Gelecekte AI, müdahalelerin soruşturulmasını ve iyileştirilmesini bile otomatikleştirebilir.
AI SOC girişimlerinin çoğu şu anda AIT’leri “bilişsel yükü azaltmak” için AI kullanmaya odaklanmaya odaklanmaya odaklanıyor, Google Cloud’daki CISO ofisinde kıdemli personel güvenlik danışmanı Anton Chuvakin. Uzak gelecekte, “Makinelerin hala bazı sorunları çözmesini, çözmesini istiyorum” dedi.
Chuvakin, bazı BT uzmanlarının özenle özelleştirilmiş bilgisayar sistemlerinde AI’nın gevşemesine izin verme ihtimalinden “korkabilir”, ancak böyle bir şey görünen bir geleceğe hazırlanmaları gerektiğini söyledi.
Microsoft’tan Rajjoub, “Sizin adınıza çalışan bir ajanınız olduğu bir geleceğe sahip olduğunuz bir gelecek hayal edin ve ortamınızda bir saldırı mümkün hale gelmeden önce bile koruyabilir ve savunabilir” dedi.
Rajjoub, altı ay içinde AI ajanlarının kendi başlarına akıl yürütebileceğini ve insan operatörlerinin belirtilen hedeflerine ulaşmak için bir ağda çeşitli araçları otomatik olarak dağıtabileceğini tahmin etti. Bir buçuk yıl içinde, bu ajanların bu hedeflerin peşinde kendilerini geliştirebileceklerini ve değiştirebileceklerini söyledi. Ve iki yıl içinde, ajanların atandıkları daha geniş hedeflere ulaşmak için verdikleri özel talimatları değiştirebileceğini tahmin etti.
“Bundan iki, üç, dört, beş, altı yıl değil” dedi. “Kelimenin tam anlamıyla haftalar ve aylar hakkında konuşuyoruz.”
Sınırlamalar ve riskler
Ancak AI ajanları daha fazla görev üstlendikçe, onları izlemek daha karmaşık hale gelecektir.
“Çalışanlarımızın ajanların nasıl inşa edildiğinin hızına ayak uydurabileceğini gerçekten düşünüyor muyuz?” dedi Gartner araştırma başkan yardımcısı Dennis Xu. “Muhtemelen asla yetişemeyeceğiz.”
Cesur bir çözüm önerdi: “Aracıları izlemek için ajanları kullanmamız gerekiyor. Ancak bu zaman ufukta daha fazla.”
Birçok analist, SOC’de AI’nın konuşlandırılmasında dikkatli olmaya çağırdı. Chuvakin, bazı “akla yatkın ama riskli” ve diğerleri, AI’nin orta vadeye yakın geleceğe ulaşabileceğine inanmak için “düz bir reddetme” kategorisini anlattı.
Riskli kategoride Chuvakin, eski sistemleri yamalamak, müdahalelere yanıt vermek ve düzenleyici uyum için kanıtlamak gibi özerk görevleri listeledi. “Doldurmak için tüketici sınıfı chatgpt kullanan insanları gördüm [out] Uyum anketleri, ”dedi.“ Onlara dünyadaki tüm şansları diliyorum. ”
Chuvakin’in kısa süre önce herhangi bir zamanda başardığını hayal edemeyeceğini söylediği görevler arasında stratejik risk analizi, kriz iletişimi ve üst düzey ulus-devlet rakiplerine karşı tehdit avı bulunmaktadır. İleri hacker gruplarıyla savaşmak “insan bir görevidir” dedi, “çünkü nihayetinde, bugün itibariyle insanlar hala makineleri aşıyor.”
Gartner’ın Shoard, masa üstü egzersizleri oluşturmak için AI kullanmanın çalışanları, gelişen tehditler hakkında onları uyarmak için AI’ya aşırı bağımlı hale getirebileceğini, ancak tehdit algılama sorguları oluşturmak için çalışanların araştırma becerilerini azaltabileceğini belirtti. “Sonunda az gelişmiş personelle sonuçlanacaksınız,” dedi, “AI gibi şeylere aşırı bağımlı olan personel.”
‘Kabile bilgisini’ korumak
Birden fazla uzman, AI’nın bir SOC’deki insanları asla değiştirmeyeceğini, çünkü insan yargısının güvenlik olaylarını analiz etmenin ve yanıtlamanın önemli bir parçası olduğunu söyledi.
“Gerçek bir SOC’de yaptığımız birçok şey… kabile bilgisi olan şeyleri içerir,” dedi Chuvakin, resmi olarak belgelenmemiş uygulamalara atıfta bulunarak. AI bu etkinlikleri gerçekleştirmek için mücadele edecek – Chuvakin, birçok modelin, çalıştıkları belirli ağlar için mantıklı olmayan eylemler önerdiğini söyledi. Özellikle, AI’nın hala kuruldukları konusunda “tüm özellikler nedeniyle” son derece özelleştirilmiş miras BT ortamlarına göre tasarlanmış tehdit algılama kuralları yazamadığını söyledi.
Chuvakin, Startups’ın “AI-Soc-AI-Box” sahalarının alıcı sonunda şirketleri “Bu büyünün nasıl olacağını sormaya çağırdı [address] İnsan kafalarında olan şeyler. ”
AI ayrıca SOC analistlerinin becerilerini ve yeteneklerini artırabilir. Shoard bunu bir SOC işgücü için “büyük bir kuvvet çarpanı” olarak nitelendirdi, ancak şirketleri çok fazla güvenmemeleri konusunda uyardı.
Shoard, “SOC personelinizi aniden bir AI işlevi satın aldığınız için görevden alabileceğinizi düşünüyorsanız, sanırım sağlam bir şekilde hayal kırıklığına uğrayacaksınız” dedi. “AI güvenlik personelinizi değiştirmeyecek, bu yüzden onları geliştirmek için kullanın [and] onları işlerinde daha iyi hale getirin. ”
AI’da güvenmek zorundayız
Uzmanlar, geleceğin SOC’sinde, insanların sadece AI ajanlarıyla birlikte çalışmayacağını söyledi. Ayrıca bu ajanları izlemeleri gerekecek.
“Tam özerklik istemiyoruz,” dedi Tiaa Ciso Upendra Mardikar. “Döngüde bir insan var.”
Uzmanlar, bu insanların AI ajanlarının eylemlerinin denetlenebilir ve şirket politikaları tarafından kontrol edilmesini sağlamaları gerektiğini söyledi. Red Ventures’ta Bilgi Güvenliği Direktörü Jose Veitia, işletmelerin “tüm eylemlerin doğrulandığından emin olmaları” gerektiğini söyledi.
Otomatik bir sistem tasarlamak, doğru verileri beslemeyi gerektirir. “Bir makinenin sadece bizim için kararlar vermesine izin verirsek,” dedi Gartner’s Shoard, “o zaman bu kararı etkili bir şekilde vermek için ilgili tüm bilgilere sahip olduğuna güvenmeliyiz.”
Güven ve doğrulama, bu hafta Gartner Konferansı boyunca AI tartışmalarında yaygın temalardı.
“Güven, bu ajanların inşa edildiği kumaş olmalı,” dedi Rajjoub. “Ajanlar ne kadar yaygın ve yetenekli olursa, güvenlikleri hepimiz için o kadar kritik hale gelir.”
Ancak AI ajanları daha yetenekli hale geldikçe, SOC’deki değerleri önemli ölçüde artabilir.
“Ne yazık ki, AI sihir değil. Hiç olacağını sanmıyorum,” dedi Shoard. “Ama Soc’da bizim için bir şeyler geliştirecek. Bunu büyük bir özenle düşünmelisiniz, ancak deneysel olarak düşünün ve kullanın.”