AI ajanlarına koçluk: Bir sonraki güvenlik kiranız neden bir algoritma olabilir?


Güvenlik ekipleri uyarılarda boğuluyor. Tehdit, şüpheli faaliyet ve yanlış pozitif hacmi, analistlerin her şeyi etkili bir şekilde araştırmasını neredeyse imkansız hale getirir. Yüzlerce görevi aynı anda yorucu olmadan tamamlayabilen Ajan AI’ya girin.

Kuruluşlar, uyarı triyajı gibi tekrarlayan güvenlik görevlerini yerine getirmek için artan AI’ya yönelerek, insan analistlerinin en kritik tehditlere odaklanmasına izin veriyor. Ancak ajan yapay zeka hızlı olsa da, yanılmaz değildir. Bir kuruluşun benzersiz risk manzarasını veya güvenlik önceliklerini doğal olarak anlamıyor.

Herhangi bir yeni işe alım gibi, bir AI temsilcisinin etkili olması için rehberliğe ihtiyacı vardır. Güvenlik politikalarına ve operasyonel iş akışlarına uymak için uyarlanmalı, izlenmeli ve rafine edilmelidir.

Güvenlik operasyonlarındaki değişim, insan analistlerinin yerini almak değil, onları artırmakla ilgili değil. Bir AI ajanı, verilerden eleme ve potansiyel tehditleri tanımlayan ekstra bir el seti olarak işlev görür. Bununla birlikte, kontrolsüz bırakılan AI, yanlış varsayımları güçlendirebilir, verileri yanlış yorumlayabilir veya yanıltıcı sonuçlar üretebilir.

Küçük bir analist olarak AI: Yetenekli, ancak eğitime ihtiyaç duyuyor

Siber güvenlik için AI ajanları geçmişin geleneksel kural tabanlı sistemleri gibi değildir. Sabit bir dizi talimat izleyen Playbook tabanlı otomasyonun aksine, Ajanik AI dinamiktir-zaman içinde yaklaşımını öğrenir, uyarlar ve geliştirir.

Önceden tanımlanmış kuralları körü körüne yürütmek yerine, mantıksal akıl yürütmeye dayalı kararlar alır, bir tehdide işaret edebilecek anomalileri tespit etmek için geniş veri kümelerindeki kalıpları analiz eder. Ancak bu esneklik aynı zamanda iki ucu keskin bir kılıçtır. Net bir yön olmadan, AI sinyalleri yanlış yorumlayabilir, kritik bağlamı gözden kaçırabilir veya yanlış varsayımları güçlendirebilir.

Birçok yönden, bir AI aracısı çok akıllı bir genç güvenlik analisti gibi işlev görür. Ancak, 1. günde iş bağlamını anlamayan yeni işe alınan bir insan analisti gibi, AI bir kuruluşun risk iştahı, eleştirel varlıkları veya iç iş akışlarının kutudan doğasında var olan farkındalıktan yoksundur. Doğru bağlam verilmezse gerçekten tehlikeli tehditleri kaçırırken önemsiz anormallikleri işaretleyebilir.

Junior personel gibi, ajan AI’nın kararlarının gerçek dünya öncelikleriyle uyumlu olmasını sağlamak için işe alım, mentorluk ve periyodik geri bildirim ihtiyacı vardır. Güvenlik ekipleri, AI’ya bir yangın ve onay aracı olarak değil, gelişmekte olan bir analist olarak, zamanla daha etkili hale gelen bir analist olarak davranmalıdır.

Bu rehberlik olmadan, iş bağlamı olmayan AI, zaten karmaşık bir güvenlik ortamında öngörülemeyen bir başka değişkendir. Bu rehberlikle AI, ayrıntıları asla unutmayan ve örgütsel politikaları, uygulamaları ve tercihleri ​​sürekli olarak uygulayan güvenilir bir takım arkadaşı olacak.

Ajanik bir AI yerleşik süreç oluşturmak

Herhangi bir yeni ekip üyesi gibi, AI ajanlarının maksimum etkinlikte çalışmadan önce işe alım yapması gerekir. Uygun işe alım yapmadan, tehditleri yanlış sınıflandırma, aşırı yanlış pozitifler üretme veya ince saldırı kalıplarını tanımama riskiyle karşı karşıya kalırlar. Bu nedenle daha olgun ajan AI sistemleri, sistemin bunları inceleyebileceği ve organizasyona uyum sağlayabilmesi için dahili belgelere, tarihsel olay günlüklerine veya sohbet geçmişlerine erişim isteyecektir.

Tarihsel güvenlik olayları, çevresel detaylar ve olay müdahale oyun kitapları, bir kuruluşun benzersiz güvenlik ortamındaki tehditleri tanımasına yardımcı olarak eğitim materyali olarak hizmet eder. Alternatif olarak, bu detaylar aracı sistemin iyi huylu aktiviteyi tanımasına yardımcı olabilir. Örneğin, sistem izin verilen VPN hizmetlerine neye izin verildiğini veya hangi kullanıcıların güvenlik testi yapmaya yetkili olduğunu bildiğinde, bu hizmetler veya faaliyetlerle ilgili bazı uyarıları iyi huylu olarak işaretlemeyi bilecektir.

Bağlam anahtardır. AI ajanları, işletmeye özgü risk faktörleri konusunda kolayca eğitilebilir: hangi varlıklar en kritiktir, hangi kullanıcıların ayrıcalıklara sahip olduğu ve hangi davranışların şüpheliye karşı güvenli olduğu düşünülmesi gerekir. Ayrıca, kararlarının güvenlik ekiplerinin operasyonlarıyla uyumlu olmasını sağlamak için yerleşik araştırma iş akışlarını, yükseltme prosedürlerini ve raporlama yapılarını takip edecek şekilde yapılandırılmalıdır. Uygun şekilde uyarlandığında ve yapılandırıldığında, ajan AI sadece uyarıları işlemekle kalmaz; Gereksiz gürültü eklemeden güvenliği artıran bilinçli, bağlama duyarlı kararlar verir.

Sürekli iyileştirme için AI koçluğu

AI’yi uyarlamak tek seferlik bir olay değil, devam eden bir süreç. Herhangi bir ekip üyesi gibi, ajan yapay zeka dağıtımları da deneyim, geri bildirim ve sürekli iyileştirme yoluyla gelişir.

İlk adım, döngüdeki insan gözetimini sürdürmektir. Herhangi bir sorumlu yönetici gibi, güvenlik analistleri de AI tarafından oluşturulan raporları düzenli olarak gözden geçirmeli, temel bulguları doğrulamalı ve gerektiğinde sonuçları hassaslaştırmalıdır. AI kara kutu olarak çalışmamalı, akıl yürütmesi şeffaf olmalı ve insan analistlerinin kararlara nasıl ulaşıldığını anlamalarına izin vermelidir.

Hataların olacağını anlayın. Yanlış pozitifler ve negatifler kaçınılmazdır, ancak güvenlik ekiplerinin bunları nasıl ele aldığını nasıl ele alır. Analistler müdahale etmeli, AI’nın muhakemesini düzeltmeli ve bu bilgileri sisteme beslemelidir.

Çoğu ajanik AI sistemi, akıl yürütmelerini iyileştirmek için üzerine yazma ve düzeltmeleri kabul eder. Zamanla, bu yinelemeli süreç, sistemin gerçek tehditleri tanımlamadaki doğruluğunu artırırken AI’nın gürültüyü azaltma yeteneğini keskinleştirir.

Yapay zeka yanılmaz bir kehanet yerine bir öğrenme sistemi olarak muamele edildiğinde, sadece bir araçtan daha fazlası haline gelir, siber güvenlikte ortak olur. Yapay zekalarını uyarlamaya yatırım yapan ekipler, uyarı yorgunluğunu azaltacak ve yeni tehditleri karşılamak için sürekli olarak gelişen bir güvenlik operasyonu oluşturacaktır.

AI ve İnsan İşbirliği: SOC çalışmasının geleceği

Güvenlik operasyonlarının geleceği AI ve insan analistleri arasında seçim yapmakla ilgili değildir. Daha güçlü, daha ölçeklenebilir bir SOC inşa etmek için her ikisini de kullanma ile ilgilidir. Analistler, yapay zeka, her uyarıyı araştırmanın, soruları cevaplamak için günlükleri sorgulamanın ve her şeyi raporlarda bir araya getirmenin ağır kaldırılmasını üstlendikçe denetleyici ve stratejik rollere geçeceklerdir.

Güvenlik uzmanları, tekrarlayan uyarı triyajı ile boğulmak yerine, AI ajanlarını ve insan yargısı ve incelik gerektiren projeleri denetlemeye odaklanacaklar. Bu değişim verimliliği artıracak ve güvenlik ekiplerinin daha proaktif olmasına izin verecek, tehdit modellemesi, saldırı yüzey yönetimi ve uzun vadeli risk azaltma için daha fazla zaman harcayacaktır.

Bu AI-AI. Analistler AI gözetiminde yeni beceriler geliştirmeli, AI davranışlarını ayarlamak için doğal dil istemlerini ve araştırmacı denetimini kullanarak AI’nın bir yükümlülükten ziyade güvenilir bir varlık olarak kalmasını sağlamalıdır.

Gelecekteki siber güvenlik iş tanımları, tehdit algılama konusunda uzmanlık ve tıpkı bir SOC yöneticisi gibi AI destekli güvenlik iş akışlarını denetleme ve geliştirme yeteneği talep eden bu evrimi yansıtacaktır. Bu yeni gerçekliğe uyum sağlayanlar, sadece daha hızlı ve daha verimli değil, aynı zamanda daha dayanıklı bir güvenlik işlemi yaratacaklar.



Source link