Net güvenlik röportajında bu yardımcı olarak, Perspektif İstihbarat Direktörü Aaron Roberts, otomasyonun tehdit istihbaratını nasıl yeniden şekillendirdiğini tartışıyor. AI araçları büyük veri setlerini işleyebilirken, deneyimli analistlerin nüanslı kararının kritik olduğunu açıklıyor.
Roberts ayrıca otomatik sistemleri entegre etmek, açıklanabilirliği sağlamak ve siber güvenlikteki etik zorlukları ele almak için en iyi uygulamalar hakkında bilgi vermektedir.
Birçok kuruluş, AI güdümlü güvenlik araçlarına güvenlerini artırıyor. Deneyimlerinize göre, otomasyon en çok değeri nereden sağlar ve insan uzmanlığı hala gereklidir?
Otomasyon yoluyla kullanabileceğimiz en büyük avantajın veri toplama ve ilk veri işleme kombinasyonu olduğunu düşünüyorum. Tehdit istihbaratında, büyük bir veri kümesi alabilmek ve içeriği hakkında bazı bağlamlar elde edebilmek ve temel bulguların potansiyel göstergeleri büyük bir zaman tasarrufu olabilir. Şubat 2025’te, Blackbasta Ransomware Group’un bazı dahili sohbetleri sızdırdığını düşünürsek, 24 saat içinde özel bir GPT’ye erişebilir ve bu veri setini sorgulayabilirsiniz. Daha önce, çevirilere güvenmek ve bunu manuel olarak yapmak zorundayız, ancak bugün – bir fidye yazılım grubunun yeteneğini, metodolojisini ve mağduriyetini, teknolojiyi bu şekilde kullanarak dakikalar içinde birkaç dakikada artırabilirsiniz.
Ancak, gümüş bir mermi düşünemeyiz. Bir istihbarat uygulayıcısı olarak, yine de bu bulguları doğrulamam ve onaylamam gerekir. AI’yi özel bir istihbarat analistinin yeteneklerini sağlayacak kadar güvenilir olduğunu düşünebileceğimiz bir noktada hiçbir yerde olduğumuzu düşünmüyorum. Ancak, siber suçla mücadelede giderek daha şaşırtıcı bir araç haline geldiğini düşünüyorum ve analist ekiplerinin potansiyel potansiyel müşterileri hızlı bir şekilde tanımlaması için bir güç çarpanı olabilir.
AI odaklı güvenlik çözümleri tehditlere özerk bir şekilde yanıt verebilir, ancak insan yargısı genellikle kritik kararlar için gereklidir. Otomatik müdahale sistemlerini insan karar alma ile entegre etmek için en iyi uygulamalar nelerdir?
Yapay zeka güdümlü yanıtları uygulamak için en iyi yaklaşımın, bu araçların ortaya çıkmasından önce çoğu yanıta benzer olduğuna inanıyorum. Bu ortamlarda çalıştıktan sonra, bir savunma ekibinin otomatik bir yanıt eklemesi ve etkinin herhangi bir doğrulaması yapmaması veya çalışması durumunda. Aynı şey AI liderliğindeki müdahale için de geçerlidir. Zamanınızı alın, bir kum havuzu veya üretim dışı bir ortamda uygulayın ve bunun tehdit olarak algıladığı şeye nasıl davrandığını ve yanıt verdiğini görün. Bence belirli senaryoları ve bunların iş üzerindeki olası etkilerini göz önünde bulundurduğumuzda, pragmatik olabilir ve otomatik yanıtları yavaş yavaş tanıtabiliriz. Belki daha düşük öncelikli uyarılarla başlarsınız, güveninizi artırmadan ve bu kontrolün bir kısmını AI ajanına bırakmadan önce bunların nasıl ele alındığına dikkat edersiniz.
Son örneğe benzer şekilde, AI’nın eylemleri veya önerilerini insan gözetimi almanın çok önemli olduğunu düşünüyorum. Bir şeyi yanlış anlama veya yanlış yorumlama fırsatları olduğunu biliyoruz, bu yüzden düşünülen ve yapılandırılmış bir yaklaşımı benimsemek, bence bunu iyi yapmak için hayati önem taşıyor. Yapay zekanın gücünün gürültüyü kesebilmek ve size en alakalı olan şeyleri sağlamak olduğunu düşünüyorum, ancak yine de bir insanın güvenine ve doğrulamasına ihtiyacınız var. bir öneri veya öneri.
Siber güvenlikte “açıklanabilir yapay zeka” kavramı ne kadar kritiktir ve kuruluşlar AI tarafından oluşturulan güvenlik anlayışlarının insan analistler için anlaşılabilir olmasını nasıl sağlayabilir?
Bu harika bir soru ve şu anda Chatgpt gibi platformlarda eksik olduğunu düşünüyorum. Düşünce sürecini ve çıktısını görebilirsiniz, ancak çoğu zaman, bir şeyin neden değiştirildiğini gerçekten göremediğinizi düşünüyorum. Bu süreç akışını takip edebilmek ve karar verme sürecini görmek, siber güvenlik ile ilgili doğru kararların alınmasını sağlamak için kesinlikle anahtardır.
AI-kullanım için ajanların artan gelişiyle, bence bu gelişecek bir şey. Modeli rolüne odaklanacak şekilde eğitirken, aşağıdaki kontrol ve bakiyelerinin olmasını ve ayrıca bu kontrollere ve bakiyelere karşı kendini incelemesini sağlayabilirsiniz. Bence bu daha küçük, hafif ajanların potansiyeli gerçek bir oyun değiştirici olabilir. İnsanın gördüğü şeyin mantıklı olduğunu sağlamak için ilk çıktının mantıklı olup olmadığını ve kendini gözden geçirip incelemediğini anlayabilen küçük, odaklanmış görevler. Her ne kadar alanda heyecan verici bir gelişme olsa da, ajanların şu anda yeterince güvenilir olma olasılığının biraz zaman alacağını düşünmeme rağmen. Belki GPT5, GROK3 ve diğer gelen modellerle önemli gelişmeler göreceğiz, ancak zaman anlatacak.
AI modelleri bazen eğitim verilerinde bulunan önyargıları yansıtabilir. İnsan analistleri otomatik siber güvenlik araçlarının önyargıları güçlendirmemesini veya yanıltıcı güvenlik bilgileri oluşturmamasını nasıl sağlayabilir?
Bu eğitime gelecek. Bir istihbarat uygulayıcısı olarak, bilmeniz gereken en önemli şeylerden biri bilinçdışı önyargılarınızdır. Çünkü hepimiz onlara sahibiz. Ancak bunu anlayabilmek ve varsayımlarınıza, analizlerinize ve hipotezlerinize meydan okuyan uygulamaları uygulamak, en iyi istihbarat ürününü sağlamanın anahtarıdır. Bence bu büyüleyici bir sorun, özellikle de bir SOC analisti veya güvenlik açığı yöneticisinin dikkate alabileceği bir şey olmadığı için, çünkü bu şekilde düşünmek gerçekten işlerinin bir parçası değil, değil mi?
Neyse ki, AI verileri ile çalışmak söz konusu olduğunda, sistem istemleri gibi şeyleri uygulayabiliriz, çıktı olarak görmek istediğimiz şeyde açık olabiliriz ve bulguların nerede ve neden tanımlandığını ve bunların olası etki. Bunun yanı sıra, sorunun insanlar olarak neden eğitim veya becerileri korumak gibi şeyleri bırakamayacağımızın önemini de gösteriyor. AI hataları yapma riski, özellikle eğitimli, spesifik bir veri setinde muhtemelen nispeten düşüktür, ancak yine de sıfır olmayacaktır. Bu bulguları anlayabilen ve yorumlayabilen ve doğru soruları sorabilen bir insana ihtiyacınız var.
Özellikle URL’leri veya ifadeleri halüsinasyon yapacağı yerel LLM’lerle görüyorum ve genellikle bir modeli gerçekten eğitime odaklanmadan belirli bir nedenden dolayı test ederken, yine de açıkça doğru olmayan şeyler yarattığını görüyorum . Şimdi çoğu zaman bu benim için bu bağlamda tamamen zararsız, ancak fidye yazılımı saldırısına bir olay tepkisinin bir parçası olarak? Potansiyel olarak felaket olurdu. İnsan analistleri olarak sunulan bulguları sorgulayabilmemizi, sorgulayabilmemizi ve doğru bir şekilde yorumlayabilmemizi sağlayarak, önyargıların bulguları etkilemesini önlemenin en iyi yolu budur.
Otomatik güvenlik araçları, erişimi engelleme veya tehditleri azaltma gibi özerk eylemler yapabilir. Kuruluşlar bu teknolojileri uygularken hangi etik kaygıları göz önünde bulundurmalıdır?
Güvenlikteki her şey gibi, her zaman yaptığımızın ve nedenin arkasındaki etik konusunda dikkat etmeliyiz. Bu alanda sorgulamadan gri alanlar var ve operasyonlarımız için titiz standartlar ve prosedürler sağlamamız önemlidir. Engelleme ve hafifletmelerimizi tamamen dev bir teknoloji şirketine ait olan bir AI modeline dış kaynak kullanırsak, bu etik ve işimize eklediğimiz ahlaki pusulayı riske atar mıyız? Belki bir sağlayıcı ikinci bir sağlayıcıya savaş ilan ettiyse ve aniden AI tüm bu şirketler altyapısına erişimi engeller? Bilim kurgu gibi geliyor ama en azından biraz akla yatkın olmadığına ikna olmadım.
Güvenliğin bir iş sağlayıcı olmaya devam etmesi de önemlidir. Şüpheli bakış açısı veya insan hakları kayıtlarına sahip olabilecek ülkelerdeki web siteleriyle etkileşime girdiğimiz zamanlar vardır. Yapay zeka bu ülkeleri engelliyor mu, çünkü eğitim verileri desteklememesi veya erişim sağlaması gerektiğini gösteriyor mu? Şimdi bazı kuruluşlar alan adı engelleme aşırıya kaçacak ve bir web sitesine erişmek için süreçler ve onaylar gerektirecek, bence arkaik ve saçma. AI bu alanda yardımcı olabilir mi? Neredeyse kesinlikle. Ancak AI müdahalesi için korkulukların sıkı bir şekilde kontrol edildiğinden ve titiz olduğundan emin olmalıyız.
Bir kimlik avı sitesi gibi göründüğü için bir web sitesinin gerçek zamanlı analizi ve engellenmesi fikri inanılmaz bir varlık olacak bir şeydir, ancak bir kimlik avı sitesi değilse ve bir haber sitesi ise, AI’nın zararlı olduğuna inanır çünkü Şirketin kuruluşa karşı bir dünya görüşü var mı? O zaman bir sorunumuz var.
Teknolojinin evren hakkındaki anlayışımızı katlanarak artırma ve potansiyel olarak hayatımızı iyileştirme potansiyeline sahip olduğu olağanüstü bir zamanda yaşadığımızı düşünüyorum. Ancak bu yolculukta çok erken günler ve güvenlik yığınına AI eklemeye acele etmiyorum çünkü şu anda sürekli bir konuşma noktası mutlaka doğru hareket. Dikkate alınmamız, sorumlu olmalıyız ve araçların bizim için çalışmasını, iş akışlarımızı geliştirmek ve sonuçta işletmelerimizi daha güvenli hale getirmek için sağlamamız gerekiyor.