AI tabanlı saldırılar, yapay zeka ve makine öğrenimi, dolandırıcılık yönetimi ve siber suç
Güvenlik liderleri, Tehdit Tespiti için AI araçları ortaya çıktıkça vaat ve riski dengeler
Steven Sim Kok Leong, Başkan, OT-ISAC Danışma Komitesi •
28 Şubat 2025

Yapay zeka sistemlerinin güvence altına alınmasıyla ilgili tartışmalar 2024’te siber güvenlik konuşmalarına egemen oldu. Ancak daha kritik bir soru ortaya çıktı: AI siber güvenliği nasıl güçlendirebilir?
Ayrıca bakınız: Uygun bir BYOD politikası için kapsamlı kılavuz
Makine öğrenimi, 2015 yılından bu yana siber güvenlikte kilit bir rol oynamıştır, bu da uç nokta tespit ve yanıt, ağ algılama ve yanıt ve genişletilmiş algılama ve yanıt sistemlerinde anomali tespiti ve davranışsal analitik sağlar. Bu araçlar artık hem yanlış pozitifleri hem de yanlış negatifleri azaltmak için makine öğrenimi kullanarak güvenlik bilgileri ve etkinlik yönetimi platformları ile entegre edilmektedir. Şimdi “Yardımcı AI” olarak adlandırılan bu yaklaşım, tehdit tespit ve analiz yeteneklerini geliştirmektedir.
2023’ün sonlarında dünyayı fırtınaya alan üretken AI, güvenlik profesyonellerini siber güvenlik uygulamalarını incelemeye teşvik etti. Kuruluşlar, olay raporları oluşturmak ve öz analizler sunmak için kullanmaya başladı. Gen Ai ile olan zorluk, birincil yardımcı nitelikte yatmaktadır. Bazı satıcılar AI çözümlerinin makine hızlı olay tepkisini sağladığını iddia ettiler, ancak insan gözetimi gereklidir. Bu nedenle, bu aşamada, geri kazanım artırılmış üretim veya paçavra ile bile güvence verilemiyorsa, bu aşamada elde edilemez.
Ajan yapay zeka ile ilgili tartışmalar 2024’ün sonlarından beri arttı ve 2025’in başlarına kadar devam etti. Bu teknoloji potansiyel bir oyun değiştirici temsil ediyor, çünkü güvenlik orkestrası, otomasyon ve yanıt sistemlerindeki otomatik süreçlerden farklı olarak özerk tehdit algılama ve yanıtını sağlıyor. Ajan yapay zeka ile endüstri, gerçek makine hızlı güvenlik operasyonlarına ulaşmaya yaklaşıyor.
Çoğu şirket, EDR ve SIEM’i makine öğrenme yetenekleriyle konuşlandırmıştır ve bu evlat edinme, işletmelerin arazide yaşayanlar veya LOTL de dahil olmak üzere davranışsal saldırılara karşı savunmasına yardımcı olmuştur. Bu ilerlemelere rağmen, yanıt büyük ölçüde manuel olarak kalır ve analist ekiplerinin yönetilen tespit ve müdahale hizmetleri sağlamasını gerektirir. Bu insan unsuru önemli gecikmeler yaratır ve potansiyel olarak Ajan AI kullanan saldırganların savunucuların yanıt vermeden önce hedeflerini tamamlamasını sağlar. Siber güvenlik endüstrisinin, özerk savunmalara karşı koymak için benzer AI teknolojilerini benimseyerek rakiplerin yeteneklerini eşleştirmesi gerekiyor – AI ile AI ile savaşın.
Saldırganların 999 kez başarısız olurken sadece bir kez başarılı olması gerekirken, savunucular her seferinde başarılı olmalıdır. Bilgisayar korsanları, bir kurbanın ağında algoritmaların başarısız olup olmadığı umrumda değil – her zaman tekrar deneyebilirler. Güvenlik ekiplerinin, çözümlerinin iş operasyonlarını bozmadan sistemleri korumasını sağlamalıdır.
Gen AI Wave’a binmek için acele ederek, birçok satıcı 2024’te ürün, hizmet ve çözüm yayınladı ve kullanıcı işletmeleri, AI benimseme yönetim kurullarından ortak bir soru haline geldikçe bu çözümleri pilotlaştırmaya başladı.
Son kullanıcılarda onus
Birçok siber güvenlik satıcısı çözümü maalesef kısaldı. Üç temel husus satıcısı, Gen AI çözümlerini değerlendirirken göz ardı etme eğilimindedir. İşletmeler hayal kırıklığını dile getirirken, satıcılar iyileştirmeler vaat eden gelecekteki sürümleri beklemeyi tavsiye etti.
2024’ün sonlarına ve 2025’in başlarına kadar, bazı EDR, NDR ve XDR satıcıları ajanik AI yeteneklerini sergilemeye başladı. Tüm umutlar bitti, ancak MSSP’ler MDR için gereken personeli azaltıncaya kadar, manuel yükü azaltmak için ajan yapay zekayı etkili bir şekilde kullandığımızı açıkça söyleyemeyiz.
Bu boşluğu kapatmak için, kullanıcı işletmelerinin satıcılara test etmeye ve geri bildirim sağlamaya devam etmeleri gerekir. Siber güvenlik ekosistemi, ancak hem satıcılar hem de işletmeler inovasyona bağlı kaldığında, bir büyüme zihniyetini benimsediğinde ve kullanıcı ihtiyaçlarını ve geri bildirimleri dikkate aldığında olgunlaşabilir.
Ajanik AI’nın korkuluklara ihtiyacı var
Satıcılar, standart çözümlere kıyasla ajanik AI faydalarını gösteren kapsamlı kullanıcı kabul testi yönergeleri sağlamalıdır. Bu yönergeler, AI aracının sadece eksiksiz, sağlam ve güvenilir olup olmadığını, aynı zamanda halüsinasyon yapmadığını kontrol etmek için net metodolojiler gerektirir.
Siber güvenlik satıcıları ayrıca, aracı AI çözümlerinin siber saldırılara dayanabileceğini kanıtlamalıdır. Daha büyük yeteneklerle daha büyük sorumluluklar gelir. Yanlış yönlendirilmiş bir otonom sistem, kötü amaçlı yazılım enfeksiyonlarını yanlış tanımladıktan sonra tüm sunucuları ve uç noktaları karantinaya çıkararak tüm bir işletmeyi potansiyel olarak kapatabilir.
Yapay zekanın evrimi konusunda ihtiyatlı bir şekilde iyimserim. Bence yardımcı AI 2025 yılında siber güvenlik cephesinde daha fazla evlat edinme ile olgunlaşıyor, ancak ajan yapay zeka hala gelişimin ilk aşamalarında. Uygulama, test için uygun korkuluklar ve kum havuzu ortamları gerektirir. Büyük işletmelerdeki birçok siber güvenlik lideri, sınırlı zaman ve kaynaklar nedeniyle bekleme ve gör yaklaşımı benimsiyor ve taahhütte bulunmadan önce endüstri liderlerinin benimsenmesine izin vermeyi tercih ediyor.
Güvenlik uzmanları, özellikle kritik altyapı için, felaket operasyonel etkileri olan kariyer tahrip edici, kendi kendine hizmet reddedilen hizmet olaylarına neden olabilecek çözümlerden kaçınmıştır. Bu endişelere rağmen, görünüm dengeli olmaya devam ediyor. Bulut benimsemesine benzer şekilde, AI entegrasyonu Gartner hype döngüsünü aşamalı olgunluk ile takip etti. Endüstri, aydınlatma eğimini üretken uygulamaya doğru ilerletiyor.