AI Modeli, Dark Web Tehdit İstihbaratını Toplamada %98 Doğruluk Elde Etti


Karanlık Web Tehdit İstihbaratı

Montréal Üniversitesi ve Flare Systems’dan araştırmacılar yakın zamanda yaptıkları bir çalışmada, büyük dil modellerinin (LLM’ler) siber suç forumlarından kritik siber tehdit istihbaratını (CTI) etkileyici bir %98 doğrulukla doğru bir şekilde çıkarabileceğini gösterdi. Bir teknik raporda yayınlanan bulgular, yapay zekanın siber güvenlik çabalarını desteklemedeki muazzam potansiyelini vurguluyor.

Montréal Üniversitesi Kriminoloji Okulu’ndan Vanessa Clairoux-Trépanier ve Isa-May Beauchamp liderliğindeki araştırma ekibi, Flare Systems ile iş birliği yaparak OpenAI’nin GPT-3.5-turbo modeliyle desteklenen bir LLM sistemi geliştirdi.

DÖRT

Bu sistem üç önemli siber suç forumundaki (XSS, Exploit.in ve RAMP) konuşmaları analiz etti.

Clairoux-Trépanier, “Amacımız, siber tehditler hakkında kapsamlı tartışmaların yer aldığı bilinen bu forumlardan önemli CTI bilgilerini çıkarmada LLM’lerin doğruluğunu ve verimliliğini değerlendirmekti” şeklinde konuştu.

Download Free Cybersecurity Planning Checklist for SME Leaders (PDF) – Free Download

Büyük Dil Modeli Kullanarak Tehdit İstihbaratı Toplama

LLM sistemine, konuşmaları özetlemesi ve hedeflenen kuruluşları, kritik altyapıyı ve istismar edilebilir güvenlik açıklarını belirlemek gibi on kritik CTI değişkenini kodlaması talimatı verildi.

Daha sonra iki insan kodlayıcı, LLM çıktısının doğruluğunu değerlendirmek için her konuşmayı titizlikle inceledi.

Sonuçlar mükemmeldi, LLM sistemi on değişkende %95 ile %100 arasında değişen ortalama %98 doğruluk puanı elde etti. Bu performans seviyesi araştırmacıların beklentilerini aştı ve LLM’lerin siber tehdit istihbaratı alanındaki muazzam potansiyelini vurguladı.

Beauchamp, “Bulgularımız, LLM’lerin siber suç forumlarından ilgili bilgileri çıkarmada birinci seviye tehdit analistlerinin yerini etkili bir şekilde alabileceğini gösteriyor,” dedi. “Bu teknoloji, CTI çabalarının verimliliğini ve ölçeklenebilirliğini önemli ölçüde artırabilir ve kuruluşların siber tehditlerin bir adım önünde kalmasını sağlayabilir.”

Çalışma ayrıca, LLM’nin tarihsel anlatılar ile güncel olaylar arasında ayrım yapma becerisini geliştirmek ve istemleri ve veri parçalama tekniklerini optimize etmek gibi daha fazla iyileştirme için alanlar belirledi. Bu küçük sınırlamalara rağmen, araştırmacılar LLM sisteminin performansının insan analistlerinkine benzer olduğunu vurguluyor.

Avusturya, Viyana’daki Karmaşıklık Bilimi Merkezi’nden ortak yazar Masarah Paquet-Clouston, çalışmanın daha geniş kapsamlı etkileri hakkında şu yorumu yaptı: “Yapay zekanın gücünden yararlanarak, siber tehdit istihbaratına yaklaşımımızı kökten değiştirebiliriz. Bu teknoloji, kuruluşlara siber saldırılara karşı proaktif bir şekilde savunmak için gerçek zamanlı, eyleme geçirilebilir içgörüler sağlama potansiyeline sahiptir.”

Araştırmacılar LLM sistemini geliştirmeye ve çeşitli siber güvenlik alanlarındaki uygulamalarını keşfetmeye devam etmeyi planlıyorlar. Ayrıca, AI destekli siber tehdit istihbaratının sınırlarını zorlamak için Claude 3.5 Sonnet ve GPT-4o gibi son teknoloji modellerin kullanılması konusunda daha fazla araştırma yapılmasını talep ediyorlar.

Siber tehditler evrimleşmeye ve daha karmaşık hale gelmeye devam ettikçe, AI ve büyük dil modellerini siber güvenlik stratejilerine entegre etmek oyunun kurallarını değiştirecek bir unsur haline gelecektir. Université de Montréal ve Flare Systems tarafından yapılan bu çığır açıcı çalışma, proaktif, istihbarat odaklı siber güvenliğin yeni bir döneminin yolunu açıyor.

Are you from SOC and DFIR Teams? Analyse Malware Incidents & get live Access with ANY.RUN -> Get 14 Days Free Access



Source link