Kuzey Kore’nin kimuky hacker’ları, yeni bir kimlik avı kampanyasında AI tarafından üretilen sahte askeri kimlikler kullanıyor, GSC, geçmiş ClickFix taktiklerinden bir geçiş yaparak uyarıyor.
Kötü şöhretli bir Kuzey Kore hackleme grubu olan Kimuky, şimdi en son kimlik avı kampanyasını çekmek için yapay zeka (AI) araçlarıyla oluşturulan sahte askeri kimlik kartlarını kullanıyor. Siber güvenlik firması Güvenlik Merkezi’ne (GSC) göre, bu, daha önce kurbanları sahte güvenlik pop-up’ları sunarak kötü niyetli komutlar çalıştırmaya kandıran grubun geçmiş ClickFix taktiklerinden yeni bir adım.
Yeni yaklaşım ilk olarak Temmuz 2025’te saldırganların meşru bir Güney Kore savunma kurumundan gibi görünen e -postalar gönderdikleri tespit edildi. Bu mesajlar, genellikle askeri personel için yeni bir kimlik kartı hakkında gibi davranan dikkat çekmek için tasarlanmıştır.

Yem, gerçek bir askeri kimliğin taslağı gibi görünen bir zip dosyasıdır. Ama bir yakalama var: kimlikteki ikna edici fotoğraf gerçek değil. Chatgpt gibi yaygın olarak mevcut AI araçları kullanılarak oluşturulan, sahte olmanın% 98’ine yakın bir kesinliğe sahip AI tarafından üretilen bir derin peynirdir.

Şüphesiz bir kişi dosyayı açarsa, gerçek saldırı başlar. Gizli bir kötü amaçlı program hemen arka planda çalışmaya başlar. Tespitten kaçınmak için, gizlice bir kötü amaçlı dosyayı indirmeden önce birkaç saniye bekler. LhUdPC3G.bat
uzak bir sunucudan jiwooeng.co.kr
.
Hem toplu dosyaları hem de otomatik komut dosyalarını kullanarak, bilgisayar korsanları daha sonra Hancom ofisi için bir güncelleme olarak gizlenmiş, her yedi dakikada bir çalıştırmak için HncautoupDatetaskMachine adlı kötü amaçlı bir görev yükler. Araştırmacılar, bilgisayar korsanlarının diğer saldırılarda benzer taktikler kullandıklarını, “Start_juice
” Ve “Eextract_juice
”Kodlarında görünüyor.
Bu DeepFake Askeri Kimliği kampanyası, Kimuky Group’un taktiklerini nasıl değiştirdiğini, aynı hedefe ulaşmak için daha sosyal olarak tasarlanmış bir tuzak kullanarak, bilgisayarlarını tehlikeye atan bir dizi senaryo çalıştırmak için aynı hedefe ulaşmak için nasıl değiştirdiğini gösteriyor.
Grup ilk kez AI’yi kötü niyetli amaçlar için kullanmamıştır. Haziran 2025’te Openai, Kuzey Kore tehdit aktörlerinin teknik iş görüşmelerini geçmek için AI ile sahte kimlikler yarattığını bildirdi. Çin, Rusya ve İran’dan gelen bilgisayar korsanları da benzer faaliyetler için AI araçlarını, özellikle Chatgpt’i kötüye kullandı.
Nihayetinde, bu son kampanya daha gelişmiş güvenlik ihtiyacını vurgulamaktadır. GSC’ye göre, uç nokta algılama ve yanıt (EDR) gibi sistemler, kötü niyetli etkinliklerini gizlemek için gizlenmiş komut dosyalarına dayanan bu tür saldırıları tespit etmek ve nötralize etmek için gereklidir.