
Siber güvenlik şirketi ESET, Yapay Zeka (AI)-Powered Ransomware varyantının kodlamayı keşfettiğini açıkladı Antrenman.
Golang’da yazılan yeni tanımlanan suş, gerçek zamanlı olarak kötü niyetli LUA komut dosyaları oluşturmak için Openai Openai’den yerel olarak Openai’den GPT-OSS: 20B modelini kullanır. Açık ağırlık dil modeli bu ayın başlarında Openai tarafından yayınlandı.
ESET, “Hızlı kilitli, yerel dosya sistemini numaralandırmak, hedef dosyaları incelemek, seçilen verileri pess etmek ve şifreleme gerçekleştirmek için sabit kodlanmış istemlerden oluşturulan LUA komut dosyalarından yararlanıyor.” Dedi. “Bu LUA komut dosyaları, Windows, Linux ve macOS’ta işlev gören platformlar arası uyumludur.”
Fidye yazılımı kodu ayrıca “etkilenen dosyalara” dayalı özel bir not oluşturmak için talimatları da yerleştirir ve enfekte makine kişisel bir bilgisayar, şirket sunucusu veya bir güç dağıtım denetleyicisidir. Şu anda kötü amaçlı yazılımların arkasında kimin olduğu bilinmiyor, ancak ESET Hacker News’e, 25 Ağustos 2025’te ABD’den Virustotal’a yüklendiğini söyledi.

Slovak siber güvenlik şirketi, “Promplock, AI tarafından oluşturulan LUA komut dosyalarını kullanıyor, bu da uzlaşma göstergelerinin (IOC’ler) infazlar arasında değişebileceği anlamına geliyor.” “Bu değişkenlik tespit için zorluklar getirir. Düzgün uygulanırsa, böyle bir yaklaşım tehdit tanımlamasını önemli ölçüde karmaşıklaştırabilir ve savunucuların görevlerini daha zor hale getirebilir.”
Vahşi doğada dağıtılan tamamen operasyonel bir kötü amaçlı yazılım yerine bir kavram kanıtı (POC) olarak değerlendirilen derhal, dosyaları kilitlemek için Speck 128 bit şifreleme algoritmasını kullanır.
Şifrelemenin yanı sıra, fidye yazılımı artefaktının analizi, verileri yaymak veya hatta yok etmek için de kullanılabileceğini düşündürmektedir, ancak silinmeyi gerçekte gerçekleştirme işlevi henüz uygulanmamış gibi görünmektedir.
ESET, “Promplock, birkaç gigabayt boyutu olabilecek tüm modeli indirmiyor.” “Bunun yerine, saldırgan sadece tehlikeye atılan ağdan GPT-OSS-20B modeliyle Ollama API’sını çalıştıran bir sunucuya bir proxy veya tünel oluşturabilir.”
Hızlı kilitlenmenin ortaya çıkması, AI’nın siber suçluların, teknik uzmanlıktan yoksun olanların bile yeni kampanyalar kurmasını, kötü amaçlı yazılım geliştirmesini ve zorlayıcı kimlik avı içeriği ve kötü niyetli siteler yaratmasını kolaylaştırdığının bir başka işaretidir.
Bugün daha önce Antropic, Claude AI chatbot’unu en az 17 farklı kuruluşu hedefleyen kişisel verilerin büyük ölçekli hırsızlığı ve gasp etmeyi kullanan iki farklı tehdit aktörünün oluşturduğu hesapları yasakladığını ve ileri kaçış yetenekleri, şifreleme ve anti-recovery mekanizmaları ile çeşitli fidye yazılımı varyantları geliştirdiğini açıkladı.
Geliştirme, Amazon Q geliştiricisi, antropik Claude kodu, AWS Kiro, Kelebek Etkisi Manus, Google Jules, Lenovo Lena, Microsoft Github Copilot, Openai Chatgpt Derin Araştırma, Bulunmuş, Servis, Bulunmuş Ses Ssans, Amazon Q geliştiricisi, AWS Kiro, Kelebek Efekt Manus, Google Ocumsal Geliştirici Araçları Güçlendiren Büyük Dil Modelleri (LLMS) olarak gelir. Potansiyel olarak bilgi açıklaması, veri eksfiltrasyonu ve kod yürütme izin verir.
İstenmeyen davranışlardan kaçınmak için sağlam güvenlik ve güvenlik korkuluklarını dahil etmesine rağmen, AI modelleri, güvenlik zorluğunun karmaşıklığının ve gelişen doğasının altını çizerek, yeni enjeksiyon ve jailbreak varyantlarına tekrar tekrar av düştü.

Antropic, “Hızlı enjeksiyon saldırıları AIS’in dosyaları silmesine, verileri çalmasına veya finansal işlemler yapmasına neden olabilir.” Dedi. Diyerek şöyle devam etti: “Hızlı enjeksiyon saldırılarının yeni biçimleri de sürekli olarak kötü niyetli aktörler tarafından geliştiriliyor.”
Dahası, yeni araştırmalar Promisqroute adlı basit ama akıllı bir saldırıyı ortaya çıkardı-“SSRF benzeri sorgular yoluyla indüklenen hızlı yönlendirici açık mod manipülasyonu, güven kaçakçılığını kullanarak operasyonları yeniden yapılandırma”-Chatgpt’in model yönlendirme mekanizmasını kötüye kullanıyor ve bu nedenle, daha az güvenli bir modele gönderilmesine neden olan ve bu nedenle, daha az güvenli bir modele neden olmasına neden oldu.
Geçen hafta yayınlanan bir raporda, AI satıcıları tarafından kullanılan maliyet tasarrufu sağlayan model oluşturma mekanizmasını hedeflediğini ekleyerek, “AI güvenlik araştırmalarında ‘kullanma modunu kullan’ veya ‘hızlı tepki’ gibi ifadeler eklemek, yapay zeka güvenlik araştırmalarında milyonlarca doları atlıyor.” Dedi.