Yapay Zeka ve Makine Öğrenimi, Yeni Nesil Teknolojiler ve Güvenli Geliştirme
Google, Saldırganların Komut Dosyalarını Değiştirmek İçin LLM’leri Nasıl Kullanabileceğini Detaylandırıyor
Rashmi Ramesh (raşmiramesh_) •
5 Kasım 2025

Kötü amaçlı yazılım yazarları, çalışırken kendini yeniden yazabilen kodlarla, yapay zekaya dayalı yeni bir saldırı türü üzerinde denemeler yapıyor. Büyük dil modelleri, bilgisayar korsanlarının statik yüklere güvenmek yerine isteğe bağlı komutlar oluşturmasına, değiştirmesine ve yürütmesine olanak tanıyor.
Ayrıca bakınız: Geniş Ölçekte Yapay Zeka için Platform Tabanlı Güvenlik
Google Tehdit İstihbarat Grubu’ndaki araştırmacılar, AI kötü amaçlı yazılımlarının hala büyük ölçüde deneysel olduğunu ve belgelenen örneklerin çoğunun geleneksel tehditlerin güvenilirliğinden veya kalıcılığından yoksun olduğunu söyledi. Ancak geliştirme döngülerini kısaltmak, şaşırtmayı otomatikleştirmek ve saldırı modellerine öngörülemezlik kazandırmak için üretken modellerin nasıl silah haline getirilebileceğini gösteriyorlar.
Google tarafından PromptFlux olarak adlandırılan bir kötü amaçlı yazılım ailesi, düzenli aralıklarla kendi VBScript’inin yeni sürümlerini üretmek için Gemini’nin API’sini kullanıyor. Kötü amaçlı yazılım, “Uzman bir VBScript gizleme aracı olarak hareket edin” gibi istemler yayınlayan ve modele yalnızca çalıştırılabilir kod döndürmesi talimatını veren modüller içerir. Google araştırmacıları, PromptFlux’un amacının, tespit edilmekten kaçınmak için dijital parmak izlerini sürekli olarak değiştiren, kendi kendini değiştiren bir sistem oluşturmak olduğunu söyledi.
PromptSteal adlı başka bir örnek, yapay zeka otomasyonunu veri hırsızlığıyla harmanlayarak konsepti daha da ileri taşıyor. Bir görüntü oluşturucu kılığına giren araç, bilgileri toplamak ve sızdırmak için yerel olarak çalıştırdığı tek satırlık Windows komutları için barındırılan bir modeli sorgular. Modelin çıktısı, canlı bir komut motoru olarak işlev görerek, kötü amaçlı yazılıma sabit kodlanmış talimatlar olmadan uyarlanabilir bir kontrol katmanı sağlar.
Google ayrıca, erişim belirteçlerini aramak ve bunları GitHub’da yayınlamak için yerel AI komut satırı arayüzlerini kullanan, JavaScript tabanlı bir kimlik bilgisi hırsızı olan QuietVault’u da ortaya çıkardı. PromptLock adlı ayrı bir kavram kanıtı, saldırganların model tarafından oluşturulan Lua’yı kullanarak çalışma zamanında çalıştırılan yapay zeka tarafından oluşturulan fidye yazılımı komut dosyalarını nasıl test ettiğini gösteriyor.
Bu örneklerin mimarisi projeyi birbirine bağlıyor: Hepsinde kurbanın makinesinde minimum kod var ve model çağrılarına bağımlılar. Bu tasarım, imza tabanlı tespit olasılığını azaltırken, saldırganların bir istemi gözden geçirmek kadar kolay bir şekilde davranışı uzaktan güncellemelerine olanak tanıyor.
Google araştırmacıları bu deneylerin çoğunun tamamlanmadığını veya test aşamasında olduğunu söyledi. Bazı örnekler yorumlanmış kod ve sınırlı API işlevselliği içeriyor; bu da geliştiricilerin hâlâ model oturumlarını nasıl sürdüreceklerini ve hataları nasıl ele alacaklarını geliştirmeye çalıştıklarını gösteriyor.
PromptFlux örneğinde, tehdit aktörü Gemini’nin daha sonra kötü amaçlı yazılım tarafından kullanılacak yeni bir mantık oluşturmasını sağlamaya çalıştı. Google AI tehditleri teknoloji lideri Steve Miller, bu belirli istemlerin güvenlik kontrollerini tetikleyeceğinden bunun operasyonel kapasitede işe yaramasının pek olası olmadığını söyledi. Information Security Media Group’a e-postayla gönderdiği yanıtta, tehdit aktörlerinin de “tıpkı herkes gibi” yapay zeka araçlarını denediğini söyledi.
“Aktörlerin boşlukları doldurmak ve mevcut yeteneklerin ölçeğini genişletmeye yardımcı olmak için yapay zeka araçlarından yararlandığını görüyoruz. PromptSteal gibi kötü amaçlı yazılımlar gibi en son tehdit faaliyetlerinden bazıları yapay zekadan yeni bir şekilde yararlanırken, aktörlerin “çığır açan” yetenekler oluşturmak veya açıkları belirleme ve operasyonel hale getirme yeteneklerini ciddi şekilde hızlandırmak için LLM’leri kullandığını görmüyoruz” dedi. “Aktör kullanımının çoğunluğu üretkenlik kazanımı alanına giriyor.”
Bu değişim yeni bir sosyal mühendislik katmanını tanıtıyor. Saldırganlar yanıltıcı istemler hazırlayarak model korumalarını manipüle etmeyi öğreniyor. Bazı durumlarda operatörler, modeli kısıtlı veya potansiyel olarak tehlikeli kod sağlamaya ikna etmek için siber güvenlik öğrencileri veya bayrağı ele geçirme katılımcıları gibi davrandılar.
Yeraltı pazaryerleri bu model entegrasyonunu ticarileştirmek için hızla ilerliyor. Bilinen siber suç forumlarındaki listelerde kimlik avı, derin sahte üretim ve kötü amaçlı yazılım oluşturmaya yönelik üretken yapay zeka modüllerinin reklamı yapılıyor. Abonelik tabanlı hizmetler, meşru yazılım iş modellerini yansıtan ancak saldırı araçlarına uygulanan düzenli güncellemeler ve API erişimi vaat ediyor.
Durum odaklı faaliyetleri izleyen analistler, birden fazla bölgede erken testleri de gözlemledi. Rusya bağlantılı gruplar model destekli veri toplama araçlarını kullandı, İranlı operatörler dilden SQL’e otomasyon araçlarını deniyor ve Kuzey Koreli aktörler kripto para birimi kampanyalarına deepfake profilleri ve yapay zeka ile geliştirilmiş yemleri dahil etti. Çin’de ilginin keşif ve altyapı hedeflemeye odaklandığı görülüyor; AI araçları Kubernetes ortamlarında güvenlik açığı keşfi gibi görevler için deneniyor.
Miller, tehdit aktörlerinin genellikle kurban ortamlarına uyum sağlamaya çalıştıklarını ve kuruluşlar yapay zeka araçlarını benimseyip hizmetlerinin kullanımını artırdıkça, yetenekli tehdit aktörlerinin de kötü amaçlı yazılımlarda yapay zeka araçlarını benzer şekilde benimseyebileceğini, çünkü bunun onlara ek bir gizlilik derecesine sahip bir yetenek sunduğunu söyledi. “Modern yapay zeka hizmetlerinin hızı göz önüne alındığında, yapay zeka modellerini ve hizmetlerini kullanarak kazanılacak yetenek çok, kaybedilecek performans ise çok az” dedi.