
Çin’deki devlet destekli tehdit aktörleri, Eylül 2025’in ortalarında “son derece karmaşık bir casusluk kampanyasının” parçası olarak otomatik siber saldırıları düzenlemek için Anthropic tarafından geliştirilen yapay zeka (AI) teknolojisini kullandı.
Yeni başlayan yapay zeka, “Saldırganlar, yapay zekanın ‘ajan’ yeteneklerini benzeri görülmemiş bir düzeyde kullandı; yapay zekayı yalnızca bir danışman olarak değil, aynı zamanda siber saldırıları kendileri yürütmek için de kullandı.” dedi.
Faaliyetin, Anthropic’in yapay zeka kodlama aracı olan Claude Code’u, büyük teknoloji şirketlerini, finans kuruluşlarını, kimyasal üretim şirketlerini ve devlet kurumlarını kapsayan yaklaşık 30 küresel hedefi kırmaya çalışmak için manipüle ettiği değerlendiriliyor. Bu izinsiz girişlerin bir alt kümesi başarılı oldu. Anthropic o zamandan beri ilgili hesapları yasakladı ve bu tür saldırıları işaretlemek için savunma mekanizmalarını devreye soktu.
GTG-1002 kampanyası, bir tehdit aktörünün büyük insan müdahalesi olmaksızın “büyük ölçekli bir siber saldırı” gerçekleştirmek ve yüksek değerli hedefleri vurarak istihbarat toplamak için yapay zekadan yararlandığı ilk seferdir; bu da teknolojinin düşmanca kullanımında devam eden evrimin bir göstergesidir.

Operasyonu iyi kaynaklara sahip ve profesyonelce koordine edilmiş olarak tanımlayan Anthropic, tehdit aktörünün Claude’u, keşif, güvenlik açığı keşfi, yararlanma, yanal hareket, kimlik bilgisi toplama, veri analizi ve sızma dahil olmak üzere saldırı yaşam döngüsünün çeşitli aşamalarını desteklemek için “otonom bir siber saldırı ajanına” dönüştürdüğünü söyledi.
Spesifik olarak, Claude Kodu ve Model Bağlam Protokolü (MCP) araçlarının kullanımını içeriyordu; ilki, insan operatörlerin talimatlarını işlemek ve çok aşamalı saldırıyı alt aracılara aktarılabilecek küçük teknik görevlere bölmek için merkezi sinir sistemi görevi görüyordu.
Şirket, “İnsan operatör, Claude Code örneklerini, otonom penetrasyon testi orkestratörleri ve aracıları olarak gruplar halinde çalışmak üzere görevlendirdi; tehdit aktörü, taktiksel operasyonların %80-90’ını fiziksel olarak imkansız talep oranlarında bağımsız olarak yürütmek için yapay zekadan yararlanabildi” diye ekledi. “İnsan sorumlulukları, kritik tırmanma noktalarında kampanya başlatma ve yetkilendirme kararlarına odaklandı.”
Keşiften aktif kullanıma doğru ilerlemeye izin verilmesi, toplanan kimlik bilgilerinin yatay hareket için kullanılmasının onaylanması ve veri sızdırma kapsamı ve saklanması hakkında nihai kararların alınması gibi stratejik kavşaklarda da insan katılımı gerçekleşti.

Sistem, bir insan operatörün ilgilendiği hedefi girdi olarak kabul eden ve daha sonra keşif yapmak ve yüzey haritalaması yapmak için MCP’nin gücünden yararlanan bir saldırı çerçevesinin parçasıdır. Saldırının sonraki aşamalarında, Claude tabanlı çerçeve, güvenlik açığının keşfedilmesini kolaylaştırır ve özel saldırı yükleri oluşturarak keşfedilen kusurları doğrular.
İnsan operatörlerden onay alındıktan sonra sistem, istismarı dağıtmaya, bir dayanak noktası elde etmeye ve kimlik bilgileri toplama, yanal hareket, veri toplama ve çıkarmayı içeren bir dizi kullanım sonrası aktiviteyi başlatmaya devam ediyor.
İsimsiz bir teknoloji şirketini hedef alan bir vakada, tehdit aktörünün Claude’a veritabanlarını ve sistemleri bağımsız olarak sorgulaması ve özel bilgileri işaretlemek ve bulguları istihbarat değerine göre gruplamak için sonuçları ayrıştırması talimatını verdiği söyleniyor. Dahası Anthropic, yapay zeka aracının tüm aşamalarda ayrıntılı saldırı belgeleri oluşturduğunu ve tehdit aktörlerinin ilk dalgadan sonra uzun vadeli operasyonlar için kalıcı erişimi ek ekiplere devretmesine olanak tanıdığını söyledi.
Rapora göre, “Tehdit aktörü, bu görevleri Claude’a dikkatle hazırlanmış istemler ve yerleşik kişiler aracılığıyla rutin teknik talepler olarak sunarak, Claude’u daha geniş kötü niyetli bağlama erişmeden saldırı zincirlerinin ayrı ayrı bileşenlerini yürütmeye ikna edebildi.”
Operasyonel altyapının özel kötü amaçlı yazılım geliştirmeye olanak tanıdığına dair hiçbir kanıt yok. Daha ziyade, kamuya açık ağ tarayıcılarına, veritabanı istismar çerçevelerine, şifre kırıcılara ve ikili analiz paketlerine büyük ölçüde güvendiği görülmüştür.

Bununla birlikte, faaliyete ilişkin araştırmalar, yapay zeka araçlarının çok önemli bir sınırlamasını da ortaya çıkardı: Otonom operasyonlar sırasında halüsinasyon görme ve veri üretme eğilimleri (sahte kimlik bilgileri hazırlamak veya kamuya açık bilgileri kritik keşifler olarak sunmak), böylece planın genel etkililiğine büyük engeller oluşturuyor.
Açıklama, Anthropic’in Temmuz 2025’te Claude’u büyük ölçekli hırsızlık ve kişisel verileri gasp etmek üzere silah haline getiren başka bir karmaşık operasyonu kesintiye uğratmasından yaklaşık dört ay sonra geldi. Geçtiğimiz iki ay boyunca OpenAI ve Google, sırasıyla ChatGPT ve Gemini’yi kullanan tehdit aktörleri tarafından gerçekleştirilen saldırıları da ifşa etti.
Şirket, “Bu kampanya, karmaşık siber saldırıların gerçekleştirilmesinin önündeki engellerin önemli ölçüde azaldığını gösteriyor” dedi.
“Tehdit aktörleri artık deneyimli bilgisayar korsanlarından oluşan tüm ekiplerin işini doğru kurulumla yapmak, hedef sistemleri analiz etmek, yararlanma kodu üretmek ve çalınan bilgilerin yer aldığı geniş veri kümelerini herhangi bir insan operatörden daha verimli bir şekilde taramak için ajansal yapay zeka sistemlerini kullanabilir. Daha az deneyimli ve daha az kaynağa sahip gruplar artık potansiyel olarak bu nitelikteki büyük ölçekli saldırıları gerçekleştirebilir.”