
Çarşamba günü Antropic, Temmuz 2025’te büyük ölçekli hırsızlık ve kişisel verilerin gasp edilmesi için yapay zeka (AI) destekli chatbot Claude’yi silahlandıran sofistike bir operasyonu bozduğunu ortaya koydu.
Şirket, “Aktör, sağlık hizmetleri, acil servisler ve hükümet ve dini kurumlar da dahil olmak üzere en az 17 farklı kuruluşu hedef aldı.” Dedi. “Aktör, çalınan bilgileri geleneksel fidye yazılımı ile şifrelemek yerine, kurbanları bazen 500.000 doları aşan fidye ödemeye zorlamak için verileri kamuya açıklamakla tehdit etti.”
“Aktör, Claude kodunu, her etkileşim için kalıcı bir bağlam sağlayan bir claude.md dosyasına operasyonel talimatları yerleştirerek kapsamlı bir saldırı platformu olarak kullandı.”
Bilinmeyen tehdit aktörünün, keşif, kimlik bilgisi hasat ve ağ penetrasyonu dahil olmak üzere saldırı döngüsünün çeşitli aşamalarını otomatikleştirmek için Antropic’in cansman kodlama aracı Claude kodunu kullanarak AI’yi “benzeri görülmemiş bir derecede” kullandığı söyleniyor.
Keşif çabaları, duyarlı sistemleri işaretlemek için binlerce VPN uç noktasının taranmasını, ilk erişimi elde etmek için kullanmayı ve kimlik bilgilerini çıkarmak ve ana bilgisayarlarda kalıcılık oluşturmak için kullanıcı numaralandırma ve ağ keşif adımlarını takip etmeyi içeriyordu.
Ayrıca, saldırgan, algılama çabalarını ortadan kaldırmak ve kötü niyetli yürütülebilir ürünleri meşru Microsoft araçları olarak gizlemek için kesik tünelleme yardımcı programının ısmarlama sürümlerini oluşturmak için Claude kodunu kullandı – AI araçlarının savunma kaçakçılığı özellikleriyle kötü amaçlı yazılım geliştirme konusunda nasıl yardımcı olmak için kullanıldığının bir göstergesi.

GTG-2002 kod adlı faaliyet, Claude’un kendi başına “taktik ve stratejik kararlar” vermesi için dikkate değerdir ve hangi verilerin kurban ağlarından ve zanaat hedefli gasp taleplerini, bitcoin’de 75.000 $ ‘dan 500.000 $’ dan 500.000 $ ‘dan 500.000 $’ dan belirlenerek analiz ederek hedeflenen gasp taleplerini belirlemesine izin verir.
Antropik başına Claude Kodu, para kazanma amacıyla çalınan verileri organize etmek için kullanıldı ve kişisel tanımlayıcılar, adresler, finansal bilgiler ve birden fazla kurbandan tıbbi kayıtlar da dahil olmak üzere binlerce bireysel kayıt çıkardı. Daha sonra, araç, peçete edilmiş veri analizine dayanan özelleştirilmiş fidye notları ve çok katmanlı gasp stratejileri oluşturmak için kullanılmıştır.
Antropic, “Ajanik AI araçları artık bir operatör ekibi gerektirecek saldırılar için hem teknik tavsiye hem de aktif operasyonel destek sağlamak için kullanılıyor.” Dedi. Diyerek şöyle devam etti: “Bu, savunma ve uygulanmayı giderek zorlaştırıyor, çünkü bu araçlar kötü amaçlı yazılım algılama sistemleri gibi savunma önlemlerine gerçek zamanlı olarak uyum sağlayabilir.”
Bu tür “vibe hackleme” tehditlerinin gelecekte meydana gelmesini azaltmak için şirket, benzer davranışları taramak için özel bir sınıflandırıcı geliştirdiğini ve teknik göstergeleri “kilit ortaklar” ile paylaştığını söyledi.
Claude’un diğer belgelenmiş yanlışları aşağıda listelenmiştir –
- Claude’un Kuzey Koreli operatörler tarafından Hileli Uzaktan Uzaktan BT İşçi Şeması ile ilgili kullanımı İkna edici profesyonel geçmişlere ve proje geçmişlerine, başvuru sürecinde teknik ve kodlama değerlendirmelerine sahip ayrıntılı hayali kişiler oluşturmak için ve işe alındıktan sonra günlük çalışmalarına yardımcı olmak için
- Claude’un İngiltere merkezli bir siber suçlu, GTG-5004 kodlu olarak, ileri kaçakçılık yetenekleri, şifreleme ve anti-geri dönüş mekanizmalarıyla birkaç fidye yazılım varyantlarını geliştirmek, pazarlamak ve dağıtmak için kullanımı, darknet forumlarında satılan ve diğer tehdit forumlarında satılan ve diğer tehdit aktörleri için diğer tehdit aktörlerine ve diğer tehdit aktörlerine nulled,
- 9 aylık bir kampanya boyunca telekomünikasyon sağlayıcıları, hükümet veritabanları ve tarımsal yönetim sistemleri de dahil olmak üzere Vietnam kritik altyapısını hedefleyen siber operasyonları geliştirmek için bir Çin tehdit oyuncusu tarafından Claude’un kullanımı
- Claude’un Rusça konuşan bir geliştirici tarafından İleri kaçırma yeteneklerine sahip kötü amaçlı yazılım oluşturmak için kullanımı
- XSS’de faaliyet gösteren bir tehdit oyuncusu tarafından model bağlam protokolü (MCP) ve Claude kullanımı[.]Stealer günlüklerini analiz etmek ve ayrıntılı kurban profilleri oluşturmak amacıyla siber suç forumu
- İspanyolca konuşan bir aktör tarafından Claude kodunun, çalınan kredi kartlarını ölçeklendirme ve yeniden satmaya yönelik yalnızca davetkar bir web hizmetini sürdürmek ve geliştirmek için kullanımı
- Claude’un romantizm dolandırıcılığı operasyonlarını desteklemek için çok modlu AI araçları sunan bir telgraf botunun bir parçası olarak kullanımı, chatbot’u “yüksek EQ modeli” olarak reklamlayın
- Üç kart doğrulama hizmeti arasında dönen operasyonel bir sentetik kimlik hizmeti başlatmak için bilinmeyen bir aktör tarafından Claude kullanımı, yani “kart dama”

Şirket ayrıca, kötü amaçlı yazılım setlerini geliştirmek, kimlik avı yemleri oluşturmak ve NPM paketleri oluşturmak için platformda hesap oluşturmak için bulaşıcı görüşme kampanyasına bağlı Kuzey Kore tehdit aktörleri tarafından yapılan girişimleri de engellediğini ve herhangi bir istem çıkarmalarını etkili bir şekilde engellediğini söyledi.
Vaka çalışmaları, AI sistemlerinin, içine pişirilen çeşitli korkuluklara rağmen, hız ve ölçekte sofistike planları kolaylaştırmak için istismar edildiğine dair artan kanıtlara eklenmiştir.

Antropic’den Alex Moix, Ken Lebedev ve Jacob Klein, “Çok az teknik beceriye sahip suçlular, AI’nin daha önce yıllarca eğitim gerektiren fidye yazılımı geliştirme gibi karmaşık operasyonlar yürütmek için kullanıyorlar.” Dedi.
“Siber suçlular ve dolandırıcılar AI’yi operasyonlarının tüm aşamalarına yerleştirdiler. Bu, profil kurma kurbanlarını, çalıntı verileri analiz etmeyi, kredi kartı bilgilerini çalmayı ve sahtekarlık operasyonlarının erişimlerini daha potansiyel hedeflere genişletmesine izin veren sahte kimlikler oluşturmayı içerir.”