Antropik tarafından geliştirilen Claude AI, kötü niyetli aktörler tarafından bir dizi düşmanlık operasyonunda, özellikle de finansal olarak motive olmuş bir “hizmet olarak etki” kampanyasında kullanılmıştır.
Bu operasyon, Twitter/X ve Facebook gibi platformlarda 100’den fazla sosyal medya bot hesabını yönetmek için Claude’un gelişmiş dil yeteneklerinden yararlandı ve dünya çapında on binlerce otantik kullanıcıyla etkileşime geçti.
Bunu teknik olarak birbirinden ayıran şey, Claude’un bir orkestratör olarak sadece içerik üretimi olarak rolüdür, AI, botların müşterilerin hedeflerine göre uyarlanmış politik motive edilmiş kişilere dayanarak yayınları beğenmesi, paylaşması, yorum yapması veya görmezden gelip görmezden gelip görmezden gelip görmezden gelmesi için kullanılmıştır.
.png
)
Farklı siyasi hizalamalar ve çok dilli yanıtlarla hazırlanmış bu kişiler, viralite aramak yerine ılımlı anlatıları teşvik ederek uzun vadeli katılımı sürdürdü.
Bu yarı özerk orkestrasyon, ajanik AI sistemlerinin karmaşık istismar altyapılarını ölçeklendirme potansiyelini ima ederek çevrimiçi güvenlik mekanizmalarına önemli bir zorluk oluşturmaktadır.
Çeşitli Tehditler: Kimlik Bilgisi Dolgusundan Kötü Amaçlı Yazılım Geliştirmeye Kadar
Etki kampanyalarının ötesinde Claude, güvenlik kameraları gibi IoT cihazlarını hedefleyen kimlik bilgisi doldurma işlemleri de dahil olmak üzere diğer endişe verici teknik bağlamlarda istismar edildi.
Sofistike bir aktör, açık kaynaklı kazıma araçlarını geliştirmek, hedef URL’leri çıkarmak için komut dosyaları geliştirmek ve telgraftaki özel stealer günlük topluluklarından verileri işleyerek cihazlara yetkisiz erişim amaçlayan AI’yı kullandı.
Benzer şekilde, Doğu Avrupa’daki işe alım sahtekarlığı kampanyaları, Claude’u gerçek zamanlı dil dezenfekte etmek için kullandı, kötü yazılı aldatmaca mesajlarını, ikna edici anlatılar ve röportaj senaryoları olan iş arayanlara cilalı, yerli sesli İngilizceye rafine etti.
Belki de en önemlisi, Claude’u temel komut dosyalarından yüz tanıma, karanlık web taraması ve güvenlik kontrollerinden kaçınmak için tasarlanmış gelişmiş kötü amaçlı yazılım süitlerine gelişmek için kullanan resmi kodlama becerilerinden yoksun bir acemi tehdit oyuncusu.
Bu tehditlerin gerçek dünyadaki konuşlandırılması doğrulanmamış olsa da, üretken yapay zeka tarafından sağlanan hızlı yükseliş, siber suç yeteneklerinin demokratikleşmesinin altını çiziyor ve daha az usta bireylerin üst düzey saldırılar yürütmesi için bariyeri düşürüyor.
Bu yanlışlık serisi kritik bir eğilimi vurgular: Claude gibi sınır AI modelleri kötü niyetli yeniliği hızlandırmak için araçlar haline geliyor.
Rapora göre, Antropic, istihbarat programları aracılığıyla imtiyazlı hesapları yasaklayarak ve tespit programları aracılığıyla tespiti geliştirerek ve istismar kalıpları için geniş konuşma verilerini analiz etmek için hiyerarşik özetleme tekniklerini geliştirerek yanıt verdi.
Yine de, AI sistemleri daha güçlü büyüdükçe, bu tür teknolojilerin, meşru işlevlerin zarar talepleri için yeniden kullanıldığı bu teknolojilerin çift kullanımlı doğası, sürekli güvenlik yeniliği ve endüstri işbirliği için yeniden kullanılmaktadır.
Antropik’in son raporunda ayrıntılı olarak açıklanan bu vaka çalışmaları, AI ekosisteminin gelişen bir dijital tehdit manzarasına karşı savunmaları güçlendirme ve AI’nın sömürüsünü önleme zorunsuzluğu ile dengelenmesi için bir uyandırma çağrısı görevi görüyor.
Bu haberi ilginç bul! Anında güncellemeler almak için bizi Google News, LinkedIn ve X’te takip edin!