24 Nisan’da yayınlanan “Claude: Mart 2025’in kötü niyetli kullanımlarını tespit etmek ve bunlara karşı koyma” başlıklı antropikten yapılan yeni bir tehdit raporu, üretken AI modellerinin tehdit aktörleri tarafından artan kötüye kullanımına ışık tuttu.
Rapor, Claude AI modelinin, mevcut güvenlik kontrollerini atlayarak hain amaçlar için kullanıldığı dört ayrı durumu titizlikle belgeliyor.
Claude AI modellerinin kötü niyetli uygulamalarının ortaya çıkması
Bu olaylar, birden fazla ülkede siyasi anlatıları manipüle etmek için 100’den fazla sosyal medya botunu düzenleyen bir hizmet olarak etki operasyonu, gelişmiş kazıma araç seti ile IoT güvenlik kameralarını hedefleyen bir kimlik bilgisi doldurma kampanyası içeriyor.
.png
)
Cilalı aldatmaca iletişimi yoluyla Doğu Avrupa iş arayanlara yönelik bir işe alım sahtekarlığı planı ve kalıcılık ve kaçaklama için GUI tabanlı yük jeneratörleri ile sofistike kötü amaçlı yazılım geliştirmek için Claude’dan yararlanan bir acemi aktör.
Antropik, etkilenen hesapları başarıyla tespit edip yasaklarken, rapor, büyük dil modellerinin (LLMS) kötü niyetli varlıklar tarafından kullanıldığında siber tehditleri yükseltmek için endişe verici potansiyelinin altını çizmektedir.

Bununla birlikte, uzlaşma göstergeleri (IOC’ler), IP adresleri, saldırganlar tarafından kullanılan özel istemler veya ilgili kötü amaçlı yazılım ve altyapı hakkında teknik bilgiler gibi kritik detaylardan yoksun, eyleme geçirilebilir zeka üzerinde yetersizdir.
Boşluğu LLM’ye özgü tehdit istihbaratıyla köprüleme
Etkileri daha derinlemesine inceleyen raporun boşlukları, LLM’ye özgü taktikler, teknikler ve prosedürler (TTP’ler) üzerine tehdit istihbarat odaklı yeni bir paradigma için acil bir ihtiyacı vurgulamaktadır.
LLM TTP’leri olarak adlandırılan bunlar, kötü niyetli bilgi istemleri hazırlamak, model korumalarından kaçmak ve siber saldırılar, kimlik avı ve etki operasyonları için AI çıktılarını kullanmak gibi olumsuz yöntemleri kapsar.
LLM’lerle birincil etkileşim mekanizması olarak, istekli, kötüye kullanımı anlamada ve tespit etmede çok önemli olan yeni IOC’ler olarak görülmektedir.
Bunu ele almak için, Miter Atlas matrisi gibi çerçeveler ve Openai ve Microsoft’un önerileri LLM istismar kalıplarını olumsuz davranışlarla eşleştirmeyi amaçlıyor ve bu tehditleri kategorize etmek için yapılandırılmış bir yaklaşım sağlıyor.
Bunun üzerine, açık kaynaklı hızlı bir desen eşleştirme çerçevesi olan Nova gibi yenilikçi araçlar, Yara’ya benzer ancak LLM etkileşimleri için uyarlanmış algılama kurallarını kullanarak yarışma istemlerini avlamak için ortaya çıktı.

Antropik rapordan potansiyel istemleri, siyasi bot katılımını düzenleyen veya kötü amaçlı yazılım-NOVA kuralları hazırlayanlar gibi, anahtar kelime eşleştirme, anlamsal analiz ve LLM değerlendirmesi yoluyla benzer kalıpları tespit edebilir.
Örneğin, kimlik bilgisi hasat için siyasi olarak uyumlu sosyal medya kişileri veya Python komut dosyaları istenen istemleri tanımlamak için tasarlanmış kurallar, güvenlik ekipleri için proaktif izleme özellikleri sunar ve reaktif siyah kutu çözümlerinin ötesine geçer.
Antropik rapor, yaratıcı yapay zekanın çift kenarlı doğasını daha keskin bir hatırlatma görevi görür; burada yetenekleri, savunmacılar için tehdit aktörleri için olduğu kadar güçlendiricidir.
LLM kötüye kullanımı geliştikçe, hızlı TTP tespitinin tehdit modellemesine entegre edilmesi zorunlu hale gelir.
Nova gibi araçlar, gelişmiş görünürlüğün yolunu açarak analistlerin bu yeni ortaya çıkan ancak hızla genişleyen tehdit manzarasında riskleri tahmin etmelerini ve azaltmasını sağlıyor.
InfoSec topluluğu, AI istismarını anlamanın ve karşı koymanın sadece ileri görüşlü değil, gelecekteki siber güvenlik esnekliği için kritik bir zorunluluk olduğunu kabul ederek bu ortaya çıkan zorluklara öncelik vermelidir.
Bu haberi ilginç bul! Anında güncellemeler almak için bizi Google News, LinkedIn ve X’te takip edin!