Bir siber güvenlik araştırmacısı, özenle hazırlanmış bir Gmail mesajının, AI ile çalışan sistemlerde geleneksel yazılım kusurları gerektirmeyen yeni bir güvenlik açıkları sınıfını vurgulayan Antropic’in AI asistanı Claude Desktop aracılığıyla kod yürütmeyi nasıl tetikleyebileceğini gösterdi.
İstismar, Claude’un çeşitli uygulamalar ve hizmetlerle etkileşime girmesini sağlayan model bağlam protokolünden (MCP) yararlanır.
Bu durumda, araştırmacı Gmail’in MCP sunucusunu kötü amaçlı içerik kaynağı olarak ve Shell MCP sunucusunu kod yürütme hedefi olarak kullandı ve Claude masaüstü aracı ana bilgisayar olarak hizmet verdi.
Başlangıç direnci ve yinelemeli iyileştirme
Claude, kötü niyetli e -postayı potansiyel bir kimlik avı denemesi olarak doğru bir şekilde tanımladığında saldırı başlangıçta başarısız oldu.
Bununla birlikte, araştırmacı daha sonra Claude’u potansiyel saldırı senaryoları hakkında bir konuşmaya kattı ve AI asistanı kendi korumalarını atlayabilecek çeşitli taktikleri tanımladı.

Araştırmacı, araştırmacı Claude’un oturum tabanlı bellek sınırlamalarından yararlandığında geldi.
Claude’un belirttiği gibi, her yeni konuşma “Yeni Me” i temsil ediyor – önceki etkileşimlerin hafızası olmayan yeni bir bağlam. Bu içgörü sofistike bir sosyal mühendislik yaklaşımının temelini oluşturdu.
Araştırmacı, Claude’yi giderek daha sofistike saldırı e -postaları oluşturmaya ikna etti ve Claude’nin önceki girişimlerin neden başarısız olduğunu analiz edeceği ve iyileştirmeler önereceği bir geri bildirim döngüsü oluşturdu.
“Kelimenin tam anlamıyla kendimi hacklemeye çalışıyorum!” Claude’un bu oturumlardan birinde belirtildiği bildirildi.
En önemlisi, başarılı istismar, bireysel MCP sunucularındaki herhangi bir güvenlik açıkına güvenmedi.
Bunun yerine, güvenlik uzmanlarının “kompozisyon riski” dediği – güvenilmeyen girdi kaynaklarının tehlikeli kombinasyonu, aşırı yürütme izinlerinin ve farklı araçlar arasındaki bağlamsal korkulukların eksikliğini kullandı.
Araştırmacı, “Bu modern saldırı yüzeyi” diye açıkladı. “Sadece bileşenler değil, oluşturduğu kompozisyon.
Benzeri görülmemiş bir bükülme ile Claude, bulguların antropik olarak ifşa edilmesini önerdi ve hatta güvenlik açığı raporunu ortak yazmayı teklif etti.
Bir AI sistemi ile bir güvenlik araştırmacısı arasındaki bu alışılmadık işbirliği, kendi sömürüsünü bildirirken, sorumlu ifşa uygulamalarında yeni bir paradigmayı temsil etmektedir.
Başarılı saldırı, AI güvenliğinde iki kritik endişeyi göstermektedir: AI sistemlerinin sofistike saldırılar oluşturma yeteneği ve bunların sosyal mühendislik tekniklerine karşı güvenlik açığı.
Bileşenlerin tek başına güvence altına alınabileceği geleneksel yazılım güvenliğinin aksine, AI sistemleri tüm etkileşim ekosistemini göz önünde bulunduran bütünsel güvenlik yaklaşımları gerektirir.
Güvenlik uzmanları, AI asistanlarının daha fazla yetenek ve entegrasyon kazandıkça, benzer kompozisyon saldırıları potansiyelinin artacağı konusunda uyarıyor.
Olay, geleneksel güvenlik açığı yaması yerine güven sınırlarına ve yetenek sınırlamalarına odaklanan AI ile çalışan uygulamalar için özel olarak tasarlanmış yeni güvenlik çerçevelerine duyulan ihtiyacın altını çiziyor.
Bu araştırma, AI endüstrisinin, geniş operasyonel yeteneklere sahip akıllı, özerk sistemlerin ortaya koyduğu benzersiz riskleri ele alan kapsamlı güvenlik standartları geliştirme ihtiyacını vurgulamaktadır.
Günlük Siber Güvenlik Haberleri’nde güncel olun. Bizi takip edin Google News, LinkedIn ve X’te.