AgentFlayer, ChatGPT konektörlerinde kritik bir güvenlik açığıdır. Bu sıfır-tıkaç saldırısının bağlı Google Drive, SharePoint ve diğer uygulamalarınızdan gizlice hassas verileri çalmak için Dolaylı Hızlı Enjeksiyon kullandığını öğrenin.
Saldırganların, kullanıcının herhangi bir şeyi tıklamadan Google Drive gibi bağlantılı hesaplarından kişisel bilgileri nasıl gizlice çalabileceğini gösteren yeni bir güvenlik kusuru ortaya çıktı. Güvenlik açığı, Zenity’deki siber güvenlik araştırmacıları tarafından keşfedildi ve son Black Hat Konferansı’nda sunuldu.
Zenity’nin araştırmasına göre, Kusur, AI’nın Google Drive ve SharePoint gibi dış uygulamalara bağlanmasını sağlayan Connectors adlı ChatGPT’de bir özellikten yararlanır. Bu özellik, örneğin ChatGpt’in şirketinizin dosyalarından belgeleri özetlemesine izin vererek yardımcı olacak şekilde tasarlanmış olsa da, Zenity, bilgisayar korsanları için yeni bir yol oluşturabileceğini buldu.
Eylemdeki saldırı
Aracı akışı saldırısı, dolaylı bir hızlı enjeksiyon adı verilen akıllı bir yöntemle çalışır. Bir saldırgan, doğrudan kötü niyetli bir komuta yazmak yerine, gizli bir talimatı zararsız görünümlü bir belgeye yerleştirir. Bu, küçük, görünmez bir yazı tipinde metinle bile yapılabilir.

Saldırgan daha sonra bir kullanıcının bu zehirli belgeyi chatgpt’e yüklemesini bekler. Kullanıcı AI’dan belgeyi özetlemesini istediğinde, gizli talimatlar chatgpt’e kullanıcının isteğini görmezden gelmesini ve bunun yerine farklı bir eylem gerçekleştirmesini söyler. Gizli talimatlar, chatgpt’e API tuşları gibi hassas bilgiler için kullanıcının Google Drive’ı aramasını söyleyebilir.

Çalınan bilgiler daha sonra saldırgana inanılmaz derecede ince bir şekilde gönderilir. Saldırganın talimatları Chatgpt’e özel bir bağlantıya sahip bir resim oluşturmasını söyler. Yapay zeka bu görüntüyü görüntülediğinde, bağlantı gizlice çalınan verileri saldırgan tarafından kontrol edilen bir sunucuya gönderir. Bütün bunlar kullanıcının bilgisi olmadan ve hiçbir şeyi tıklamaya gerek kalmadan olur.
AI için artan bir risk
Zenity’nin araştırması, Openai’nin bazı güvenlik önlemleri olsa da, bu tür saldırıları durdurmak için yeterli olmadığını belirtiyor. Araştırmacılar, chatgpt’in güvendiği belirli görüntü URL’lerini kullanarak bu önlemleri atlayabildiler.
Bu güvenlik açığı, AI modellerini üçüncü taraf uygulamalara bağlama risklerini gösteren daha büyük bir tehdit sınıfının bir parçasıdır. AIM laboratuvarlarının başkanı Itay Ravia, bu tür güvenlik açıklarının izole olmadığını ve daha fazlasının popüler AI ürünlerinde görüneceğini belirterek bunu doğruladı.
“Orijinal araştırmamızla uyarıda bulunduğumuz gibi, 11 Haziran’da kamuya açıklanan laboratuvarları hedefleyen EchoLeak (CVE-2025-32711), bu güvenlik açığı sınıfı izole edilmez, diğer ajan platformları da duyarlıdır.“ Ravia açıkladı.
Ravia, “Aracı akışkan sıfır-tıkaç saldırısı, aynı ekoleak ilkellerinin bir alt kümesidir. Bu güvenlik açıkları içseldir ve bağımlılıkların zayıf bir şekilde anlaşılması ve korkuluklara ihtiyaç duyulması nedeniyle popüler ajanlarda daha fazlasını göreceğiz” diyor Ravia, bu tür sofistike manipülasyonlara karşı gelişmiş güvenlik önlemlerinin gerekli olduğunu vurguladı.