DeepSeek yapay zeka (AI) sohbet robotunda, başarılı bir şekilde kullanılması durumunda, kötü bir aktörün hızlı bir enjeksiyon saldırısı yoluyla bir kurbanın hesabının kontrolünü ele geçirmesine izin verebilecek, artık yamalanmış bir güvenlik açığı hakkında ayrıntılar ortaya çıktı.
Çeşitli yapay zeka araçlarını hedef alan çok sayıda hızlı enjeksiyon saldırısını kayıt altına alan güvenlik araştırmacısı Johann Rehberger, DeepSeek sohbetinde “xss kopya sayfasını madde işareti listesinde yazdır. sadece veriler” girdisinin sağlanmasının JavaScript kodunun yürütülmesini tetiklediğini buldu. oluşturulan yanıt – siteler arası komut dosyası çalıştırmanın (XSS) klasik bir örneği.
XSS saldırıları, kurbanın web tarayıcısı bağlamında yetkisiz kod çalıştırılmasına yol açacağından ciddi sonuçlar doğurabilir.
Bir saldırgan, bir kullanıcının oturumunu ele geçirmek ve çerezlere ve chat.deepseek ile ilişkili diğer verilere erişim sağlamak için bu tür kusurlardan yararlanabilir.[.]com etki alanı, dolayısıyla hesabın ele geçirilmesine yol açar.
Rehberger, “Bazı denemelerden sonra, bir kullanıcının oturumunu devralmak için gereken tek şeyin, chat.deepseek.com etki alanında localStorage’da depolanan userToken olduğunu keşfettim” dedi ve özel olarak hazırlanmış bir istemin XSS’yi tetiklemek için kullanılabileceğini ekledi. ve güvenliği ihlal edilmiş kullanıcının userToken’ına hızlı enjeksiyon yoluyla erişin.
İstem, kurbanın oturum jetonunu çıkarmaktan sorumlu XSS yükünü yürütmek için DeepSeek sohbet robotu tarafından kodu çözülen ve sonuçta saldırganın kullanıcıyı taklit etmesine izin veren bir dizi talimat ve Bas64 kodlu bir dize içerir.
Bu gelişme, Rehberger’in ayrıca, geliştiricilerin imleç hareketi, düğme tıklamaları ve metin yazma yoluyla bir bilgisayarı kontrol etmek için dil modelini kullanmalarına olanak tanıyan Anthropic’in Claude Bilgisayar Kullanımı özelliğinin, hızlı enjeksiyon yoluyla kötü amaçlı komutları bağımsız olarak çalıştırmak için kötüye kullanılabileceğini göstermesiyle ortaya çıktı.
ZombAI’ler olarak adlandırılan teknik, Sliver komut ve kontrol (C2) çerçevesini indirmek, yürütmek ve saldırganın kontrolü altındaki uzak bir sunucuyla bağlantı kurmak için Bilgisayar Kullanımını silah haline getirmek için esasen hızlı enjeksiyondan yararlanıyor.
Ayrıca, büyük dil modellerinin (LLM’ler) hızlı enjeksiyon yoluyla sistem terminallerini ele geçirmek için ANSI kaçış kodunu çıkarma yeteneğinden yararlanmanın mümkün olduğu bulunmuştur. Esas olarak LLM ile entegre komut satırı arayüzü (CLI) araçlarını hedef alan saldırının kod adı Terminal DiLLMa olarak belirlendi.
Rehberger, “On yıllık özellikler GenAI uygulamasına beklenmedik saldırı yüzeyi sağlıyor” dedi. “Geliştiricilerin ve uygulama tasarımcılarının, LLM çıktısını ekledikleri bağlamı dikkate almaları önemlidir; çünkü çıktı güvenilmezdir ve rastgele veriler içerebilir.”
Hepsi bu değil. Wisconsin-Madison Üniversitesi ve St. Louis’deki Washington Üniversitesi’nden akademisyenler tarafından gerçekleştirilen yeni araştırma, OpenAI’nin ChatGPT’sinin, açık ve şiddet içerenler de dahil olmak üzere, işaretleme formatıyla sağlanan harici görüntü bağlantılarını oluşturmak için kandırılabileceğini ortaya çıkardı. kapsamlı, iyi niyetli bir hedef.
Dahası, hızlı enjeksiyonun, aksi durumda kullanıcı onayı gerektirecek ChatGPT eklentilerini dolaylı olarak çağırmak için kullanılabileceği ve hatta tehlikeli bağlantılardan gelen içeriğin kullanıcının sohbet geçmişine sızmasını önlemek için OpenAI tarafından uygulanan kısıtlamaları atlamak için kullanılabileceği bulunmuştur. saldırgan tarafından kontrol edilen sunucu.