OpenAI Atlas Tarayıcısındaki Güvenlik Açığı, Saldırganların ChatGPT’de Kötü Amaçlı Komut Dosyaları Çalıştırmasına Olanak Sağlıyor


Siber güvenlik firması LayerX, OpenAI’nin ChatGPT Atlas tarayıcısında, kötü niyetli aktörlerin ChatGPT belleğine zararlı talimatlar yerleştirmesine ve uzaktan kod yürütmesine olanak tanıyan kritik bir güvenlik açığı tespit etti.

Bu güvenlik açığı, tüm tarayıcılardaki kullanıcılar için önemli riskler oluşturuyor ancak yeni ChatGPT Atlas tarayıcısını kullananlar için özellikle ciddi tehlikeler sunuyor.

Siteler Arası Talep Sahteciliği ChatGPT Erişimini İstismar Ediyor

Güvenlik açığı, ChatGPT kullanıcılarının güvenliğini tehlikeye atmak için Siteler Arası İstek Sahteciliği (CSRF) saldırısından yararlanıyor. Saldırganlar, yapay zeka asistanının hafıza özelliğine kötü amaçlı talimatlar enjekte etmek için kurbanların ChatGPT kimlik doğrulama bilgilerini kullanabilir.

Kullanıcılar daha sonra meşru amaçlarla ChatGPT ile etkileşime girdiğinde, bu kusurlu anılar uzaktan kodu tetikleyip çalıştırabilir ve potansiyel olarak saldırganlara kullanıcı hesapları, tarayıcılar, kod depoları veya bağlı sistemler üzerinde kontrol hakkı verebilir.

Saldırı dizisi, ChatGPT’de oturum açan bir kullanıcının güvenliği ihlal edilmiş bir web sayfasına yönlendiren kötü amaçlı bir bağlantıya tıklamasıyla başlar.

Bu kötü amaçlı sayfa, kullanıcının mevcut ChatGPT kimlik doğrulamasından yararlanan bir CSRF isteği yürütür. Bu istismar daha sonra gizlice ChatGPT’nin belleğine gizli talimatlar enjekte ederek, kullanıcının bilgisi olmadan çekirdek dil modeli belleğini bozuyor.

Bir sonraki ChatGPT sorgusu sırasında bu kusurlu anılar etkinleşerek kötü amaçlı kodun konuşlandırılmasına olanak tanır.

Sohbetlerdeki kullanıcı tercihlerini, projeleri ve stil notlarını hatırlamak için tasarlanan ChatGPT’nin Bellek özelliği, bu senaryoda kalıcı bir saldırı vektörü haline geliyor.

Saldırganlar CSRF isteği aracılığıyla bu belleğe kötü amaçlı talimatlar enjekte ettiğinde, ChatGPT, zararlı komutların yürütülmesinde farkında olmadan suç ortağı haline gelir.

Enfeksiyon, farklı bilgisayarlar ve tarayıcılar da dahil olmak üzere hesabın kullanıldığı tüm cihazlarda devam ediyor, bu da hesabın kaldırılmasını son derece zorlaştırıyor ve aynı hesabı hem iş hem de kişisel faaliyetler için kullanan kullanıcılar için özellikle tehlikeli oluyor.

Bu istismar ChatGPT kullanıcılarını tarayıcı tercihlerinden bağımsız olarak etkilese de Atlas kullanıcıları katlanarak artan risklerle karşı karşıya kalıyor.

Saldırı SenaryosuSaldırı Senaryosu
Saldırı Senaryosu

LayerX testi, Atlas kullanıcılarının varsayılan olarak ChatGPT’de oturum açtığını, yani kimlik doğrulama bilgilerinin CSRF saldırıları için sürekli olarak kullanılabilir durumda kaldığını ortaya çıkardı.

Daha endişe verici olan, LayerX, Atlas’ı yüzden fazla gerçek dünya web güvenlik açığına ve kimlik avı saldırısına karşı test etti ve Atlas’ın yüz üç saldırıdan doksan yedisinin yüzde doksan dört’ü aşan bir başarısızlık oranına ulaşmasına izin verdiğini keşfetti.

Saldırıların yüzde elli üçünü durduran Edge ve yüzde kırk yedisini engelleyen Chrome gibi geleneksel tarayıcılarla karşılaştırıldığında Atlas, kötü amaçlı web sayfalarının yalnızca yüzde altısını başarıyla durdurdu.

Bu, Atlas kullanıcılarının, kimlik avı saldırılarına karşı, yerleşik tarayıcı kullanıcılarına kıyasla yaklaşık yüzde doksan daha savunmasız olduğu anlamına geliyor.

Atlas’ta kimlik avına karşı anlamlı korumaların bulunmaması, kullanıcıların kötü niyetli talimat enjeksiyonuna yol açabilecek saldırı vektörlerine maruz kalmasını önemli ölçüde artırır.

LayerX, geliştiricilerin yapay zeka ile satır satır yürütücüler yerine yaratıcı ortaklar olarak işbirliği yaptığı “titreşim kodlaması” yapan Atlas kullanıcılarını hedef alan bir kavram kanıtlama saldırısı gösterdi.

Bu senaryoda saldırganlar, ChatGPT’nin gizli arka kapılar, veri sızma mekanizmaları veya uzaktan kod yürütme yetenekleri içeren görünüşte meşru kod oluşturmasına neden olan talimatlar enjekte eder.

Oluşturulan komut dosyaları, saldırgan tarafından kontrol edilen sunuculardan kötü amaçlı kodlar getirebilir ve yükseltilmiş ayrıcalıklarla yürütmeyi deneyebilir; ancak tüm bunlar, şüphelenmeyen kullanıcılara normal görünebilir.

ChatGPT, kötü niyetli talimatlara karşı bazı savunmalar içermesine rağmen bunların etkinliği, saldırının karmaşıklığına ve istenmeyen davranışların Belleğe nasıl girdiğine bağlı olarak değişir.

kullanıcı hafif bir uyarı görebilir; diğerlerinde girişim engellenebilirkullanıcı hafif bir uyarı görebilir; diğerlerinde girişim engellenebilir
kullanıcı hafif bir uyarı görebilir; diğerlerinde girişim engellenebilir

Akıllıca maskelenen kötü amaçlı kod, yalnızca kullanıcıların kolayca gözden kaçırabileceği ince uyarılarla tespit edilmekten tamamen kurtulabilir.

LayerX, bu güvenlik açığını sorumlu açıklama prosedürleri kapsamında OpenAI’ye bildirdi ve saldırı çoğaltmayı mümkün kılabilecek teknik ayrıntıları gizledi.

Anında Güncellemeler Almak ve GBH’yi Google’da Tercih Edilen Kaynak Olarak Ayarlamak için bizi Google Haberler, LinkedIn ve X’te takip edin.



Source link