ChatGPT, Sırları Açığa Çıkarmak İçin SSRF Güvenlik Açıklarından Yararlanarak Özel GPT’ler Kullanılarak Saldırıya Uğradı


ChatGPT, Özel GPT'ler Kullanılarak Hacklendi

OpenAI’nin ChatGPT’sindeki Sunucu Tarafı İstek Sahteciliği (SSRF) güvenlik açığı. Özel GPT “Eylemler” özelliğinde gizlenen kusur, saldırganların sistemi kandırarak dahili bulut meta verilerine erişmesine olanak tanıdı ve potansiyel olarak hassas Azure kimlik bilgilerini açığa çıkardı.

Open Security tarafından sıradan deneyler sırasında keşfedilen hata, yapay zeka araçlarında kullanıcı tarafından kontrol edilen URL işlemenin risklerini vurguluyor.

SSRF güvenlik açıkları, uygulamaların kullanıcı tarafından sağlanan URL’lerden körü körüne kaynak almasıyla ortaya çıkar ve saldırganların sunucuları istenmeyen hedefleri sorgulamaya zorlamasına olanak tanır. Bu, güvenlik duvarlarını atlayabilir, dahili ağları araştırabilir veya ayrıcalıklı hizmetlerden veri çıkarabilir.

Bulutun benimsenmesi arttıkça SSRF’nin tehlikeleri de artıyor; AWS, Azure ve Google Cloud gibi büyük sağlayıcılar, örnek ayrıntılarını ve API belirteçlerini içeren http://169.254.169.254 adresindeki Azure gibi meta veri uç noktalarını açığa çıkarır.

Açık Web Uygulama Güvenliği Projesi (OWASP), SSRF’yi 2021’de İlk 10 listesine ekleyerek modern uygulamalardaki yaygınlığının altını çizdi.

Özel yapay zeka asistanları oluşturmaya yönelik birinci sınıf bir ChatGPT Plus aracı olan Özel GPT’lerle deneyler yapan araştırmacı, “Eylemler” bölümünü fark etti. Bu, kullanıcıların harici API’leri OpenAPI şemaları aracılığıyla tanımlamasına olanak tanıyarak GPT’nin hava durumu aramaları gibi görevler için bunları çağırmasına olanak tanır.

google

Arayüz, istekleri doğrulamak için bir “Test” düğmesi içerir ve kimlik doğrulama başlıklarını destekler. SSRF potansiyelini tespit eden araştırmacı, API URL’sini Azure’un Örnek Meta Veri Hizmetine (IMDS) işaret ederek test etti.

IMDS HTTP kullanırken, özellik HTTPS URL’lerini zorunlu kıldığından ilk denemeler başarısız oldu. Araştırmacı kararlı bir şekilde, harici bir HTTPS uç noktasından (ssrf.cvssadvisor.com gibi araçlar aracılığıyla) dahili meta veri URL’sine 302 yönlendirmesi kullanarak bunu atladı. Sunucu yönlendirmeyi takip etti ancak Azure, “Metadata: true” başlığı olmadan erişimi engelledi.

Daha fazla araştırma bir geçici çözüm ortaya çıkardı: Kimlik doğrulama ayarları özel “API anahtarlarına” izin veriyordu. Bir “Meta Veri”yi “true” değeriyle adlandırmak, gerekli başlığı enjekte etti.

Başarı! GPT, Azure’un yönetim API’si için bir OAuth2 belirteci de dahil olmak üzere IMDS verilerini döndürdü (/metadata/identity/oauth2/token?resource=https://management.azure.com/ aracılığıyla istendi).

Bu token, OpenAI’nin bulut ortamına doğrudan erişim sağlayarak kaynak sayımına veya yükseltmeye olanak sağladı.

Etki şiddetliydi. SSRF’nin yüzlerce örnekte uzaktan kod yürütülmesine yol açtığı geçmiş Açık Güvenlik sızma testlerinde görüldüğü gibi, bulut kurulumlarında bu tür belirteçler tam güvenlik ihlaline dönüşebilir.

ChatGPT için üretim sırlarının sızdırılması riski vardı, ancak araştırmacı bunun buldukları en felaket olmadığını belirtti.

OpenAI’nin Bugcrowd programına derhal bildirilen güvenlik açığına yüksek önem derecesi verildi ve hızlı bir yama uygulandı. OpenAI düzeltmeyi doğrulayarak daha fazla istismarı önledi.

Günlük siber güvenlik güncellemeleri için bizi Google Haberler, LinkedIn ve X’te takip edin. Hikayelerinizi öne çıkarmak için bizimle iletişime geçin.

googlehaberler



Source link