Araştırmacılar ChatGPT Eklentilerindeki Güvenlik Açıklarını Ortaya Çıkardı


Yapay Zeka ve Makine Öğrenimi, Yönetişim ve Risk Yönetimi, Yeni Nesil Teknolojiler ve Güvenli Geliştirme

Potansiyel Sıfır Tıklamayla Hesap Devralma İstismarı, Tespit Edilen Güvenlik Açıkları Arasındadır

Akşaya Asokan (asokan_akshaya) •
14 Mart 2024

Araştırmacılar ChatGPT Eklentilerindeki Güvenlik Açıklarını Ortaya Çıkardı
Resim: Shutterstock

Güvenlik firması Salt Security'deki araştırmacılar, ChatGPT'de kullanılan üçüncü taraf eklentilerde, kullanıcılar ChatGPT hesaplarını kullanarak eklentiyi yüklemeye çalıştıklarında tetiklenen sıfır tıklamayla hesap devralma hatası da dahil olmak üzere çok sayıda güvenlik açığını ortaya çıkardı.

Ayrıca bakınız: İsteğe Bağlı | Sıfır Güven Sağlamak İçin Makine Öğrenimini ve Hiper Ölçekli Bulutu Kullanmak

Salt Security araştırmacıları, OAuth kimlik doğrulamasında, GitHub ve ChatGPT'de kullanılan AI üçüncü taraf eklentileri olan PluginLab'da üç kusur ortaya çıkardı. Kusurlar, chatbot kullanıcılarının ChatGPT hesaplarını kullanarak bu hizmetlere bağlanmaya çalışmalarından kaynaklanıyordu.

Salt Security araştırma başkan yardımcısı Yaniv Balmas, “Herhangi bir yapay zeka ekosistemindeki güvenlik açıklarının ciddiyeti ve riski, esas olarak eklenti işlevselliğinden kaynaklanmaktadır” dedi. “Örnek olarak özellikle ChatGPT'ye bakmayı seçtik ve araştırmamız sırasında ChatGPT ekosisteminde çok sayıda güvenlik açığı bulmayı başardık.”

Araştırmacılar, en kritik güvenlik açığının (sıfır tıklamayla hesap devralma kusuru) ChatGPT kullanıcılarının GitHub depolarını sorgulamak için kullandıkları AskTheCode eklentisinden kaynaklandığını söyledi.

Bir kullanıcı uygulamayı indirdiğinde eklenti yeni bir hesap oluşturur ve GitHub'dan hesap izni ister. Eklenti, kullanıcı isteğini doğrulamak için benzersiz bir kod oluştursa da araştırmacılar, saldırganların, kimlik doğrulama isteğini farklı bir kullanıcı kimliği kullanarak yeniden yönlendirerek kodu ele geçirebileceğini buldu.

“Bulduğumuz sorunlar oldukça kritik olabilir. Örneğin, bir kullanıcı ChatGPT'yi GitHub hesabına bağlayan belirli bir ChatGPT eklentisini kullandığında, bir saldırganın kullanıcının GitHub hesabının tamamına tam erişim elde edebileceğini gösterdik. Balmas, Information Security Media Group'a “Kullanıcının herhangi bir etkileşimi olmadan,” dedi.

İkinci kusur, bir ChatGPT hesabındaki eklenti yükleme isteklerini doğrulamak için OAuth kimlik doğrulama belirtecinin başarısız olmasından kaynaklandı. Bir kullanıcı ChatGPT hesabını kullanarak yeni bir eklenti yüklemeye çalıştığında, chatbot onayını almak için onu eklenti web sitesine yönlendirir.

Onay alındıktan sonra ChatGPT, eklentiyi kimlik doğrulaması olmadan yüklemeye devam eder. Araştırmacılar, bir saldırganın e-posta hesaplarına erişim sağlamak için kötü amaçlı kodlar hazırlayarak bu özelliği istismar edebileceğini ve muhtemelen hesap ele geçirme saldırılarına izin verebileceğini söyledi.

Raporda, “Saldırganın bu eklentinin sahibi olması nedeniyle kurbanın kimlik bilgileri, şifreler veya diğer hassas verileri içerebilen özel sohbet verilerini görebileceği” belirtiliyor.

Araştırmacılar, verileri grafiklere dönüştürmek için ChatGPT'de kullanılan Charts by Kesem AI eklentisindeki kimlik doğrulama kusurundan yararlandı. Kesem.ai çerçevesi kullanılarak geliştirilen eklenti, Google veya Microsoft e-posta hesaplarını kullanan bir kullanıcının kimliğini doğruluyor ve bu kullanıcının benzersiz tanımlanması için bir kod üretiyor.

Araştırmacılar, uygulamanın kod yeniden yönlendirme isteğini doğrulamaması nedeniyle saldırganların kullanıcı kimlik bilgilerini çalabileceğini söyledi.

Salt Güvenlik araştırmacıları şirketleri uyardı ve ilk olarak 2023 yılında keşfedilen güvenlik açıklarını azalttılar. Şirketler, kusurların şu ana kadar herhangi bir veri kaybına yol açmadığını söyledi.

Salt Güvenlik raporu, araştırmacıların ChatGPT'de güvenlik açıkları bulduğu ilk rapor değil. Aralık 2023'te şirket, hızlı enjeksiyon kullanılarak veri sızdırılmasına olanak tanıyan bir görüntü işaretleme ekleme hatası için yamalar kullanıma sundu. Bundan önce, Redis istemci kitaplığında bulunan bir güvenlik açığı, bazı ChatGPT kullanıcılarının başka bir aktif kullanıcının sohbet geçmişindeki başlıkları görmesine olanak tanıyordu.

OpenAI, Bilgi Güvenliği Medya Grubu'ndan gelen yorum talebine hemen yanıt vermedi.





Source link