API güvenlik uzmanları Tuz Güvenliği yeni tehdit araştırmasını yayınladı Tuz Laboratuvarları içindeki kritik güvenlik kusurlarını vurgulayarak ChatGPT eklentileriişletmeler için yeni bir risk oluşturmaktadır. Eklentiler, ChatGPT gibi yapay zeka sohbet robotlarına erişim sağlar ve üçüncü taraf web sitelerinde kullanıcılar adına görevleri gerçekleştirme izinlerini sağlar. Örneğin, GitHub depolarına kod göndermek veya bir kuruluşun Google Drive'larından veri almak. Bu güvenlik kusurları yeni bir saldırı vektörünü ortaya çıkarıyor ve kötü aktörlerin üçüncü taraf web sitelerindeki hesapların kontrolünü ele geçirmesine ve bunlara erişime izin vermesine olanak tanıyor. Üçüncü taraf uygulamalarında saklanan Kişisel Tanımlayıcı Bilgiler (PII) ve diğer hassas kullanıcı verileri.
ChatGPT eklentileri, modelin yeteneklerini genişleterek chatbotun harici hizmetlerle etkileşime girmesine olanak tanır. Bu üçüncü taraf eklentilerin entegrasyonu, ChatGPT'nin yazılım geliştirme ve veri yönetiminden eğitim ve iş ortamlarına kadar çeşitli alanlarda uygulanabilirliğini önemli ölçüde artırır. Kuruluşlar bu tür eklentilerden yararlandığında, daha sonra ChatGPT'ye bir kuruluşun hassas verilerini üçüncü taraf bir web sitesine gönderme ve özel harici hesaplara erişim izni verme izni verir. Özellikle Kasım 2023'te ChatGPT, eklentilere benzer bir konsept olan yeni bir özellik olan GPT'leri tanıttı. GPT'ler, herhangi bir geliştiricinin yayınlayabileceği ChatGPT'nin özel sürümleridir ve onu dış dünyaya bağlayan “Eylem” adlı bir seçenek içerir. GPT'ler eklentilerle benzer güvenlik riskleri oluşturur.
Salt Security Araştırmadan Sorumlu Başkan Yardımcısı Yaniv Balmas şunları söyledi: “ChatGPT gibi üretken yapay zeka araçları, hem ticari operasyonlarda hem de günlük insan yaşamında verimliliği büyük ölçüde artırma potansiyeline sahip olarak dünya çapında milyonlarca kişinin dikkatini çekti. Daha fazla kuruluş bu tür teknolojiden faydalandıkça, saldırganlar çabalarını fazla odaklıyor, bu araçlardan yararlanmanın ve ardından hassas verilere erişmenin yollarını buluyor. ChatGPT'deki son güvenlik açığı keşiflerimiz, saldırganların kritik iş varlıklarına erişememesini ve hesap ele geçirme işlemlerini gerçekleştirememesini sağlamak için bu teknolojideki eklentileri korumanın önemini gösteriyor.”
Salt Labs ekibi, ChatGPT eklentilerinde üç farklı türde güvenlik açığını ortaya çıkardı.
Bunlardan ilki, kullanıcılar yeni eklentiler yüklediğinde ChatGPT'nin kendisinde not edildi. Bu işlem sırasında ChatGPT, kullanıcıyı, söz konusu kişi tarafından onaylanacak bir kod alması için eklenti web sitesine yönlendirir. ChatGPT bir kullanıcıdan onaylı kodu aldığında eklentiyi otomatik olarak yükler ve kullanıcı adına o eklentiyle etkileşime geçebilir. Salt Labs araştırmacıları, bir saldırganın bu işlevden yararlanarak kullanıcılara yeni bir kötü amaçlı eklenti içeren bir kod onayı sunarak saldırganın kimlik bilgilerini kurbanın hesabına otomatik olarak yüklemesine olanak sağladığını keşfetti. Kullanıcının ChatGPT'de yazdığı herhangi bir mesaj bir eklentiye iletilebilir, bu da saldırganın çok sayıda özel bilgiye erişebileceği anlamına gelir.
İkinci güvenlik açığı, geliştiricilerin ve şirketlerin ChatGPT için eklentiler geliştirmek için kullandıkları bir çerçeve olan PluginLab'da (pluginlab.ai) keşfedildi. Kurulum sırasında Salt Labs araştırmacıları, PluginLab'ın kullanıcı hesaplarının kimlik doğrulamasını düzgün bir şekilde yapmadığını ortaya çıkardı; bu da olası bir saldırganın başka bir kullanıcı kimliği girmesine ve kurbanı temsil eden bir kod almasına olanak tanıyordu; bu da eklentinin hesabının ele geçirilmesine yol açıyordu. Etkilenen eklentilerden biri de ChatGPT ile GitHub arasında entegre olan “AskTheCode”; yani bir saldırgan, bu güvenlik açığından yararlanarak kurbanın GitHub hesabına erişim sağlayabilir.
Çeşitli eklentilerde ortaya çıkarılan üçüncü ve son güvenlik açığı OAuth (Açık Yetkilendirme) yönlendirme manipülasyonuydu. Pluginlab.ai'ye benzer şekilde, ChatGPT eklentisinin kendisinde hesap devralma işlemidir. Bu güvenlik açığında saldırgan kurbana bağlantı gönderebilir. Bazı eklentiler URL'leri doğrulamaz; bu, bir saldırganın kötü amaçlı bir URL ekleyip kullanıcı kimlik bilgilerini çalabileceği anlamına gelir. Pluginlab.ai'de olduğu gibi, saldırgan da kurbanın kimlik bilgilerine (koduna) sahip olacak ve aynı şekilde kurbanın hesabını ele geçirebilecektir.
Salt Labs'ın araştırmacıları, güvenlik açıklarının keşfedilmesinin ardından OpenAI ve üçüncü taraf sağlayıcılarla koordineli açıklama uygulamalarını izledi ve tüm sorunlar, bu kusurların vahşi ortamda istismar edildiğine dair hiçbir kanıt olmadan hızlı bir şekilde düzeltildi.