Kritik ChatGPT Eklentisindeki Güvenlik Açıkları Hassas Verileri Açığa Çıkarıyor


ChatGPT'nin kullandığı uzantı işlevlerinde ortaya çıkarılan üç güvenlik açığı, GitHub gibi platformlardaki hassas depolar da dahil olmak üzere kullanıcıların hesaplarına ve hizmetlerine yetkisiz, sıfır tıklamayla erişime kapıyı açıyor.

Geliştiriciler tarafından yayınlanan ChatGPT eklentileri ve ChatGPT'nin özel sürümleri, OpenAI'nin popüler üretken yapay zeka sohbet robotuna erişim ve GitHub ve Google Drive da dahil olmak üzere çeşitli üçüncü taraf web sitelerinde görevleri yürütme izinleri vererek harici hizmetlerle etkileşimi mümkün kılarak yapay zeka modelinin yeteneklerini genişletiyor.

Salt Labs araştırmacıları şunu ortaya çıkardı: ChatGPT'yi etkileyen üç kritik güvenlik açığıBunlardan ilki, ChatGPT'nin kullanıcıları kod onayı için eklenti web sitelerine yönlendirdiği yeni eklentilerin kurulumu sırasında meydana gelir. Saldırganlar bundan yararlanarak kullanıcıları kötü amaçlı kodu onaylamaları için kandırabilir, bu da yetkisiz eklentilerin otomatik olarak yüklenmesine ve olası takip hesaplarının tehlikeye atılmasına yol açabilir.

İkincisi, eklenti geliştirmeye yönelik bir çerçeve olan PluginLab, ChatGPT'yi GitHub'a bağlayan “AskTheCode” eklentisinde görüldüğü gibi, saldırganların kullanıcıları taklit etmesine ve hesapları ele geçirmesine olanak tanıyan uygun kullanıcı kimlik doğrulamasından yoksundur.

Son olarak Salt araştırmacıları belirli eklentilerin saldırıya açık olduğunu buldu. OAuth yeniden yönlendirme manipülasyonuSaldırganların kötü amaçlı URL'ler eklemesine ve kullanıcı kimlik bilgilerini çalmasına olanak vererek hesapların daha fazla ele geçirilmesini kolaylaştırır.

Raporda, sorunların o zamandan beri giderildiği ve güvenlik açıklarından yararlanıldığına dair hiçbir kanıt bulunmadığı, bu nedenle kullanıcıların uygulamalarını mümkün olan en kısa sürede güncellemesi gerektiği belirtildi.

GenAI Güvenlik Sorunları Geniş Ekosistemi Riske Atıyor

Salt Security araştırma başkan yardımcısı Yaniv Balmas, araştırma ekibinin bulduğu sorunların yüz binlerce kullanıcıyı ve kuruluşu riske atabileceğini söylüyor.

“Herhangi bir kuruluştaki güvenlik liderlerinin riski daha iyi anlamaları gerekir, bu nedenle şirketlerinin hangi eklentileri ve GPT'leri kullandığını ve bu eklentiler ve GPT'ler aracılığıyla hangi üçüncü taraf hesapların açığa çıktığını incelemelidirler” diyor. “Başlangıç ​​noktası olarak kodlarının güvenlik incelemesini yapmanızı öneriyoruz.”

Balmas, eklentiler ve GPT geliştiricileri için geliştiricilerin GenAI ekosisteminin iç yapısı, ilgili güvenlik önlemleri, bunların nasıl kullanılacağı ve bunların nasıl kötüye kullanılacağı konusunda daha bilinçli olmalarını öneriyor. Bu, özellikle GenAI'ye hangi verilerin gönderildiğini ve GenAI platformuna veya bağlı üçüncü taraf eklentilerine hangi izinlerin verildiğini (örneğin, Google Drive veya GitHub izni) içerir.

Balmas, Salt araştırma ekibinin bu ekosistemin yalnızca küçük bir yüzdesini kontrol ettiğine dikkat çekiyor ve bulguların, diğer GenAI platformları ile mevcut ve gelecekteki birçok GenAI eklentisi için daha büyük bir risk olduğunu gösterdiğini söylüyor.

Balmas ayrıca OpenAI'nin geliştiricilere yönelik belgelerinde güvenliğe daha fazla vurgu yapması gerektiğini, bunun da riskleri azaltmaya yardımcı olacağını söylüyor.

GenAI Eklenti Güvenliği Risklerinin Artması Muhtemel

Critical Start'ın siber tehdit istihbaratı araştırma analisti Sarah Jones, Salt Lab bulgularının daha geniş güvenlik riski GenAI eklentileriyle ilişkilidir.

“GenAI iş akışlarıyla daha entegre hale geldikçe, eklentilerdeki güvenlik açıkları saldırganlara çeşitli platformlardaki hassas verilere veya işlevlere erişim sağlayabilir” diyor.

Bu, bilgisayar korsanlarının yeni bir saldırı başlatmaya başlamasıyla hem GenAI platformları hem de eklenti ekosistemleri için sağlam güvenlik standartlarına ve düzenli denetimlere duyulan ihtiyacı vurguluyor. bu platformlardaki kusurları hedefleyin.

Keeper Security'nin CEO'su ve kurucu ortağı Darren Guccione, bu güvenlik açıklarının üçüncü taraf uygulamalarla ilgili doğal güvenlik riskleri hakkında “kesin bir hatırlatma” görevi gördüğünü ve kuruluşları savunmalarını güçlendirmeye sevk etmesi gerektiğini söylüyor.

“Kuruluşlar rekabet avantajı kazanmak ve operasyonel verimliliği artırmak için yapay zekadan yararlanmaya çalışırken, bu çözümleri hızlı bir şekilde uygulama baskısı, güvenlik değerlendirmeleri ve çalışanların eğitiminden önce gelmemelidir” diyor.

Yapay zeka destekli uygulamaların çoğalması aynı zamanda zorluklara da yol açtı yazılım tedarik zinciri güvenliğiKuruluşların güvenlik kontrollerini ve veri yönetimi politikalarını uyarlamalarını gerektirir.

Çalışanların fikri mülkiyet, finansal veriler, iş stratejileri ve daha fazlası dahil olmak üzere özel verileri yapay zeka araçlarına giderek daha fazla girdiğine ve kötü niyetli bir aktörün yetkisiz erişiminin bir kuruluş için sakatlayıcı olabileceğine dikkat çekiyor.

“Bir çalışanın GitHub hesabını veya diğer hassas hesaplarını tehlikeye atan bir hesap ele geçirme saldırısının da aynı derecede zarar verici etkileri olabilir” diye uyarıyor.





Source link