Chatgpt “0 tıklayın” Güvenlik Açığı Konektörlerde Hassas Google Drive Verileri


Chatgpt

Openai’nin CHATGPT konektörlerinde kritik bir güvenlik açığı, saldırganların ilk dosya paylaşımının ötesinde herhangi bir kullanıcı etkileşimi olmadan bağlı Google Drive hesaplarından duyarlı verileri sunmalarını sağlar.

“AgentFlayer” olarak adlandırılan saldırı, AI destekli kurumsal araçları hedefleyen yeni bir sıfır-tıkaç istismar sınıfını temsil ediyor.

Güvenlik açığı, Las Vegas’taki Black Hat Hacker Konferansı’nda Zenity ve Tamir Ishay Sharbat’tan siber güvenlik araştırmacıları Michael Bargary tarafından açıklandı ve tek bir kötü niyetli belgenin kurbanların bulut depolama hesaplarından otomatik veri hırsızlığını nasıl tetikleyebileceğini gösterdi.

Google Haberleri

2025’in başlarında başlatılan ChatGPT konektörleri, AI asistanının Google Drive, SharePoint, GitHub ve Microsoft 365 dahil üçüncü taraf uygulamalarla entegre olmasını sağlayın. Bu özellik, kullanıcıların kişisel iş verilerine göre dosyaları aramasını, canlı verileri çekmesini ve bağlamsal cevaplar almasını sağlar.

Chatgpt 0 tıklayın Güvenlik Açığı

Araştırmacılar, dolaylı bir hızlı enjeksiyon saldırısı yoluyla bu işlevselliği kullandılar. Beyaz arka planlarda 1 piksel beyaz metin gibi teknikler kullanarak görünüşte iyi huylu belgelere görünmez kötü niyetli talimatlar yerleştirerek, belge işlendiğinde ChatGPT’nin davranışını manipüle edebilir.

“Saldırının gerçekleşmesi için kullanıcının yapması gereken tek şey, güvenilmeyen bir kaynaktan ChatGPT’ye, hepimizin günlük olarak yaptığı bir şey yüklemektir” dedi. “Dosya yüklendikten sonra, oyun bitti. Ek tıklama gerekmez.”

Bir kurban zehirli belgeyi ChatGPT’ye yüklediğinde veya Google Drive’larıyla paylaştığında saldırı ortaya çıkıyor. “Bu belgeyi özetleyin” gibi zararsız bir istek bile gizli yükü tetikleyerek ChatGPT’nin API anahtarları, kimlik bilgileri veya gizli belgeler gibi hassas bilgiler için kurbanın Google Drive’ı aramasına neden olabilir.

Araştırmacılar, ChatGPT’nin görüntüleri birincil veri açığa vurma yöntemi olarak kullanma yeteneğinden yararlandı. Gizli istem yoluyla talimat verildiğinde, ChatGPT, görüntü URL’lerinde parametre olarak çalınan verileri yerleştirir ve görüntüler oluşturulduğunda saldırgan kontrollü sunuculara otomatik HTTP isteklerine neden olur.

Başlangıçta Openai, görüntü oluşturmadan önce dahili bir “url_safe” uç noktasından URL’leri kontrol ederek temel hafifletmeler uygulamıştı. Bununla birlikte, araştırmacılar, chatgpt’in güvenilir olduğunu düşündüğü Azure Blob depolama URL’lerini kullanarak bu korumaları atlayabileceklerini keşfettiler.

Azure Blob depolama alanında görüntüleri barındırarak ve erişim isteklerini izlemek için Azure Log Analytics’i yapılandırarak, saldırganlar meşru Microsoft altyapısını kullanırken görüntüleyici verileri görüntü isteği parametreleri aracılığıyla yakalayabilir.

Başarılı Saldırı
Başarılı Saldırı

Güvenlik açığı, ChatGPT konektörlerinin giderek daha fazla dağıtıldığı kurumsal ortamlar için önemli riskler oluşturmaktadır. İK kılavuzları, finansal belgeler veya stratejik planlar içeren SharePoint siteleri gibi iş açısından kritik sistemleri entegre etmek için özelliği kullanan kuruluşlar kapsamlı veri ihlalleriyle karşılaşabilir.

Araştırmacılar, “Bu sadece Google Drive için geçerli değil” dedi. “ChatGPT’ye bağlı herhangi bir kaynak veri açığa çıkması için hedeflenebilir. GitHub, SharePoint, OneDrive veya Chatgpt’in bağlanabileceği başka bir üçüncü taraf uygulaması olsun.”

Saldırı özellikle ilgilidir çünkü geleneksel güvenlik farkındalık eğitimini atlar. E -posta kimlik avı ve şüpheli bağlantılar konusunda eğitilen çalışanlar, kötü niyetli belge tamamen meşru göründüğü ve veri hırsızlığı şeffaf bir şekilde gerçekleştiğinden, bu saldırı vektörüne hala kurban olabilir.

Openai güvenlik açığı hakkında bilgilendirildi ve araştırmacılar tarafından gösterilen özel saldırıyı ele almak için hızla hafifletmeler uygulandı. Bununla birlikte, altta yatan mimari zorluk çözülmemiştir.

Araştırmacılar, “Openai zaten kırılganlığın farkında ve hafifletmeler var. Ancak maalesef bu hafifletmeler yeterli değil” dedi. “Güvenli görünümlü URL’ler bile kötü niyetli amaçlar için kullanılabilir. Bir URL güvenli kabul edilirse, bir saldırganın bundan yararlanmanın yaratıcı bir yolunu bulacağından emin olabilirsiniz.”

Bu güvenlik açığı, yapay zeka destekli kurumsal araçların karşılaştığı daha geniş güvenlik zorluklarını örneklendirir. Microsoft’un kopilottaki “Echoleak” güvenlik açığı ve diğer AI asistanlarına karşı çeşitli hızlı enjeksiyon saldırıları da dahil olmak üzere sektörde de benzer konular keşfedilmiştir.

Dünya Çapında Açık Uygulama Güvenlik Projesi (OWASP), hızlı enjeksiyonu LLM uygulamaları için 2025 ilk 10’unda en iyi güvenlik riski olarak tanımlamıştır ve bu tehditlerin AI sistemlerinde yaygın doğasını yansıtır.

İşletmeler hızla AI ajanlarını ve asistanları benimsedikçe, güvenlik araştırmacıları bu yeni saldırı vektörlerini ele alan kapsamlı yönetişim çerçevelerine olan ihtiyacı vurgulamaktadır.

Hafifletme

Güvenlik uzmanları, benzer saldırılardan kaynaklanan riskleri azaltmak için çeşitli önlemler önerir:

  • En az ayrıcalık prensibini izleyerek AI konektörü izinleri için katı erişim kontrolleri uygulayın.
  • Özellikle AI aracı etkinlikleri için tasarlanmış izleme çözümlerini dağıtın.
  • Kullanıcıları, güvenilmeyen kaynaklardan AI sistemlerine belgeleri yükleme riskleri konusunda eğitin.
  • Olağandışı veri erişim modelleri için ağ düzeyinde izlemeyi düşünün.
  • Bağlı hizmetleri ve izin düzeylerini düzenli olarak denetleyin.

SOC’nizi en son tehdit verilerine tam erişimle donatın Herhangi biri. Olay yanıtı iyileştirebilir -> 14 günlük ücretsiz deneme alın



Source link