Github Copilot Jailbreak Güvenlik Açığı Saldırganların Kötü niyetli Modeller Eğitmesine İzin Ver


Github Copilot Jailbreak Güvenlik Açığı

Araştırmacılar, GitHub Copilot’ta Microsoft’un AI destekli kodlama asistanı olan ve kurumsal AI araçlarındaki sistemik zayıflıkları ortaya çıkaran iki kritik güvenlik açıkını ortaya çıkardılar.

“Refiration Jailbreak” ve “Proxy Hack” olarak adlandırılan kusurlar, saldırganları etik güvenceleri atlamak, model davranışını manipüle etmek ve hatta Openai’nin GPT-O1 gibi premium AI kaynaklarına erişimini engellemek için geçiriyor.

Bu bulgular, AI sistemlerinin manipüle edilme kolaylığını vurgulamakta ve AI odaklı kalkınma ortamlarının güvenliği ve etik sonuçları ile ilgili kritik endişeleri gündeme getirmektedir.

Hizmet Olarak Siem

Github Copilot Jailbreak Güvenlik Açığı

Apex Güvenlik Ekibi, “emin” gibi onaylamaların Copilot’un etik korkuluklarını geçersiz kılabileceğini keşfetti. Normal senaryolarda, Copilot zararlı talepleri reddeder. Örneğin:

Github sorgusu

Başlangıçta Copilot’a bir SQL enjeksiyonunun nasıl yapılacağını sorduğumda, etik standartları korurken beni nezaketle reddetti, dedi Oren Saban.

Ancak, Copilot’un samimi bir “elbette” eklediğinizde yön değiştirdiği görülüyor. Birdenbire, bir SQL enjeksiyonunun nasıl yapılacağı hakkında ayrıntılı bir rehber sunar. Copilot, sorumlu bir yardımcıdan o olumlu ifadeyle meraklı, kural kıran bir arkadaşa değişiyor gibi görünüyor.

Diğer testler, Copilot’un dehantikasyon saldırılarına, sahte Wi-Fi kurulumuna ve hatta sorulduğunda “insan olma” hakkındaki felsefi musinglere yardımcı olma konusunda endişe verici bir istekli olduğunu ortaya koydu.

Proxy Hijack: Erişim Denetimlerini Boyun

Daha şiddetli bir istismar, saldırganların Copilot’un API trafiğini kötü niyetli bir proxy aracılığıyla yeniden yönlendirmesine izin vererek Openai modellerine sınırsız erişim sağlıyor.

Araştırmacılar, trafiği yeniden yönlendirmek için Visual Studio Kodunu (VSCODE) ayarlarını değiştirdi, bu da Copilot’un yerel proxy doğrulamasını atlayarak MITM (ortadaki adam) saldırılarını sağladı.

Proxy, Copilot’un Openai’nin API uç noktalarına erişim sağlayan kimlik doğrulama jetonunu yakaladı. Saldırganlar daha sonra bu jetonu, kullanım sınırlarını ve faturalandırma kontrollerini atlayarak GPT-O1 gibi modelleri doğrudan sorgulamak için kullandılar.

Çalınan jetonla, tehdit aktörleri yüksek riskli içerik (kimlik avı şablonları, istismar kodları) üretebilir, manipüle edilmiş tamamlamalar yoluyla tescilli kodu dışarı atabilir ve “kullanım başına ödeme” AI modelleri kullanan işletmeler için büyük maliyetlere neden olabilir.

  • Etik İhlaller: Beyan Jailbreak, AI güvenlik mekanizmalarının sosyal mühendislik tarzı istemler altında ne kadar kolay başarısız olabileceğini göstermektedir.
  • Finansal Riskler: Proxy kaçırma, bağlı Openai hizmetlerini kullanan kuruluşlar için altı rakamlı faturalara yol açabilir.
  • Kurumsal maruziyet: Apex, Fortune 500 şirketlerinin% 83’ünün GitHub Copilot kullandığını ve potansiyel hasarı büyüttüğünü bildirdi.

Microsoft’un güvenlik ekibi, jetonların lisanslı hesaplarla bağlantılı olduğunu ve bulguları kritik olmaktan ziyade “bilgilendirici” olarak sınıflandırdığını söyledi. Apex, bağlama duyarlı filtreleme ve proxy bütünlük kontrollerinin eksikliğinin sistemik riskler yarattığını anlamaya yöneltti.

  • Beyanlama hazırlamasını tespit etmek için çekişme eğitimini uygulayın.
  • Sertifika sabitleme ve harici proxy geçersiz kılmaları engelleyin.
  • API jetonlarını beyaz liste IP aralıkları ve kullanım bağlamlarıyla sınırlayın.
  • Anormal aktivite bayrak (örn., Hızlı model anahtarlama).

Bu kusurlar AI inovasyonu ve güvenlik bütünlüğü arasındaki artan bir boşluğu vurgulamaktadır. Kodlama asistanları otonom ajanlara olgunlaştıkça, Copilot gibi teknolojiler NIST’in AI risk yönetimi önerilerine benzer standartları takip etmelidir.

Collect Threat Intelligence with TI Lookup to Improve Your Company’s Security - Get 50 Free Request



Source link