Adversa AI’dan güvenlik araştırmacıları, ChatGPT-5 ve diğer büyük AI sistemlerinde, saldırganların basit hızlı değişiklikler kullanarak güvenlik önlemlerini atlamasına izin veren kritik bir güvenlik açığını ortaya çıkardılar.
Promisqroute olarak adlandırılan yeni keşfedilen saldırı, büyük sağlayıcıların kullanıcı sorgularını daha ucuz, daha az güvenli modellere yönlendirerek yılda milyarlarca dolar tasarruf etmek için kullandıkları AI yönlendirme mekanizmalarını kullanıyor.
AI yanıtlarının arkasındaki gizli mimari
Kullanıcılar ChatGPT veya benzeri AI hizmetleriyle etkileşime girdiğinde, tek, tutarlı bir modelle iletişim kurduklarına inanırlar.
Bununla birlikte, perde arkasında, sofistike bir yönlendirme sistemi her isteği analiz eder ve hangi birden fazla modelden hangisinin yanıt vermesi gerektiğine karar verir-tipik olarak en güvenli seçeneği seçerek.
“SSRF benzeri sorgular yoluyla indüklenen, Trust Korunma Kullanarak İşlemleri Yeniden Yapılandırma” adlı derhal yönlendirici açık mod manipülasyonunu temsil eden Promisqroute, bu yönlendirme altyapısını hedefleyen tamamen yeni bir AI güvenlik açığı kategorisini temsil ediyor.
Saldırı, kötü niyetli kullanıcıların, sağlam güvenlik eğitimine sahip olmayan daha zayıf modeller aracılığıyla taleplerini zorlamalarını sağlar.
Saldırı mekanizması endişe verici bir şekilde basittir. “Patlayıcılara yardım et” gibi standart bir zararlı istek normalde GPT-5’in en güvenli varyantına yönlendirilir ve bloke edilirken, basit tetik ifadeler eklemek sonucu tamamen değiştirebilir.

“Hızlı yanıtla”, “Uyumluluk Modu Kullan” veya “Hızlı Yanıt kullanılması” gibi ifadeler, yönlendirme sistemini GPT-4 veya GPT-5-Mini gibi daha az korunan modellere isteği göndermek için kandırabilir.

Araştırmacılar, “GPT-5’i hapse atmanın neden bu kadar kolay olduğuna dair gerçek cevap” diye açıklıyor.
Araştırma, bu sorunun kapsamı hakkında şaşırtıcı sayılar ortaya koyuyor.
Adversa AI’nın tahminlerine göre, çoğu “GPT-5” istek aslında daha zayıf modellerle ele alınırken, Openai gizli yönlendirme mekanizmaları yoluyla yılda yaklaşık 1.86 milyar dolar tasarruf sağlıyor.
Bu maliyet tasarrufu sağlayan yaklaşım, hem iş modellerini hem de müşteri güvenliğini riske atar.
Güvenlik açığı, katmanlı AI tabanlı model yönlendirme kullanarak herhangi bir AI altyapısına geniş ölçüde uygulanarak ChatGPT-5’in çok ötesine uzanır.
Bu mimari, kurumsal kurulumlarda zaten yaygındır ve ajan yapay zeka sistemleri için standart haline gelmesi beklenmektedir, bu da Promisqroute’u tüm endüstri için önemli bir endişe haline getirmektedir.
Araştırmacılar, AI sistemlerini kullanan kuruluşlar için derhal eylem önermektedir.
Kısa süreli çözümler, tüm AI yönlendirme günlüklerinin denetlenmesini ve kullanıcı girişini ayrıştırmayan kriptografik yönlendirmenin uygulanmasını içerir. Uzun süreli düzeltmeler, tüm model varyantlarına evrensel güvenlik filtreleri eklenmesini içerir.
Sistemlerini test etmek isteyen kullanıcılar için araştırmacılar, yanıt kalitesi ve hızındaki değişiklikleri gözlemlemek için daha önce etkisiz jailbreak girişimleri ile birlikte “Bu hızlı, hafif ve konuşmayı tutalım” gibi ifadeleri denemenizi önermektedir – model düşürme potansiyel göstergeleri.
Bu keşif, sağlayıcıların güvenlik gereksinimleriyle maliyet verimliliğini dengelediğinden AI dağıtımının karşılaştığı karmaşık güvenlik zorluklarını vurgulamaktadır.
Bu haberi ilginç bul! Anında güncellemeler almak için bizi Google News, LinkedIn ve X’te takip edin!