ChatGPT, DeepSeek ve Copilot gibi yapay zeka dil modelleri iş operasyonlarını ışık hızıyla dönüştürüyor.
Belgeler oluşturmamıza, toplantıları özetlememize ve hatta her zamankinden daha hızlı kararlar almamıza yardımcı oluyorlar.
Ancak bu hızlı benimsemenin bir bedeli var. Çalışanlar genellikle kişisel cihazlarında onaylanmamış yapay zeka araçlarını kullanıyor ve hassas şirket bilgilerinin yönetilmeyen alanlara sızma riskiyle karşı karşıya kalıyor.
Gölge AI olarak bilinen bu riskli davranış, gerçek tehditler oluşturur, gizli veriler, kaynak kodu ve müşteri ayrıntıları, yanlışlıkla bilinmeyen AI modellerinin eğitilmesine neden olabilir.
Hızlı Enjeksiyonu İyilik İçin Kullanmak
Hızlı enjeksiyon iyi bilinen bir saldırı tekniğidir. Dikkatlice hazırlanmış talimatlar aracılığıyla büyük dil modellerini (LLM’ler) istenmeyen çıktılar üretmeleri için kandırır.
Örneğin, saldırganlar verilere gizli komutlar ekleyebilir ve bunlar daha sonra LLM tarafından yürütülür. Peki bu yöntem iyilik için bir güce dönüştürülebilir mi?
Etik istem enjeksiyonları, güvenliği bozmak yerine kullanıcıları eğitebilir ve uyarabilir. Eye Security’deki siber güvenlik ekibi bir deney olarak Confluence’tan kurumsal PDF dışa aktarımlarına gizli uyarı mesajları yerleştirdi.


Bu uyarı istemleri insanlar tarafından görülmüyordu ancak bir LLM’de özetlendiğinde kullanıcılara hassas verileri sızdırmamalarını hatırlatan ve şirket politikalarını vurgulayan hemen ortaya çıkıyordu.
O kadar işe yaradı ki çalışanlar beklenmedik bir şekilde sorumluluk reddi beyanlarını gördü ve onlara dahili yapay zeka güvenlik kurallarını hatırlattı.
Eye Security, bu “savunma amaçlı” anlık enjeksiyonları sunmanın farklı yollarını test ederek bunu daha da ileri götürmeye karar verdi.
Microsoft Purview ve Google Workspace gibi araçları kullanarak uyarıları belgelere, e-postalara ve bulut hizmetlerine yerleştirmeyi denediler.
GitHub’da açık kaynak olarak kullandıkları prototip araçları süreci otomatikleştiriyor. Bu araç, güvenlik ekiplerinin yerleşik istemlerle belgeleri toplu olarak oluşturmasına ve ardından hangi LLM’lerin uyarılara yanıt verdiğini test etmesine olanak tanır.


Sonuçlar, çoğu Yüksek Lisans ve Yapay Zeka aracının basit, doğrudan uyarı istemlerini tanıdığını ve talep edildiği gibi sorumluluk reddi beyanlarını görüntülediğini ortaya çıkardı.
Metni beyaz üzerine beyaz renkle gizlemek veya küçük yazı tipleri kullanmak gibi hileler bazen işe yaradı, ancak özellikle yapay zeka aracı OCR kullanıyor ve gizli istemleri göz ardı ediyorsa sonuçlar tutarsızdı.
Uyarının bir parçası olarak resim veya bağlantı eklemek bazen işe yaradı ancak çoğu zaman satıcının güvenlik sınırlarını aştı.
“İyilik için Hızlı Enjeksiyon” yaklaşımı umut verici olsa da sınırları da var. Bazı LLM’ler savunma istemlerini şüpheli olarak işaretleyerek enjeksiyonu tamamen görmezden geldi. Diğerleri, ön uç arayüzleri ve arka uç API’leri arasında tutarsız sonuçlar gösterdi.
İstemlerin güvenilir bir şekilde çalışacak şekilde nasıl yapılandırılacağı, satıcıların istem eklemeye karşı savunmaları büyüdükçe nasıl yanıt verecekleri ve tekniğin kötüye kullanılmasının nasıl önleneceği hakkında kalan sorular var.
Teknoloji büyüdükçe Eye Security’nin prototipi gibi araçlar, LLM’lerin kritik güvenlik uyarılarını nasıl ele aldığını test etmek ve izlemek için yaratıcı bir yol sunuyor. Shadow AI’ye karşı mücadele daha yeni başlıyor ama artık savunucuların kendilerine ait yeni silahları var.
Anında Güncellemeler Almak ve GBH’yi Google’da Tercih Edilen Kaynak Olarak Ayarlamak için bizi Google Haberler, LinkedIn ve X’te takip edin.