Microsoft 365 Copilot’ta ASCII kaçakçılığı adı verilen bir teknik kullanılarak hassas kullanıcı bilgilerinin çalınmasına olanak tanıyan, artık düzeltilmiş bir güvenlik açığıyla ilgili ayrıntılar ortaya çıktı.
Güvenlik araştırmacısı Johann Rehberger, “ASCII Kaçakçılığı, ASCII’yi yansıtan ancak kullanıcı arayüzünde aslında görünmeyen özel Unicode karakterleri kullanan yeni bir tekniktir” dedi.
“Bu, bir saldırganın şu yetkilere sahip olabileceği anlamına gelir: [large language model] kullanıcıya görünmez verileri sunar ve bunları tıklanabilir köprü metinlerine gömer. Bu teknik temel olarak verileri sızdırılmak üzere sahneler!”
Tüm saldırı, güvenilir bir istismar zinciri oluşturmak için bir dizi saldırı yöntemini bir araya getirir. Bu, aşağıdaki adımları içerir –
- Sohbette paylaşılan bir belgede gizlenmiş kötü amaçlı içerik aracılığıyla tetikleyici istem enjeksiyonu
- Copilot’a daha fazla e-posta ve belge araması talimatını vermek için hızlı bir enjeksiyon yükü kullanma
- Kullanıcıyı değerli verileri üçüncü taraf bir sunucuya sızdırmak için bir bağlantıya tıklamaya teşvik etmek amacıyla ASCII kaçakçılığından faydalanma
Saldırının net sonucu, çok faktörlü kimlik doğrulama (MFA) kodları da dahil olmak üzere e-postalarda bulunan hassas verilerin, saldırgan tarafından kontrol edilen bir sunucuya iletilebilmesidir. Microsoft, Ocak 2024’te sorumlu bir şekilde ifşa edilmesinin ardından sorunları ele aldı.
Bu gelişme, Microsoft’un Copilot sistemine yönelik, yanıtları manipüle etmek, özel verileri sızdırmak ve güvenlik korumalarını atlatmak için kavram kanıtı (PoC) saldırılarının gösterilmesinin ardından ortaya çıktı ve yapay zeka (AI) araçlarındaki risklerin izlenmesinin gerekliliğini bir kez daha vurguladı.
Zenity tarafından ayrıntılı olarak açıklanan yöntemler, kötü niyetli aktörlerin Microsoft Copilot ve diğer AI uygulamalarını tamamen kontrol edebilen uzaktan kod yürütme saldırılarına yol açan geri alma-artırılmış üretim (RAG) zehirlenmesi ve dolaylı istem enjeksiyonu gerçekleştirmesine olanak tanır. Varsayımsal bir saldırı senaryosunda, kod yürütme yeteneklerine sahip harici bir bilgisayar korsanı, Copilot’u kullanıcılara kimlik avı sayfaları sağlaması için kandırabilir.
Belki de en yeni saldırılardan biri, yapay zekayı bir mızrak-kimlik avı makinesine dönüştürme yeteneğidir. LOLCopilot olarak adlandırılan kırmızı takım tekniği, bir kurbanın e-posta hesabına erişimi olan bir saldırganın, tehlikeye atılmış kullanıcıların tarzını taklit eden kimlik avı mesajları göndermesine olanak tanır.
Microsoft ayrıca, Microsoft Copilot Studio kullanılarak oluşturulan ve herhangi bir kimlik doğrulama korumasından yoksun olan kamuya açık Copilot botlarının, tehdit aktörlerinin Copilot adı veya URL’si hakkında önceden bilgi sahibi olmaları durumunda hassas bilgileri elde etmeleri için bir yol olabileceğini kabul etti.
Rehberger, “İşletmeler, Copilot’lardan (eski adıyla Power Virtual Agents) kaynaklanan veri sızıntılarını önlemek için risk toleranslarını ve maruz kalma durumlarını değerlendirmeli ve Copilot’ların oluşturulmasını ve yayınlanmasını kontrol etmek için Veri Kaybı Önleme ve diğer güvenlik kontrollerini buna göre etkinleştirmelidir” dedi.