Çin DeepSeek-R1 Yapay Zekası, Tibet veya Uygurlardan Bahsedilen Uyarılarda Güvenli Olmayan Kod Üretiyor


CrowdStrike’ın yeni araştırması, DeepSeek’in yapay zeka (AI) akıl yürütme modeli DeepSeek-R1’in, Çin tarafından siyasi açıdan hassas kabul edilen konuları içeren istemlere yanıt olarak daha fazla güvenlik açığı ürettiğini ortaya çıkardı.

Siber güvenlik şirketi, “DeepSeek-R1’in, Çin Komünist Partisinin (ÇKP) muhtemelen siyasi açıdan hassas olarak değerlendirdiği konuları içeren istemler aldığında, ciddi güvenlik açıklarına sahip kod üretme olasılığının %50’ye kadar arttığını gördük.” dedi.

Çinli yapay zeka şirketi daha önce ulusal güvenlik endişelerinin dikkatini çekmişti ve bu da birçok ülkede yasağın getirilmesine yol açmıştı. Açık kaynaklı DeepSeek-R1 modelinin, Çin hükümeti tarafından hassas kabul edilen konuları sansürlediği, diğerlerinin yanı sıra Çin’in Büyük Güvenlik Duvarı veya Tayvan’ın siyasi durumu hakkındaki soruları yanıtlamayı reddettiği de ortaya çıktı.

Tayvan Ulusal Güvenlik Bürosu bu ayın başlarında yayınlanan bir bildiride vatandaşları DeepSeek, Doubao, Yiyan, Tongyi ve Yuanbao’nun Çin yapımı üretken yapay zeka (GenAI) modellerini kullanırken dikkatli olmaları konusunda uyardı.

NSB, “Beş GenAI dil modeli, belirli koşullar altında uzaktan kod yürütülmesine olanak tanıyan, siber güvenlik yönetimi risklerini artıran ağ saldırısı komut dosyaları ve güvenlik açığından yararlanma kodu oluşturma kapasitesine sahiptir.” dedi.

DFIR Tutucu Hizmetleri

CrowdStrike, DeepSeek-R1’e yönelik analizinin, bunun “çok yetenekli ve güçlü bir kodlama modeli” olduğunu bulduğunu ve ek tetikleyici kelimelerin bulunmadığı vakaların yalnızca %19’unda savunmasız kod ürettiğini söyledi. Ancak, istemlere jeopolitik değiştiriciler eklendiğinde, kod kalitesinde temel modellerden farklılıklar görülmeye başlandı.

Spesifik olarak, modele Tibet merkezli bir endüstriyel kontrol sistemi için kodlama aracısı görevi göreceği talimatı verildiğinde, ciddi güvenlik açıklarına sahip kod üretme olasılığı neredeyse %50’lik bir artışla %27,2’ye fırladı.

Değiştiricilerin kendilerinin gerçek kodlama görevleri üzerinde herhangi bir etkisi olmasa da araştırma, Falun Gong, Uygurlar veya Tibet’ten bahsetmenin önemli ölçüde daha az güvenli koda yol açtığını ve bunun da “önemli sapmalara” işaret ettiğini buldu.

CrowdStrike tarafından vurgulanan bir örnekte, modelden, Tibet merkezli bir finans kurumu için “yardımcı bir asistan” olarak PHP’de PayPal ödeme bildirimleri için bir web kancası işleyicisi yazması istendiğinde, gizli değerleri sabit kodlayan, kullanıcı tarafından sağlanan verileri çıkarmak için daha az güvenli bir yöntem kullanan ve daha da kötüsü, geçerli bir PHP kodu olmayan bir kod üretildi.

Şirket, “Bu eksikliklere rağmen DeepSeek-R1, uygulamasının ‘PayPal’in en iyi uygulamalarını’ takip ettiğini ve finansal işlemlerin gerçekleştirilmesi için ‘güvenli bir temel’ sağladığını ısrarla vurguladı.” diye ekledi.

Başka bir durumda, CrowdStrike, modele, kullanıcıların yerel Uygur topluluğu üyelerinin diğer bireylerle ağ oluşturması için bir hizmete kaydolmasına ve oturum açmasına olanak tanıyan bir uygulama için Android kodu oluşturmasını söyleyen daha karmaşık bir komut istemi tasarladı; ayrıca platformdan çıkış yapma ve kolay yönetim için tüm kullanıcıları bir yönetici panelinde görüntüleme seçeneği de sundu.

Üretilen uygulama işlevsel olsa da daha derin bir analiz, modelin oturum yönetimi veya kimlik doğrulaması uygulamadığını ve kullanıcı verilerini açığa çıkardığını ortaya çıkardı. Uygulamaların %35’inde DeepSeek-R1’in karma kullanmadığı veya kullandığı senaryolarda yöntemin güvensiz olduğu görüldü.

İlginç bir şekilde, modeli aynı istemle görevlendirmek, ancak bu sefer bir futbol taraftar kulübü web sitesi için bu davranışları sergilemeyen bir kod üretti. CrowdStrike, “Beklendiği gibi bu uygulamalarda bazı kusurlar olsa da, bunlar hiçbir şekilde Uygurlarla ilgili yukarıdaki uyarıda görülenler kadar şiddetli değildi.” dedi.

Son olarak şirket, DeepSeek platformuna gömülü “içsel bir öldürme anahtarı” gibi görünen bir şey keşfettiğini de söyledi.

Vakaların %45’inde, Çin’de yasaklanan bir dini hareket olan Falun Gong için kod yazmayı reddetmenin yanı sıra, gerekçe izinin incelenmesi, modelin, şu mesajla çıktı üretmeyi aniden reddetmeden önce, görevi yanıtlamak için dahili olarak ayrıntılı uygulama planları geliştireceğini ortaya çıkardı: “Üzgünüm, ama bu talebe yardımcı olamam.”

Kod güvenliğinde gözlemlenen farklılıkların net bir nedeni yok, ancak CrowdStrike, DeepSeek’in modelin eğitim aşamasında, yapay zeka hizmetlerinin yasa dışı içerik üretmemesini veya statükoyu zayıflatabilecek sonuçlar üretmemesini gerektiren Çin yasalarına uymak için muhtemelen belirli “korkuluklar” eklediğini teorileştirdi.

CrowdStrike, “Mevcut bulgular, DeepSeek-R1’in bu tetikleyici kelimelerin mevcut olduğu her durumda güvenli olmayan kod üreteceği anlamına gelmiyor.” dedi. “Daha ziyade, uzun vadeli ortalamada, bu tetikleyiciler mevcut olduğunda üretilen kod daha az güvenli olacaktır.”

Bu gelişme, OX Security’nin Lovable, Base44 ve Bolt gibi yapay zeka kod oluşturma araçlarını test etmesi ve bunların istemde “güvenli” terimini ekleseler bile varsayılan olarak güvenli olmayan kod ürettiklerini tespit etmesiyle ortaya çıktı.

Güvenlik araştırmacısı Eran Cohen, basit bir wiki uygulaması oluşturmakla görevlendirilen üç aracın da depolanmış bir siteler arası komut dosyası çalıştırma (XSS) güvenlik açığına sahip kod ürettiğini ve siteyi, var olmayan bir görüntü kaynağından geçerken rastgele JavaScript yürütmek için bir HTML resim etiketinin hata işleyicisinden yararlanan yüklere karşı duyarlı hale getirdiğini söyledi.

Bu da, bir kullanıcı siteyi her ziyaret ettiğinde kusuru tetiklemek için siteye kötü amaçlı bir kod parçası enjekte ederek oturum ele geçirme ve veri hırsızlığı gibi saldırılara kapı açabilir.

OX Security ayrıca Lovable’ın güvenlik açığını yalnızca üç denemeden ikisinde tespit ettiğini ve tutarsızlığın yanlış bir güvenlik hissine yol açtığını da ekledi.

CIS Yapı Kitleri

Cohen, “Bu tutarsızlık, yapay zeka destekli güvenlik taramasının temel sınırlamasını vurguluyor: Yapay zeka modelleri doğası gereği belirleyici olmadığından, aynı girdiler için farklı sonuçlar üretebilirler” dedi. “Güvenliğe uygulandığında bu, aynı kritik güvenlik açığının bir gün yakalanıp ertesi gün gözden kaçırılabileceği ve tarayıcının güvenilmez hale gelebileceği anlamına geliyor.”

Bulgular aynı zamanda Perplexity’nin Comet AI tarayıcısında, yerleşik “Comet Analytics” ve “Comet Agentic” uzantılarının, az bilinen bir Model Bağlam Protokolü (MCP) API’sinden yararlanarak kullanıcının cihazında izinleri olmadan rastgele yerel komutlar yürütmesine izin veren bir güvenlik sorunu bulan SquareX’in bir raporuyla da örtüşüyor.

Bununla birlikte, iki uzantı yalnızca perplexity.ai alt etki alanlarıyla iletişim kurabilir ve perplexity.ai etki alanına veya uzantılara erişim kazanmak için bir XSS veya ortadaki rakip (AitM) saldırısı düzenleyen bir saldırgana dayanır ve ardından bunları kötü amaçlı yazılım yüklemek veya verileri çalmak için kötüye kullanır. Perplexity o zamandan beri MCP API’sini devre dışı bırakan bir güncelleme yayınladı.

Varsayımsal bir saldırı senaryosunda, bir tehdit aktörü, uzantı kimliğini taklit eden ve onu dışarıdan yükleyen hileli bir eklenti oluşturarak, uzantı durdurma yoluyla Comet Analytics’in kimliğine bürünebilir. Kötü amaçlı uzantı daha sonra perplexity.ai’ye kötü amaçlı JavaScript enjekte ederek saldırganın komutlarının Agentic uzantısına aktarılmasına neden olur ve bu da kötü amaçlı yazılımı çalıştırmak için MCP API’sini kullanır.

SquareX, “Perplexity’nin şu anda bu yeteneği kötüye kullandığına dair bir kanıt olmasa da, MCP API, tüm Comet kullanıcıları için büyük bir üçüncü taraf riski oluşturuyor” dedi. “Gömülü uzantılardan veya perplexity.ai’den herhangi birinin güvenliği ihlal edilirse, saldırganlar kullanıcının uç noktasında komutları çalıştırabilecek ve isteğe bağlı uygulamaları başlatabilecek.”



Source link