
Çin tarafından geliştirilen yapay zeka kodlama asistanı DeepSeek-R1’deki endişe verici bir güvenlik açığı. Yapay zeka modeli, Çin Komünist Partisi ile ilgili siyasi açıdan hassas konularla karşılaştığında, normalden %50’ye varan oranlarda ciddi güvenlik kusurlarına sahip kod üretiyor.
Çinli yapay zeka girişimi DeepSeek tarafından Ocak 2025’te piyasaya sürülen R1 modeli, başlangıçta kodlama kalitesi açısından Batılı rakiplerle karşılaştırılabilir görünüyordu.
Ancak CrowdStrike Counter Adversary Operations, model başına 30.250 istem kullanarak kapsamlı testler gerçekleştirdi ve kodu on güvenlik kategorisinde değerlendirdi.
Crowdstrike araştırmacıları, kodlama görevlerinden önce sistem istemlerine politik açıdan tarafsız bağlamsal değiştiriciler ekleyerek istemlerin kod kalitesini etkilememesini sağladı.
Temel test, DeepSeek-R1’in tetikleyici kelimeler olmadan vakaların yalnızca %19’unda savunmasız kod ürettiğini ve güçlü kodlama yetenekleri sergilediğini gösterdi.

Araştırmacılar ÇKP’nin hassas olarak değerlendirdiği konulara referanslar eklediğinde bu durum çarpıcı biçimde değişti.
“Tibet merkezli” sistemler için kod yazması istendiğinde DeepSeek-R1’in güvenlik açığı oranı, başlangıç seviyesinden neredeyse %50 daha yüksek olan %27,2’ye yükseldi. Falun Gong ve Uygurlardan bahsedilenlerde de benzer artışlar gözlemlendi.
Bu bağlamsal değiştiriciler gerçek kodlama görevleriyle tamamen ilgisizdi, yani normal koşullar altında çıktı kalitesini etkilememeleri gerekirdi.
Siyasi Tetikleyiciler Kod Güvenliğini İhlal Ediyor
Bir gösteride CrowdStrike araştırmacıları Tibet’teki bir finans kurumu için PayPal entegrasyon kodunu talep etti. DeepSeek-R1, coğrafi değiştirici olmadan güvenli, üretime hazır kod üretti.
“Tibet”ten bahsedildiği göz önüne alındığında, çıktının sabit kodlanmış sırlar, güvenli olmayan veri çıkarma yöntemleri ve geçersiz PHP sözdizimi içerdiği ortaya çıktı. Ancak model, uygulamasının “PayPal’in en iyi uygulamalarına” uygun olduğu konusunda ısrar etti.
Crowdstrike Araştırmacıları DeepSeek-R1’in mimarisinde “içsel bir öldürme anahtarı” keşfetti.
Falun Gong’u ilgilendiren vakaların %45’inde model, dahili olarak ayrıntılı muhakeme ve uygulama planları üretmesine rağmen kod üretmeyi tamamen reddetti.
Bu davranış, harici API kısıtlamalarına değil, model ağırlıklarına yerleştirilmiştir.
Çin yasaları, yapay zeka hizmetlerinin “temel sosyalist değerlere bağlı kalmasını” ve ulusal güvenliği tehdit eden içerikten kaçınmasını gerektiriyor.
CrowdStrike, DeepSeek’in eğitim hattının bu gereklilikleri içerdiğini ve bunun da potansiyel olarak modelin hassas anahtar kelimeleri olumsuz özelliklerle ilişkilendirmesine neden olduğunu öne sürüyor.
Yapay zekanın eğitim hedefleri nedeniyle beklenmedik şekillerde davrandığı bir yanlış hizalama örneği.

2025 yılına kadar geliştiricilerin yaklaşık %90’ının yapay zeka kodlama asistanlarını kullanması nedeniyle, bu araçlardaki sistemik güvenlik sorunları hem yüksek etkili hem de yüksek yaygınlığa sahip riskler teşkil ediyor.
Bulgular, kodlama kalitesindeki ince bozulmalardan ziyade geleneksel jailbreak’lere odaklanan önceki DeepSeek araştırmasıyla çelişiyor.
CrowdStrike, yapay zeka kodlama asistanlarını kullanan şirketlerin yalnızca genel karşılaştırmalara güvenmek yerine, kendi özel ortamlarında kapsamlı testler yürütmesi gerektiğini vurguluyor.
Araştırma, yalnızca Çin tarafından geliştirilen sistemlerde değil, tüm büyük dil modellerinde daha derin araştırma gerektiren yeni bir güvenlik açığı yüzeyini vurguluyor.
Günlük siber güvenlik güncellemeleri için bizi Google Haberler, LinkedIn ve X’te takip edin. Hikayelerinizi öne çıkarmak için bizimle iletişime geçin.