Deepseek-R1, gelişmiş kötü amaçlı yazılım ve kimlik avı siteleri oluşturmak için istismar edilen istemler


671 milyar parametreli büyük dil modeli (LLM) olan Deepseek-R1’in piyasaya sürülmesi, düşünce zinciri (COT) muhakemesinin yenilikçi kullanımı nedeniyle önemli bir ilgi gösterdi.

COT akıl yürütmesi, modelin karmaşık problemleri ara adımlara ayırmasını ve matematiksel problem çözme gibi görevlerde performansı artırmasını sağlar. Bununla birlikte, bu şeffaflık istenmeyen güvenlik açıkları ile birlikte gelir.

Akıl yürütme sürecini “etiketler içinde açıkça paylaşarak, Deepseek-R1 yanlışlıkla, kötü niyetli aktörlerin kimlik avı ve kötü amaçlı yazılım üretimi gibi zararlı hedeflere ulaşmak için sömürebileceği hızlı saldırılara maruz kalır.

Deepseek-R1Deepseek-R1
Akıl yürütme sürecini sağlayan Deepseek-R1

Nvidia’s GraK gibi araçlar kullanılarak yapılan araştırmalar, karyola akıl yürütmesinin saldırganlar tarafından silahlandırılabileceğini göstermiştir.

Bu hızlı saldırılar, modeli hassas bilgileri açığa çıkarmak veya güvenlik protokollerini atlamak için modelleri değiştirmek için girdilerin hazırlanmasını içerir.

Örneğin, saldırganlar, Modelin davranışını yol açarak, Modelin davranışını yönlendiren önceden tanımlanmış talimatları başarıyla çıkardılar.

Bu, saldırganların kullanıcıları hassas verileri açığa çıkarmaya yönlendirdiği kimlik avı taktikleriyle paralelliklere sahiptir.

Deepseek-R1’deki güvenlik açıklarından yararlanma

Deepseek-R1’e yönelik hızlı saldırılar, özellikle güvensiz çıktı üretimi ve hassas veri hırsızlığı gibi alanlarda kritik güvenlik açıklarını ortaya çıkarmıştır.

Test sırasında araştırmacılar, API tuşları gibi sistem istemlerine gömülü sırların yanlışlıkla modelin COT yanıtları yoluyla maruz kalabileceğini buldular.

Deepseek-R1Deepseek-R1
Örnek AI modelinin sistem istemi

Model hassas bilgileri ifşa etmemesi talimatı verildiğinde bile, akıl yürütme süreci bu ayrıntıları içererek saldırganlar için erişilebilir hale getirdi.

Saldırganlar ayrıca, taklit veya toksik çıkışları önlemek için tasarlanmış korkuluklara bypass’a yük bölme ve dolaylı hızlı enjeksiyon gibi tekniklerden yararlandı.

Örneğin, “modelin yanıtlarındaki etiketleri analiz ederek, saldırganlar akıl yürütmesinde boşluklar belirlediler ve bu zayıflıklardan yararlanmak için hazırlanmış girdiler.

Bu tür yöntemler, dolaylı enjeksiyonların kimlik avı bağlantılarının üretilmesine yol açtığı Google’ın Gemini entegrasyonu gibi diğer AI sistemlerine karşı kullanılan stratejileri anımsatır.

Kırmızı takım

Deepseek-R1’in rakip saldırılara karşı esnekliğini değerlendirmek için araştırmacılar, NVIDIA’nın Garak gibi araçları kullanarak kırmızı takım stratejileri kullandılar.

Rapora göre, bu yaklaşım çeşitli saldırı senaryolarını simüle etmeyi ve farklı hedeflerdeki başarı oranlarını ölçmeyi içeriyordu.

Bulgular, güvensiz çıktı üretimi ve hassas veri hırsızlığının, jailbreaks veya toksisite üretimi gibi diğer saldırı türlerine kıyasla daha yüksek başarı oranlarına sahip olduğunu vurguladı.

Araştırmacılar bu eşitsizliği “modelin yanıtlarındaki etiketlerin varlığına ve saldırganlara karar verme sürecine değerli bilgiler sağlıyor.

Bu riskleri azaltmak için uzmanlar, “Deepseek-R1 veya benzeri modelleri kullanarak chatbot uygulamalarından gelen etiketleri filtrelemenizi önerir.

Bu, karyola akıl yürütmesinin maruziyetini sınırlayacak ve tehdit aktörleri için mevcut saldırı yüzeyini azaltacaktır.

Ek olarak, devam eden kırmızı takımlama çabaları, güvenlik açıklarını ortaya çıktıkça tanımlamak ve ele almak için gereklidir.

LLM’leri sürekli olarak düşmanca tekniklerle test ederek, kuruluşlar gelişen tehditlerin önünde kalabilir ve savunmalarını buna göre hassaslaştırabilirler.

Deepseek-R1’de ortaya çıkan güvenlik açıkları, gerçek dünya uygulamalarında gelişmiş LLM’lerin dağıtılmasıyla ilgili daha geniş zorlukların altını çiziyor.

Ajan tabanlı AI sistemleri daha yaygın hale geldikçe, hızlı saldırıların karmaşıklığının büyümesi bekleniyor ve bu teknolojilere dayanan kuruluşlar için önemli riskler oluşturuyor.

Araştırma, AI tasarımında şeffaflık ve güvenliği dengelemenin önemini vurgularken, COT Akıl Yürütme performansını artırırken, kötüye kullanımı önlemek için sağlam önlemlerle uygulanmalıdır.

Bu vaka çalışması, LLM’leri kullanan geliştiriciler ve kuruluşlar için uyarıcı bir hikaye olarak hizmet eder: Kırmızı ekipleme ve güvenli çıkış filtreleme gibi proaktif önlemler olmadan, bu güçlü araçlar yanlışlıkla siber saldırıları sağlayabilir.

Tehdit manzarası geliştikçe, araştırmacılar ve endüstri paydaşları arasındaki işbirlikçi çabalar, AI sistemlerinin hem yenilikçi hem de güvenli kalmasını sağlamada çok önemli olacaktır.

Bu haberi ilginç bul! Anında güncellemeler almak için bizi Google News, LinkedIn ve X’te takip edin!



Source link