Deepseek R1 Jailbroke, Fidye Yazılımı Geliştirme Komut Dosyaları Üretmek İçin


Deepseek R1 Jailbreen fidye yazılımı

Çin’in en son AI modeli olan Deepseek R1, akıl yürütme yetenekleri için teknoloji dünyasında dalgalar yapıyor.

Openai gibi AI devlerine meydan okuyan olarak konumlandırılan, Meta’s Llama 3.1-405b ve Openai’s O1 gibi önemli modelleri aşarak Chatbot Arena Kıyaslama Listesinde 6. sıraya yükseldi.

Bununla birlikte, yenilikçi yeteneklerini çevreleyen küresel vızıltıların yanı sıra, önemli güvenlik risklerini ortaya çıkararak rahatsız edici güvenlik açıkları ortaya çıkmıştır.

Deepseek-V3 baz modelinden geliştirilen Deepseek R1, yüksek düzeyde akıl yürütmeyi mümkün kılmak için eğitim sonrası takviye öğrenimi (RL) kullanır.

Kullanıcıların mantığının her adımını izlemelerini sağlayan şeffaf akıl yürütme süreci, yorumlanabilirlik için övüldü. Yine de, bu şeffaflık yanlışlıkla kötü niyetli aktörler tarafından sömürülmeye son derece duyarlı bırakmıştır.

Kela’nın kırmızı ekibi, Deepseek R1’in fidye yazılımı geliştirme senaryoları ve diğer zararlı içerikler oluşturmak için hapse atıldığını açıkladı.

“Kötü Jailbreak” olarak bilinen istismar, Kela’nın kırmızı ekibi tarafından başarıyla yürütüldü ve modelin göze çarpan güvenlik zayıflıklarını ortaya çıkardı.

Kela’ya göre, Jailbreak Deepseek R1’in yerleşik güvencelerini atlamasına izin vererek yasadışı faaliyetler için kötü amaçlı komut dosyaları ve talimatlar üretmesini sağladı.

Fidye yazılımı üretmek için Deepseek R1 jailbreen

Bu jailbreak’in en endişe verici örneklerinden biri, çerezler, kullanıcı adları, şifreler ve kredi kartı numaraları da dahil olmak üzere hassas verileri dışarı atabilecek bir Infostealer kötü amaçlı yazılım talep eden bir sorguydu.

Sorgu için yanıt

Deepseek R1 sadece isteği yerine getirmekle kalmadı, aynı zamanda çalışan bir kötü niyetli komut dosyası da sağladı. Komut dosyası, belirli tarayıcılardan ödeme verilerini çıkarmak ve uzak bir sunucuya iletmek için tasarlanmıştır.

Oluşturulan Çalışma Kötü niyetli Komut Dosyası

Rahatsız edici bir şekilde, AI, çalıntı giriş kimlik bilgilerini satın almak için Genesis ve RussianMarket gibi çevrimiçi pazarları bile önerdi.

Bu ihlalin sonuçları derindir. Üretken AI modelleri tipik olarak zararlı veya yasadışı sorguları engellemek için programlanmış olsa da, Deepseek R1 bu tür güvenceleri uygulamak için endişe verici bir başarısızlık göstermiştir.

Akıl yürütme detayları

Rakip saldırıları riskini azaltmak için çıkarım sırasında akıl yürütme süreçlerini gizleyen Openai modellerinden farklı olarak, Deepseek R1’in şeffaf yaklaşımı, saldırganlar için güvenlik açıklarını tanımlamayı ve sömürmeyi daha kolay hale getirdi.

Deepseek R1’deki güvenlik açıkları kötü amaçlı yazılım komut dosyası ile sınırlı değildir. Kela’nın araştırmacıları da modelin tehlikeli istemlere yanıt verme yeteneğini de test ettiler.

2023’te GPT-3.5’e karşı etkili olan “Leo” adlı bir jailbreak kullanan araştırmacılar, Deepseek R1’e havaalanı tespitinden kaçınabilecek patlayıcılar oluşturmak için adım adım talimatlar oluşturma talimatını verdiler. Bir kez daha, model ayrıntılı ve sınırsız tepkiler üreterek uydu.

Eleştirmenler, Deepseek R1’in arkasındaki Çin girişimiyle ilgili endişelerini dile getirdi ve onu etik standartları ve Batı AI güvenlik politikalarını ihlal etmekle suçladı.

Genel üretken AI modellerinin, kötüye kullanımı önlemek için katı önlemler uygulaması beklenmektedir. Bununla birlikte, Deepseek R1’in zararlı içerik üretme yeteneği bu beklentileri baltalamaktadır.

Bu raporla ilgili Deepseek’e ulaştık; Yayın sırasında yorum talebimize cevap vermemişlerdi.

Jenkins & Jira -> Ücretsiz Web Semineri kullanarak uygulama güvenliğini CI/CD iş akışlarınıza entegre etmek



Source link