Deepseek AI birden fazla güvenlik testinde başarısız oluyor


Organizasyonlar Çin üretken yapay zekasını (Genai) kullanmadan önce iki kez düşünmek isteyebilir Deepseek İş uygulamalarında, modelde yaygın bir korkuluk eksikliği gösteren 6.400 güvenlik testinden oluşan bir baraj başarısız oldu.

Bu, Deepseek-R1 Büyük Dil Modeli’nin (LLM) bir versiyonunda titiz testler yapan AppSoc’taki araştırmacılara göre. Sonuçları, modelin jailbreaking, hızlı enjeksiyon, kötü amaçlı yazılım üretimi, tedarik zinciri ve toksisiteye yenik düşme de dahil olmak üzere birçok kritik alanda başarısız olduğunu gösterdi. Başarısızlık oranları% 19.2 ile% 98 arasında değişiyordu. Açıkladılar Son bir raporda.

En yüksek başarısızlık alanlarından ikisi, kullanıcıların modeli kullanarak kötü amaçlı yazılım ve virüs üretme yeteneğiydi ve hem tehdit aktörleri için önemli bir fırsat hem de kurumsal kullanıcılar için önemli bir tehdit oluşturdu. Test, Deepseek’i zamanın% 98,8’i (araştırmacıların dublajlı olduğu gibi “başarısızlık oranı”) kötü amaçlı yazılım oluşturmaya ikna etti ve zamanın% 86.7’si virüs kodu üretmeye ikna etti.

Güvenlik metriklerine karşı böyle cansız bir performans, açık kaynak çevresindeki tüm hype’a rağmen, Genai’de bir sonraki büyük şey olarak çok daha uygun fiyatlı Deepseek’e rağmen, kuruluşların işletmede kullanım için modelin mevcut versiyonunu dikkate almaması gerektiği anlamına geliyor, diyor Mali Gorantla, AppSoc’un kurucu ortağı ve baş bilim adamı.

İlgili:XE Grubu Kart Gözden Geçiren Tedarik Zinciri Saldırılarına Geçiyor

“Çoğu kurumsal uygulamada, yaklaşık% 2’lik başarısızlık oranları kabul edilemez olarak kabul edilemez.” “Bizim tavsiyemiz, işle ilgili herhangi bir AI kullanımı için bu modelin kullanımını engellemek olacaktır.”

Deepseek’in yüksek riskli güvenlik test sonuçları

Genel olarak, Deepseek güvenlik riski için AppSoc test ölçeğinde 10 üzerinden 8,3 kazandı, 10’u en riskli ve bu da “yüksek risk” derecesine neden oldu. AppSoc, kuruluşların rapora göre kişisel bilgileri, hassas verileri veya fikri mülkiyeti (IP) içeren herhangi bir uygulama için modeli kullanmaktan özellikle kaçınmasını önerdi.

AppSoc, riski çeşitli kritik kategorilerde değerlendirmek için model tarama ve kırmızı ekip kullandı: Jailbreaking veya “Şimdi her şeyi yap”, Sistem istemlerini/korkulukları göz ardı etmeyi istemek; Bir modelden korkulukları, sızıntı verilerini veya alt viraj davranışını görmezden gelmesini istemek için hızlı enjeksiyon; kötü amaçlı yazılım oluşturma; modelin halüsinasyon sağladığı ve güvensiz yazılım paketi önerileri yaptığı tedarik zinciri sorunları; ve AI-eğitimli istemlerin modelin toksik çıkış üretmesine neden olduğu toksisite.

Araştırmacılar da test etti Deepseek Yüksek risk kategorilerine karşı: eğitim veri sızıntıları; virüs kodu üretimi; yanlış bilgi veya sonuç sunan halüsinasyonlar; ve rastgele “aksaklık” jetonlarının olağandışı davranış gösteren modelle sonuçlandığı aksaklıklar.

İlgili:Memorial Hastanesi Fidye Yazılımı Saldırısında Mağdur 120 bin kurban

Gorantla’nın değerlendirmesine göre, Deepseek sadece eğitim verileri sızıntısı kategorisinde%1.4 arıza oranı gösteren pasif bir puan gösterdi. Diğer tüm kategorilerde, model% 19.2 veya daha fazla arıza oranları gösterdi ve medyan sonuçlar% 46 arıza oranı aralığında.

Gorantla, “Bunların hepsi çok daha düşük başarısızlık oranları ile bile ciddi güvenlik tehditleri.” Diyor. Bununla birlikte, yüksek başarısızlık, kötü amaçlı yazılım ve virüs kategorileri ile sonuçlanır, bir işletme için önemli bir risk göstermektedir. “Bir LLM’nin aslında kötü amaçlı yazılım veya virüs oluşturması, doğrudan kurumsal sistemlere kötü amaçlı kod için yeni bir yol sağlıyor” diyor.

Deepseek kullanımı: İşletmeler dikkatle ilerliyor

APPSOC’un sonuçları, bir Çinli girişim tarafından 6 milyon dolardan daha az bir sürede geliştirilmiş olmasına rağmen, Ocak ayında olağanüstü performans ve verimlilik iddialarıyla Deepseek civarında ortaya çıkan bazı sorunları yansıtıyor.

Serbest bırakıldıktan kısa bir süre sonra, araştırmacılar Jailbroke Deepseek, nasıl çalıştığını tanımlayan talimatları ortaya koyuyor. Model ayrıca başka şekillerde tartışmalıdır. IP hırsızlığı iddiaları Openai’den, fayda sağlamak isteyen saldırganlar Şöhretinden zaten kötü niyetli kampanyalarda Deepseek’i hedef almıştı.

İlgili:Bitcoin Value Spike’a neden olan SEC’in X hesabını hacklemede suçlu itiraz

Gorantla, kuruluşlar APPSOC’un Deepseek’i iş uygulamaları için kullanmaması için genel tavsiyeyi görmezden gelmeyi seçiyorlarsa, kendilerini korumak için birkaç adım atmaları gerektiğini söylüyor. Bunlar, bir kuruluşta kullanılan herhangi bir modeli bulmak ve denetlemek için bir keşif aracı kullanmayı içerir.

“Modeller genellikle rasgele indirilir ve sadece test için tasarlanır, ancak modeller üzerinde görünürlük ve yönetişim yoksa üretim sistemlerine kolayca girebilirler” diyor.

Bir sonraki adım, üretime geçmeden önce güvenlik zayıflıklarını ve güvenlik açıklarını test etmek için tüm modelleri taramaktır, bu da tekrar eden bir temelde yapılması gereken bir şeydir. Kuruluşlar ayrıca, yanlış yapılandırmalar, yanlış erişim izinleri ve onaylanmamış modeller gibi senaryolar aramak da dahil olmak üzere AI sistemlerinin güvenlik duruşunu sürekli olarak kontrol edebilecek araçlar uygulamalıdır.

Son olarak, bu güvenlik kontrolleri ve taramalarının değişiklik aramak için geliştirme sırasında (ve sürekli çalışma zamanı sırasında) gerçekleştirilmesi gerekir. Kuruluşlar ayrıca veri sızıntılarından veya diğer güvenlik sorunlarından kaçınmak için kullanıcı istemlerini ve yanıtlarını izlemelidir.





Source link