Deepseek AI modelleri jailbreaking’e karşı savunmasız


Yapay Zeka ve Makine Öğrenimi, Yeni Nesil Teknolojiler ve Güvenli Geliştirme

Akhabokan Akan (Athokan_akhsha) •
31 Ocak 2025

Deepseek AI modelleri jailbreaking'e karşı savunmasız
Resim: Shutterstock

Güvenlik araştırmacıları, Çin yapay zeka şirketi Deepseek tarafından amiral gemisi R1 akıl yürütme uygulaması da dahil olmak üzere geliştirilen büyük dil modellerinde birden fazla kusur ortaya çıkardı.

Ayrıca bakınız: İkinci Yıllık Üretici AI Çalışması: İş Ödülleri ve Güvenlik Riskleri

Palo Alto birim 42, Kela ve Enkrypt AI’dan yapılan araştırmalar, Çin şirketinin yakın zamanda tanıtılan R1 ve V3 modellerinde jailbreak ve halüsinasyonlara duyarlılığı tespit etti. Siber güvenlik firması Wiz Çarşamba günü, Deepseek’in açık internete gerçek zamanlı bir veri işleme veritabanını ortaya çıkardığını ve güvenlik araştırmacılarının sohbet geçmişini ve arka uç verilerini görüntülemesine izin verdiğini açıkladı (bakınız: Breach Roundup: Deepseek sızdırılmış hassas veriler).

Güvenlik endişeleri, Microsoft ve Openai’nin Deepseek’in bir Openai Uygulama programlama arayüzünden kazınan verilere dayanarak R1 modelini geliştirip geliştirmediğini araştırmasıyla ortaya çıkıyor (bakınız: AI intihaline karşı Deepseek’e karşı suçlamalar).

Güvenlik firmaları tarafından tanımlanan kusurlar şunları içerir:

Güvenlik uzmanları ayrıca, açık kaynaklı AI’nın ulus devletler ve diğer bilgisayar korsanları tarafından potansiyel kullanımından kaynaklanan daha geniş riskler konusunda uyardı.

Hunter Strateji Araştırma ve Geliştirme Başkan Yardımcısı Jake Williams, “Açık kaynak AI’nın açık kaynaklı koddan temel olarak farklı bir şey anlamına geldiğini hatırlamak önemlidir.” Dedi. “Açık kaynaklı kodla kodu denetleyebilir ve güvenlik açıklarını belirleyebiliriz. Açık kaynaklı AI ile böyle bir şey yapamayız.”

Roei Sherman, Mitiga’da Field CTO. kuruluşların yapay zeka ortamlarını potansiyel R1 risklerinden korumak için derhal hareket etmeleri gerektiği konusunda uyardı.

Bunlar, bulut ortamlarının sürekli izlenmesini, AI güdümlü algılama ve yanıtı artırmayı ve düzenli olumsuz simülasyonların üstlenilmesini içerir.

Sherman, “Deepseek’in piyasaya sürülmesi rahatsız edici bir eğilimi vurguluyor: düşmanlar AI’yi hızla saldırı metodolojilerine entegre ediyorlar.” Dedi. “Deepseek gibi modeller, otomatik sosyal mühendislik, ileri keşif, kod ve sömürü geliştirme yoluyla düşman yeteneklerini artırabilir.





Source link