İtalya, veri gizliliği ve etik kaygılar konusunda Çince Deepseek AI’yı yasaklıyor


Çin Deepseek AI

İtalya’nın Veri Koruma Bekçisi, Çin Yapay Zeka (AI) firması Deepseek’in ülkedeki hizmetini engelledi ve kullanıcıların kişisel verilerini kullanması hakkında bilgi eksikliği belirtti.

Gelişme, otoritenin Garante’den günler sonra geliyor, Deepseek’e bir dizi soru göndererek veri işleme uygulamalarını ve eğitim verilerini nereden aldığını sordu.

Özellikle, web platformu ve mobil uygulaması tarafından hangi kişisel verilerin toplandığını, hangi kaynakların, hangi amaçlarla, hangi yasal olarak ve Çin’de saklanıp saklanmadığını bilmek istedi.

30 Ocak 2025’te yayınlanan bir açıklamada, Garante, Deepseek’in “tamamen yetersiz” olduğunu söylediği bilgileri verdikten sonra karara vardığını söyledi.

Hizmetin arkasındaki varlıklar, Hangzhou Deepseek Yapay Zeka ve Pekin Deepseek Yapay Zeka, “İtalya’da faaliyet göstermediklerini ve Avrupa mevzuatının kendileri için geçerli olmadığını ilan etti” diye ekledi.

Sonuç olarak, bekçi köpeği hemen etkili bir şekilde Deepseek’e erişimi engellediğini ve aynı anda bir prob açtığını söyledi.

Siber güvenlik

2023 yılında, Veri Koruma Otoritesi ayrıca, yapay zeka (AI) şirketi, toplanan veri gizliliği endişelerini gidermek için adım attıktan sonra Nisan ayı sonlarında kaldırılan bir kısıtlama olan Openai’nin Chatgpt’e geçici bir yasak yayınladı. Daha sonra Openai, kişisel verileri nasıl ele aldığı için 15 milyon € para cezasına çarptırıldı.

Deepseek’in yasağı haberi, şirketin bu hafta popülerlik dalgasını sürdüğü ve milyonlarca insanın hizmete akın etmesi ve mobil uygulamalarını indirme listelerinin en üstüne göndermesi ile geliyor.

“Büyük ölçekli kötü niyetli saldırıların” hedefi olmanın yanı sıra, milletvekillerinin ve gizlilik politikası, Çin uyumlu sansür, propaganda ve ortaya çıkabileceği ulusal güvenlik endişeleri için düzenli olarak dikkat çekti. Şirket, 31 Ocak itibariyle hizmetlerine yönelik saldırıları ele almak için bir düzeltme uyguladı.

Zorluklara ek olarak, Deepseek’in büyük dil modellerinin (LLM), kreşendo, kötü Likert Yargıç, aldatıcı zevk, şimdi bir şey yapın (Dan) ve evilbot gibi jailbreak tekniklerine duyarlı olduğu bulundu, böylece kötü aktörlerin kötü niyetli veya yasaklanmış üretmesine izin veriyor içerik.

Palo Alto Networks Unit 42 Perşembe raporunda, “Molotov kokteylleri gibi tehlikeli ürünler oluşturmak için ayrıntılı talimatlardan SQL enjeksiyonu ve yanal hareket gibi saldırılar için kötü amaçlı kod üretmeye kadar bir dizi zararlı çıktı ortaya çıkardılar.” Dedi.

“Deepseek’in ilk yanıtları genellikle iyi huylu görünse de, çoğu durumda, özenle hazırlanmış takip istemleri genellikle bu ilk korumaların zayıflığını ortaya çıkardı. LLM, bu görünüşte zararsız modellerin kötü niyetli olarak silahlandırılması potansiyelini göstererek, oldukça ayrıntılı kötü niyetli talimatlar sağladı. amaçlar. “

Çin Deepseek AI

Deepseek’in akıl yürütme modelinin daha fazla değerlendirilmesi, AI güvenlik şirketi Hiddenlayer tarafından Deepseek-R1, sadece hızlı enjeksiyonlara karşı savunmasız değil, aynı zamanda düşünce zinciri (COT) akıl yürütmesinin yanlışlıkla bilgi sızıntısına yol açabileceğini ortaya çıkardı.

İlginç bir bükülmede şirket, modelin “Openai verilerinin dahil edildiğini ve veri kaynağı ve model özgünlüğü hakkında etik ve yasal endişeleri artırdığını öne süren birden fazla örneği ortaya koyduğunu” söyledi.

Açıklama ayrıca, bir saldırganın LLM’nin emniyet korkuluklarını, chatbot’u zamansal farkındalığını kaybetmesini sağlayacak şekilde sorarak LLM’nin güvenlik korkuluklarını aşmasını mümkün kılan bir jailbreak güvenlik açığının keşfini de izliyor. . Openai o zamandan beri sorunu azalttı.

“Bir saldırgan, CHATGPT ile bir oturuma başlayarak ve doğrudan belirli bir tarihsel olay, tarihsel zaman periyodu hakkında bilgi vererek veya belirli bir tarihsel olayda kullanıcıya yardımcı olduğunu iddia ederek talimat vererek güvenlik açığını kullanabilir.” Cert/cc) dedi.

Siber güvenlik

“Bu kurulduktan sonra, kullanıcı daha sonraki istemler aracılığıyla çeşitli yasadışı konulara alınan yanıtları döndürebilir.”

Benzer jailbreak kusurları, Alibaba’nın Qwen 2.5 VL modelinde ve GitHub’ın Copilot Kodlama Asistanında da tanımlanmıştır, bu da tehdit aktörlerine, istemde “emin” gibi kelimeler ekleyerek güvenlik kısıtlamalarını azaltma ve zararlı kod üretme yeteneği verir.

Apex araştırmacısı Oren Saban, “Sorgulara ’emin’ veya diğer onay biçimleri gibi olumlu kelimelerle başlatmak, bir tetik görevi görüyor, copilot’u daha uyumlu ve riske eğilimli bir moda kaydırıyor.” Dedi. “Bu küçük ince ayar, etik dışı önerilerden açıkça tehlikeli tavsiyelere kadar değişen yanıtların kilidini açmak için gereken tek şey.”

Apex, Copilot’un proxy konfigürasyonunda, kullanım sınırlamalarını kullanım için ödeme yapmadan ve hatta modelin davranışını dikte eden temel talimatlar olarak hizmet eden Copilot Sistem Sistemi istemine kurcalama için kullanılabileceğini söylediğini söyledi.

Ancak saldırı, aktif bir copilot lisansıyla ilişkili bir kimlik doğrulama jetonunu yakalamaya bağlı olarak GitHub’ı sorumlu açıklamanın ardından bir istismar sorunu olarak sınıflandırmasını istemektedir.

Saban, “GitHub Copilot’taki proxy bypass ve olumlu onaylama jailbreak, en güçlü AI araçlarının bile yeterli önlemler olmadan nasıl istismar edilebileceğinin mükemmel bir örneğidir.”

Bu makaleyi ilginç mi buldunuz? Bizi takip edin Twitter ve daha fazla özel içeriği okumak için LinkedIn.





Source link