Tayvan, veri sızıntısı risklerini belirterek ulusal güvenlik endişeleri konusunda Deepseek AI’yı yasakladı


Tayvan Bans Deepseek AI

Tayvan, devlet kurumlarının Çin Startup Deepseek’in Yapay Zeka (AI) platformunu kullanmasını yasaklayan en son ülke haline geldi ve güvenlik risklerine atıfta bulundu.

Tayvan’ın Dijital İşler Bakanlığı tarafından radyo ücretsiz Asya’ya göre yayınlanan bir açıklamaya göre, “Devlet kurumları ve kritik altyapı Deepseek’i kullanmamalıdır, çünkü ulusal bilgi güvenliğini tehlikeye atıyor”.

“Deepseek AI hizmeti Çinli bir üründür. Operasyonu sınır ötesi iletim, bilgi sızıntısı ve diğer bilgi güvenliği endişelerini içerir.”

Deepseek’in Çin kökenleri, çeşitli ülkelerden yetkilileri hizmetin kişisel veri kullanımına bakmaya teşvik etti. Geçen hafta, veri işleme uygulamalarıyla ilgili bilgi eksikliğine atıfta bulunarak İtalya’da engellendi. Birçok şirket de benzer riskler üzerinden sohbet botuna erişimi yasaklamıştır.

Chatbot, açık kaynak olması ve diğer mevcut önde gelen modeller kadar yetenekli olması nedeniyle son birkaç hafta içinde ana akım dikkatinin çoğunu yakaladı, ancak akranlarının maliyetinin bir kısmında inşa edildi.

Siber güvenlik

Ancak platformu güçlendiren büyük dil modellerinin (LLMS), çeşitli jailbreak tekniklerine duyarlı olduğu, bu ürünlerde kalıcı bir endişe, Çin hükümeti tarafından hassas kabul edilen konulara yanıt vermelere dikkat etmeden bahsetmediği bulunmuştur.

Deepseek’in popülaritesi, “büyük ölçekli kötü niyetli saldırılar” tarafından hedeflenmesine yol açtı ve NSFOCUS, 25 ve 27 Ocak ayları arasındaki API arayüzüne yönelik üç dağıtılmış hizmet reddi (DDOS) saldırılarını tespit ettiğini açıkladı. 2025.

“Ortalama saldırı süresi 35 dakikaydı,” dedi. “Saldırı yöntemleri esas olarak NTP yansıma saldırısı ve memcached yansıma saldırısı içerir.”

Ayrıca, Deepseek Chatbot sisteminin, akıl yürütme modelini Deepseek-R1’i başlattığı gün olan 20 Ocak’ta DDOS saldırıları ile iki kez hedeflendiğini ve 25’in NTP yansıma saldırısı ve SSDP yansıma saldırısı gibi yöntemler kullanılarak bir saatlik ortalaması alındığını söyledi.

Sürekli faaliyet öncelikle Birleşik Devletler, Birleşik Krallık ve Tehdit İstihbarat Firması Avustralya’dan kaynaklandı ve bunu “iyi planlanmış ve organize bir saldırı” olarak nitelendirdi.

Kötü niyetli aktörler ayrıca, geliştirici sistemlerinden hassas bilgileri çalmak için tasarlanmış Python Paket Dizin (PYPI) deposunda sahte paketler yayınlamak için Deepseek’i çevreleyen vızıltılardan yararlandı. İronik bir bükülmede, Python betiğinin bir AI asistanı yardımıyla yazıldığına dair göstergeler var.

Deepseeek ve Deepseekai adlı paketler, Deepseek için bir Python API müşterisi olarak görüntülendi ve 29 Ocak 2025’te indirilmeden en az 222 kez indirildi. İndirmelerin çoğunluğu ABD, Çin, Rusya, Hong’dan geldi. Kong ve Almanya.

Rus siber güvenlik şirketi pozitif teknolojiler, “Bu paketlerde kullanılan işlevler, kullanıcı ve bilgisayar verilerini toplamak ve ortam değişkenlerini çalmak için tasarlanmıştır.” Dedi. “İki paketin yazarı, çalınan veri alan komut ve kontrol sunucusu olarak geliştiriciler için bir entegrasyon platformu olan Pipedream’i kullandı.”

Gelişme, yapay zeka yasası, 2 Şubat 2025’ten itibaren Avrupa Birliği’nde yürürlüğe girerek, kabul edilemez bir risk oluşturan ve yüksek riskli başvuruları belirli yasal gerekliliklere maruz bırakan AI uygulamalarını ve sistemlerini yasaklayarak ortaya çıkıyor.

İlgili bir harekette, Birleşik Krallık hükümeti, veri zehirlenmesi, model gizlemesi ve dolaylı istemi enjeksiyonundan gelen güvenlik risklerini içeren yöntemler aracılığıyla AI sistemlerini korsanlık ve sabotaja karşı güvence altına almayı amaçlayan yeni bir AI Uygulama Kuralları duyurdu. güvenli bir şekilde geliştirilmek.

Meta, sınırlı AI çerçevesini özetledi ve kritik bir risk eşiğine ulaştığı ve azaltılamayacağı değerlendirilen AI modellerinin gelişimini durduracağını belirtti. Vurgulanan siber güvenlik ile ilgili senaryolardan bazıları –

  • En iyi uygulama korumalı kurumsal ölçekli bir ortamın otomatik uçtan uca uzlaşması (örneğin, tamamen yamalı, MFA korumalı)
  • Savunucular bulup yamadan önce şu anda popüler, güvenlik-en iyi uygulama yazılımında kritik sıfır gün güvenlik açıklarının otomatik keşfi ve güvenilir bir şekilde kullanılması
  • Otomatik uçtan uca aldatmaca akışları (örneğin, romantizm yemleme, yani domuz kasapları), bireylere veya şirketlere yaygın ekonomik hasara yol açabilir
Siber güvenlik

AI sistemlerinin kötü niyetli uçlar için silahlandırılması riski teorik değildir. Geçen hafta, Google’ın Tehdit İstihbarat Grubu (GTIG), Çin, İran, Kuzey Kore ve Rusya ile bağları olan 57’den fazla farklı tehdit aktörünün Operasyonlarını etkinleştirmek ve ölçeklendirmek için Gemini’yi kullanmaya çalıştığını açıkladı.

Tehdit aktörleri, güvenliklerini ve etik kontrollerini atlamak için AI modellerini jailbreak yapmaya çalıştıkları gözlemlenmiştir. Bir tür düşmanca saldırı, bir modeli, kötü amaçlı yazılım oluşturmak veya bomba yapmak için talimatlar yazmak gibi, açıkça eğitilmediği bir çıktı üretmeye teşvik etmek için tasarlanmıştır.

Jailbreak saldırılarının devam ettiği endişeler, AI şirketi Antropic’in, evrensel jailbreak’lere karşı modelleri koruyabileceğini söylediği anayasal sınıflandırıcılar adı verilen yeni bir savunma hattı tasarlamasına yol açtı.

Şirket Pazartesi günü, “Bu anayasal sınıflandırıcılar, minimum aşırı gerilemelerle jailbreaklerin ezici çoğunluğunu filtreleyen ve büyük bir hesaplama yükü gerçekleştirmeden sentetik olarak oluşturulan veriler üzerinde eğitilmiş girdi ve çıktı sınıflandırıcılarıdır.” Dedi.

Bu makaleyi ilginç mi buldunuz? Bizi takip edin Twitter ve daha fazla özel içeriği okumak için LinkedIn.





Source link