Etiket: modellerini
Chip Maker’ın Tiber Secure Federated AI hizmeti, uzak sunuculardaki AI modelleri ve Origin Sistemleri’ndeki veri kaynakları arasında güvenli bir tünel…
ChatGPT gibi büyük dil modellerinde (LLMS) önemli bir güvenlik açığı tespit edilmiştir ve çekişmeli saldırılara duyarlılıkları konusunda endişelerini dile getirmiştir….
Üçüncü taraf risk yönetimi firması UpGuard’daki siber güvenlik araştırmacıları, AI modellerine erişim sağlayan maruz kalan Ollama API’lerini çevreleyen bir güvenlik…
Check Point Research (CPR), siber suçluların kötü niyetli içerik oluşturmak için yeni başlatılan AI modellerinden Deepseek ve Qwen’den giderek daha…
Yapay Zeka ve Makine Öğrenimi, Yeni Nesil Teknolojiler ve Güvenli Geliştirme ‘Frontier AI çerçevesi’ risk kategorilerini, eylem planını tanımlar Rashmi…
Antropik korumalar araştırma ekibinden araştırmacılar, AI modellerini evrensel jailbreak’lerden korumak için yeni bir yaklaşım geliştirdiler. Anayasal sınıflandırıcılar olarak bilinen bu…
Yapay zeka güvenliğinde önemli bir ilerlemede, Antropik Koruma Araştırma Ekibi, Universal Jailbreaks’a karşı Büyük Dil Modelleri (LLMS) savunmak için anayasal…
Microsoft’un LinkedIn’i, iş odaklı sosyal medya platformunun özel mesajlarını üretken yapay zeka modellerini eğitmek için izinsiz olarak üçüncü taraflara ifşa…
Araştırmacılar, üzerinde çalıştığı çipten yayılan elektromanyetik (EM) sinyalleri kullanarak bir sinir ağının nasıl yeniden oluşturulacağını gösterdi. “TPUXtract” adı verilen yöntem,…
Arkose Labs, hassas cihaz takibini oturum bazlı risk sinyalleri ve sahteciliğe karşı koruma teknolojisi ile birleştirerek dolandırıcılık tespitinde çıtayı yükselten…
Siber Suçlar , Etkinlikler , Dolandırıcılık Yönetimi ve Siber Suçlar BH Global’den Ken Soh ve GRF’den John Lee, Yeni Nesil…
Enveil, ZeroReveal Makine Öğrenimi ürünü tarafından desteklenen temel teknolojilerin genişletildiğini duyurdu; bu, çözümün ele alabileceği müşteri odaklı kullanım senaryolarını daha…