Etiket: Jailbreak

06
Şub
2025

Deepseek-R1 LLM, güvenlik analizinde jailbreak saldırılarının yarısından fazla başarısız oldu

Yakın tarihli bir güvenlik analizi Deepseek AIBulut tabanlı siber güvenlik, uyumluluk ve güvenlik açığı yönetimi çözümleri sağlayıcısı Qualys tarafından damıtılmış…

01
Şub
2025

Github Copilot Jailbreak Güvenlik Açığı Saldırganların Kötü niyetli Modeller Eğitmesine İzin Ver

Araştırmacılar, GitHub Copilot’ta Microsoft’un AI destekli kodlama asistanı olan ve kurumsal AI araçlarındaki sistemik zayıflıkları ortaya çıkaran iki kritik güvenlik…

01
Şub
2025

Deepseek Jailbreak, tüm sistem istemini ortaya koyuyor

Araştırmacılar, bu ayın başlarında tanıtım ve kullanıcı benimsemesinin bir kasırgasına çıkış yapan Çin üretken yapay zeka (Genai) olan Deepseek’i nasıl…

23
Oca
2025

AI Asistanı, Sistem İstemlerini Ortaya Çıkarmak İçin Jailbreak Yaptı

Anonim tamirci, son derece gizli sistem istemini (davranışını şekillendiren temel talimatları) ortaya çıkarmak için bir yapay zeka asistanının korumalarını atladığını…

03
Oca
2025

Yeni Yapay Zeka Jailbreak Yöntemi ‘Kötü Likert Hakimi’ Saldırı Başarı Oranlarını %60’ın Üzerinde Artırıyor

03 Ocak 2025Ravie LakshmananMakine Öğrenimi / Güvenlik Açığı Siber güvenlik araştırmacıları, büyük dil modelinin (LLM) güvenlik korkuluklarını aşmak ve potansiyel…

18
Kas
2024

LLM Kontrollü Robotları Jailbreak Yapmak ‘Endişe Verici Kadar Kolay’

Yapay Zeka ve Makine Öğrenimi, Yeni Nesil Teknolojiler ve Güvenli Geliştirme Araştırmacılar Yüksek Lisans Tahrikli Robotları Sandbox’ta Patlayan Bombalara Dönüştürüyor…

29
Eki
2024

İstismar Kodları Yazmayı Sağlayan Yeni ChatGPT-4o Jailbreak Tekniği

Araştırmacı Marco Figueroa, ChatGPT-4o ve benzer yapay zeka modellerinin yerleşik korumalarını atlayarak, yararlanma kodu oluşturmalarına olanak tanıyan bir yöntem ortaya…

23
Eki
2024

Araştırmacılar Jailbreak Yapay Zeka Modellerine Yönelik ‘Aldatıcı Zevk’ Yöntemini Ortaya Çıkardı

23 Ekim 2024Ravie LakshmananYapay Zeka / Güvenlik Açığı Siber güvenlik araştırmacıları, etkileşimli bir konuşma sırasında zararsız dil modellerinin arasına istenmeyen…

30
May
2024

Japon Adamın GenAI Fidye Yazılımı Oluşturmasıyla Yapay Zeka Jailbreak Endişeleri Artıyor

Japonya’nın Kawasaki kentinden 25 yaşındaki bir adam, Japonya’da türünün ilk örneği olabilecek bir yapay zeka jailbreak vakasında fidye yazılımı oluşturmak…

01
Mar
2024

1 Dakika İçinde BEAST AI Jailbreak Dil Modelleri

Kötü niyetli bilgisayar korsanları bazen sistemlerdeki hatalardan yararlanarak çok sayıda yasa dışı etkinlik gerçekleştirebilmek için dil modellerini (LM’ler) jailbreak yapar….

07
Ara
2023

Araştırmacılar Bir LLM’nin Diğerini Jailbreak Etmek İçin Nasıl Kullanılacağını Gösteriyor

Büyük dil modellerinin endüstride ve kuruluşlar genelinde hızla artan kullanımı, LLM’lerin belirli şekillerde istendiğinde zararlı ve önyargılı içerik üretme konusundaki…

07
Ara
2023

Araştırmacılar, LLM’lerin diğer LLM’lerle jailbreak işlemini otomatikleştirdi

Robust Intelligence ve Yale Üniversitesi’nden yapay zeka güvenlik araştırmacıları, büyük dil modellerini (LLM’ler) otomatik bir şekilde hızlı bir şekilde jailbreak…