Etiket: LLMlerin

21
Ağu
2024

Araştırmacılar Zehirli LLM’lerin Savunmasız Kodlara Nasıl İşaret Edebileceğini Vurguluyor

Geliştiriciler, kod yazma konusunda yardım için yapay zeka programlama yardımcılarından yararlanıyor; ancak yeni araştırmalar, olası güvenlik açıklarını önlemek için kod…

07
Ara
2023

Araştırmacılar, LLM’lerin diğer LLM’lerle jailbreak işlemini otomatikleştirdi

Robust Intelligence ve Yale Üniversitesi’nden yapay zeka güvenlik araştırmacıları, büyük dil modellerini (LLM’ler) otomatik bir şekilde hızlı bir şekilde jailbreak…