LLM’ler hata yapabilir, verileri sızdırabilir veya yapmaları gerekmeyen şeyleri yapmak için kandırılabilir. Garak, bu zayıflıkları test etmek için tasarlanmış ücretsiz, açık kaynaklı bir araçtır. Halüsinasyonlar, hızlı enjeksiyonlar, jailbreaks ve toksik çıkışlar gibi sorunları kontrol eder. Farklı testler yaparak, geliştiricilerin bir modelin nerede başarısız olabileceğini ve nasıl daha güvenli hale getirileceğini anlamalarına yardımcı olur.
Garak çok çeşitli modeller ve platformlarla çalışır. Hugging Face Hub Üretken Modelleri, Metin Modellerini Çoğaltma, Openai API Sohbeti ve Devam Modelleri, Litellm ve çoğu sistemin dinlenme yoluyla erişilebilmesi destekler. Ayrıca diğer birçok LLM ile birlikte Lama.cpp sürüm 1046 veya daha yeni gibi GGUF modellerini de işler.
Garak çalıştığında çeşitli kütük türleri oluşturur. GARAK.Log adlı ana günlük dosyası, GraK ve eklentilerinden hata ayıklama bilgilerini kaydeder ve birden fazla çalışmada devam eder. Her çalıştırma ayrıca JSONL formatında her problama girişiminin ayrıntılarını içeren ayrı bir rapor oluşturur. Bu rapor dosyası çalışmanın başlangıcında ve çalıştırma başarılı olursa yine sonunda adlandırılır. Sonuçlar geldikçe ve değerlendirildiklerinde girişler, denemenin aşamasını gösteren bir durum özelliği ile eklenir. Buna ek olarak, Garak bir güvenlik açığı ortaya çıkaran denemeleri izleyen bir hit günlük tutar.
GaK, GitHub’da ücretsiz olarak kullanılabilir.
Okumalı:
Temel açık kaynaklı siber güvenlik araçları hakkında bilgi sahibi olmak için Net Security Reklamsız Aylık Haber Bülteni’ne abone olun. BURADA Abone Olun!