AI ile Owasp noir’i geliştirmek


AI Entegrasyonu ile Güvenlik Testini Geliştirme (LLM)

Noir V0.19.0, AI, özellikle büyük dil modellerini (LLMS) güvenlik testi araç setine entegre ederek heyecan verici bir özellik sunar. Bu geliştirme, Noir’in Ollama gibi AI teknolojilerinden yararlanarak daha önce erişilemeyen bilgileri ortaya çıkararak daha derin, daha nüanslı analizler yapmasına izin verir.

AI entegrasyonunu ayarlamak

Ollama’yı kurun ve yapılandırın

AI özelliklerini noir’de kullanmadan önce, Ollama’yı yüklemeniz ve yapılandırmanız gerekir:


https://ollama.com/download

# Install an LLM model
ollama pull llama3
# Start the model
ollama run llama3

Modelinize http: // localhost: 11434 adresinden erişilebildiğinden emin olun.

http http://localhost:11434

# HTTP/1.1 200 OK
# Content-Length: 17
# Content-Type: text/plain; charset=utf-8
# Date: Fri, 31 Jan 2025 14:41:30 GMT

# Ollama is running

AI ile noir koşmak

AI’yı noir analizinize entegre etmek için aşağıdaki komutu çalıştırın:

noir -b . --ollama http://localhost:11434 --ollama-model llama3


Noir çerçeveyi tanıyamasa da, AI’nın gücünü kullanarak analiz etti.

Bu komut, özellikle bilinmeyen veya desteklenmemiş çerçevelerle uğraşırken noir’in yeteneklerini önemli ölçüde artırarak AI ile çalışan analizi etkinleştirir.

Nasıl çalışır?

LLM analizörünü ekledik. Genellikle tanımlanır Analyzer::AI ve ondan miras alan bireysel analizörlerden oluşur. Analyzer::AI::Ollama İlk analizör olmak.

Analizör :: AI bileşenini tanıttık, ilk spesifik analizör Analizör :: AI :: Ollama. Süreç nasıl ortaya çıkıyor:

  1. Dosya seçimi: LLM, hangi dosyaların tam kümeden analiz gerektirmesini seçer.
  2. Analiz: Bu seçime dayanarak, LLM ayrıntılı analiz yapmaktadır.
  3. Entegrasyon: Sonuçlar, Noir’in mevcut analiz çerçevesiyle uyumlu olacak şekilde biçimlendirilmiştir ve diğer analizör çıkışlarıyla sorunsuz bir şekilde birleşir.


Verimli işleme için, seçim işlemi yalnızca analiz edilecek 10’dan fazla dosya olduğunda uygulanır.

Sonraki Plan

Yol haritamız, LM Studio, LLAMACPP/VLLM gibi diğer yerel LLM arayüzlerine destek vermeyi ve ayrıca ChatGpt, Gemini ve Grook gibi çevrimiçi LLM hizmetleriyle entegre olmayı içerir. Bu geliştirmeleri 522 numaralı sayıdaki aktif olarak tartışıyoruz.

Çözüm

MacBook Air M1’deki 8B parametre Llama 3 modeli ile donatılmış performans, herhangi bir hız kaydı ayarlamıyor, ancak yine de oldukça kabul edilebilir. Ancak, bir Koreli olarak, işlerin yıldırım hızlı olmasını bekleme eğilimindeyim, bu yüzden bekleme biraz sinir bozucu hissedebilir. Model geliştirmeler, daha iyi donanım ve daha ince LLM arayüzleri yoluyla işleri hızlandırmaya kararlıyız.

Bu projeye paha biçilmez katkıları için KSG’ye büyük bir teşekkür.

Referanslar



Source link