AI Entegrasyonu ile Güvenlik Testini Geliştirme (LLM)
Noir V0.19.0, AI, özellikle büyük dil modellerini (LLMS) güvenlik testi araç setine entegre ederek heyecan verici bir özellik sunar. Bu geliştirme, Noir’in Ollama gibi AI teknolojilerinden yararlanarak daha önce erişilemeyen bilgileri ortaya çıkararak daha derin, daha nüanslı analizler yapmasına izin verir.
AI entegrasyonunu ayarlamak
Ollama’yı kurun ve yapılandırın
AI özelliklerini noir’de kullanmadan önce, Ollama’yı yüklemeniz ve yapılandırmanız gerekir:
https://ollama.com/download
# Install an LLM model
ollama pull llama3
# Start the model
ollama run llama3
Modelinize http: // localhost: 11434 adresinden erişilebildiğinden emin olun.
http http://localhost:11434
# HTTP/1.1 200 OK
# Content-Length: 17
# Content-Type: text/plain; charset=utf-8
# Date: Fri, 31 Jan 2025 14:41:30 GMT
# Ollama is running
AI ile noir koşmak
AI’yı noir analizinize entegre etmek için aşağıdaki komutu çalıştırın:
noir -b . --ollama http://localhost:11434 --ollama-model llama3
Noir çerçeveyi tanıyamasa da, AI’nın gücünü kullanarak analiz etti.
Bu komut, özellikle bilinmeyen veya desteklenmemiş çerçevelerle uğraşırken noir’in yeteneklerini önemli ölçüde artırarak AI ile çalışan analizi etkinleştirir.
Nasıl çalışır?
LLM analizörünü ekledik. Genellikle tanımlanır Analyzer::AI
ve ondan miras alan bireysel analizörlerden oluşur. Analyzer::AI::Ollama
İlk analizör olmak.
Analizör :: AI bileşenini tanıttık, ilk spesifik analizör Analizör :: AI :: Ollama. Süreç nasıl ortaya çıkıyor:
- Dosya seçimi: LLM, hangi dosyaların tam kümeden analiz gerektirmesini seçer.
- Analiz: Bu seçime dayanarak, LLM ayrıntılı analiz yapmaktadır.
- Entegrasyon: Sonuçlar, Noir’in mevcut analiz çerçevesiyle uyumlu olacak şekilde biçimlendirilmiştir ve diğer analizör çıkışlarıyla sorunsuz bir şekilde birleşir.
Verimli işleme için, seçim işlemi yalnızca analiz edilecek 10’dan fazla dosya olduğunda uygulanır.
Sonraki Plan
Yol haritamız, LM Studio, LLAMACPP/VLLM gibi diğer yerel LLM arayüzlerine destek vermeyi ve ayrıca ChatGpt, Gemini ve Grook gibi çevrimiçi LLM hizmetleriyle entegre olmayı içerir. Bu geliştirmeleri 522 numaralı sayıdaki aktif olarak tartışıyoruz.
Çözüm
MacBook Air M1’deki 8B parametre Llama 3 modeli ile donatılmış performans, herhangi bir hız kaydı ayarlamıyor, ancak yine de oldukça kabul edilebilir. Ancak, bir Koreli olarak, işlerin yıldırım hızlı olmasını bekleme eğilimindeyim, bu yüzden bekleme biraz sinir bozucu hissedebilir. Model geliştirmeler, daha iyi donanım ve daha ince LLM arayüzleri yoluyla işleri hızlandırmaya kararlıyız.
Bu projeye paha biçilmez katkıları için KSG’ye büyük bir teşekkür.