Araştırmacılar Sıfır Günleri Tespit Etmeye Yardımcı Olan Yapay Zeka Aracını Tanıttı


Yapay Zeka ve Makine Öğrenimi, Yönetişim ve Risk Yönetimi, Yeni Nesil Teknolojiler ve Güvenli Geliştirme

Güvenlik Açığı Aracı, GitHub Projelerinde Kullanılan OpenAI ve Nvidia API’lerinde Kusurlar Tespit Etti

Akşaya Asokan (asokan_akshaya) •
21 Ekim 2024

Araştırmacılar Sıfır Günleri Tespit Etmeye Yardımcı Olan Yapay Zeka Aracını Tanıttı
Koruma AI araştırmacıları, güvenlik açığı tespit aracını çalıştırmak için Anthropic’in Claude LLM’sini kullanıyor (Resim: Shutterstock)

Güvenlik araştırmacıları, yazılımdaki uzaktan kod kusurlarını ve rastgele sıfır gün kodunu tespit edebilen otonom bir yapay zeka aracı geliştirdi. AI aracı hala bazı tutarsız sonuçlar veriyor ancak araştırmacılar, daha az hatalı pozitif tespit ettiğini söyledi.

Ayrıca bakınız: İşletmenizin Başarısını Artırmaya Yönelik Varsayılan Olarak Güvenli Strateji

Güvenlik firması Protect AI, koddaki güvenlik açıklarını belirlemek ve uzlaşmalara yönelik kavram kanıtları geliştirmek için Anthropic’in Claude 3.5 Sonnet büyük dil modeli üzerine inşa edilen Vulnhuntr adlı Python statik kod analiz cihazını geliştirdi.

Araştırmacılar OpenAI, Nvidia ve YandexGPT API’lerini kullanan GitHub projelerinde güvenlik açıkları buldular. Örneğin, sunucu tarafı istek sahteciliği kusurunu içeren bir OpenAI dosyası – “api_provider.py’deki get_api_provider_stream_iter işlevi” – saldırganların API isteklerini kontrol etmesine ve bunları isteğe bağlı uç noktalara yönlendirmesine olanak tanıyabilir.

“Genel olarak, Vulnhuntr güven puanının 7 olması, bunun muhtemelen geçerli bir güvenlik açığı olduğu anlamına gelir, ancak kavram kanıtında bazı ayarlamalar yapılmasını gerektirebilir. 8, 9 veya 10’luk güven puanlarının geçerli güvenlik açıkları olma olasılığı son derece yüksektir ve güven puanları 1’den 6’ya kadardır. araştırmacılar, “geçerli güvenlik açıkları olma ihtimali düşük” dedi.

Çözümü geliştirmek için, Koruma AI araştırmacılarının, LLM modellerinde tipik olarak bulunan ve bir LLM’nin bir istemi veya soruyu işlerken ayrıştırabileceği bilgi miktarını sınırlayan bağlam penceresi sınırlamalarının üstesinden gelmesi gerekiyordu.

Bağlam penceresi sınırlamalarının üstesinden gelmek için araştırmacılar, büyük miktardaki metni doğrudan belirteçlere ayrıştırmak için erişim artırılmış oluşturmayı kullandılar ve araca yama öncesi ve yama sonrası kodla ince ayar yaptılar ve bunu CVEFixes gibi güvenlik açığı veritabanlarıyla birleştirdiler. Araştırmacılar daha sonra kodun bölümlerini daha küçük birimlere ayırdılar.

Koruma AI, “LLM’yi birden fazla tam dosyayla doldurmak yerine, kodun yalnızca ilgili bölümlerini talep ediyor” dedi. “Kullanıcı girdisini ilk işleyecek dosyalar olması muhtemel dosyaları proje dosyalarında otomatik olarak arar. Daha sonra bu dosyanın tamamını alır ve tüm olası güvenlik açıklarıyla yanıt verir.”

Araç, LLM’ye rehberlik etmek, karmaşık muhakeme için yanıtlarını şekillendirmek ve kusurları tanımlamak için çıktıları filtrelemek üzere tasarlanmış dört istem kullanır. Vulnhuntr, kodun tam bir resmini elde etmek veya herhangi bir güvenlik açığının varlığını onaylamak veya reddetmek için işlevler, sınıflar veya diğer ilgili parçacıklar gibi verileri analiz etti.

Araştırmacılar, “Resmin tamamı netleştiğinde, sorunlu noktalara işaret eden, kavram kanıtı sağlayan bir istismar sağlayan ve her bir güvenlik açığı için bir güven derecesi ekleyen ayrıntılı bir son analiz sunar” diye ekledi.

Doğruluk Zorlukları

Koruma AI, çoğu AI uygulaması gibi, geliştirme sürecinin henüz erken aşamalarında olduğu gibi, aracın da doğruluk ve diğer eğitim verileri sınırlamalarına eğilimli olduğunu söyledi.

Araştırmacılar, uygulamanın yalnızca yedi tür kusuru tespit edecek şekilde eğitildiğinden, ek güvenlik açığı türlerini tespit edemediğini söyledi.

Daha fazla kusuru tespit etmek için ek komutlar kullanılarak eğitilebilmesine rağmen araştırmacılar, bunun uygulamanın çalışma süresini artıracağını söyledi. Araştırmacılar, aracın yalnızca Python kodunu desteklediğinden, uygulamanın diğer programlama dillerinde geliştirilen kodlar için de daha az doğru veriler ürettiğini ekledi.

“Son olarak, Yüksek Lisanslar deterministik olmadığından, araç aynı projede birden çok kez çalıştırılabilir ve farklı sonuçlar elde edilebilir” dedi Koruma AI.

Uygulamanın sınırlamalarına bakılmaksızın araştırmacılar, Vulnhuntr’ın karmaşık güvenlik açıklarını bulma ve yanlış pozitifleri sınırlama konusunda diğer statik kod analizörlerine göre bir gelişme olduğunu ekledi. AI’yı koruyun araştırmacıları, aracın daha küçük birimler yerine tüm kod tabanlarını ayrıştırmasını sağlamak için daha fazla token eklemeyi planladıklarını söyledi.





Source link