Microsoft, Üretken Yapay Zeka için Kırmızı Ekip Oluşturma Aracı PyRIT’i Piyasaya Sürüyor


23 Şubat 2024Haber odasıKırmızı Takım Oluşturma / Yapay Zeka

Üretken Yapay Zeka

Microsoft, üretken yapay zeka (AI) sistemlerindeki riskleri proaktif olarak belirlemek için PyRIT (Python Risk Tanımlama Aracı’nın kısaltması) adı verilen bir açık erişim otomasyon çerçevesi yayınladı.

Microsoft’un AI kırmızı ekibi lideri Ram Shankar Siva Kumar, kırmızı ekip aracının “dünya çapındaki her kuruluşun en son yapay zeka gelişmeleriyle sorumlu bir şekilde yenilik yapmasını sağlamak için tasarlandığını” söyledi.

Şirket, PyRIT’in büyük dil modeli (LLM) uç noktalarının imalat (örneğin halüsinasyon), kötüye kullanım (örneğin önyargı) ve yasaklanmış içerik (örneğin taciz) gibi farklı zarar kategorilerine karşı sağlamlığını değerlendirmek için kullanılabileceğini söyledi.

Ayrıca, kötü amaçlı yazılım üretiminden jailbreak’e kadar uzanan güvenlik zararlarının yanı sıra kimlik hırsızlığı gibi gizlilik zararlarını tespit etmek için de kullanılabilir.

Siber güvenlik

PyRIT beş arayüzle birlikte gelir: hedef, veri kümeleri, puanlama motoru, birden fazla saldırı stratejisini destekleme yeteneği ve ara giriş ve çıkış etkileşimlerini depolamak için JSON veya veritabanı biçimini alabilen bir bellek bileşeninin dahil edilmesi.

Puanlama motoru ayrıca hedef yapay zeka sisteminden gelen çıktıları puanlamak için iki farklı seçenek sunarak kırmızı takım üyelerinin klasik bir makine öğrenimi sınıflandırıcı kullanmasına veya öz değerlendirme için bir LLM uç noktasından yararlanmasına olanak tanır.

Microsoft, “Amaç, araştırmacıların modellerinin ve tüm çıkarım hattının farklı zarar kategorilerine karşı ne kadar iyi performans gösterdiğine dair bir temele sahip olmalarına ve bu temel çizgiyi modellerinin gelecekteki yinelemeleriyle karşılaştırabilmelerine olanak tanımaktır” dedi.

Üretken Yapay Zeka

“Bu, modellerinin bugün ne kadar iyi performans gösterdiğine dair ampirik verilere sahip olmalarına ve gelecekteki iyileştirmelere dayalı olarak performanstaki herhangi bir bozulmayı tespit etmelerine olanak tanıyor.”

Bununla birlikte teknoloji devi, PyRIT’in üretken yapay zeka sistemlerinin manuel kırmızı ekip oluşturma işleminin yerine geçmediğini ve kırmızı ekibin mevcut alan uzmanlığını tamamladığını vurgulamaya dikkat ediyor.

Başka bir deyişle, araç, yapay zeka sistemini değerlendirmek ve daha fazla araştırma gerektiren alanları işaretlemek için kullanılabilecek istemler oluşturarak riskin “sıcak noktalarını” vurgulamayı amaçlıyor.

Siber güvenlik

Microsoft ayrıca, üretken yapay zeka sistemlerinin kırmızı ekip halinde oluşturulmasının hem güvenlik hem de sorumlu yapay zeka risklerinin eş zamanlı olarak araştırılmasını gerektirdiğini ve uygulamanın daha olasılığa dayalı olduğunu kabul ederken aynı zamanda üretken yapay zeka sistem mimarilerindeki büyük farklılıklara da dikkat çekti.

Siva Kumar, “Potansiyel kör noktaları tespit etmek için zaman alıcı olmasına rağmen manuel taramaya genellikle ihtiyaç duyulur” dedi. “Ölçeklendirme için otomasyon gereklidir ancak manuel problamanın yerini almaz.”

Bu gelişme, Koruma AI’nın ClearML, Hugging Face, MLflow ve Triton Inference Server gibi popüler AI tedarik zinciri platformlarında rastgele kod yürütülmesine ve hassas bilgilerin ifşa edilmesine yol açabilecek çok sayıda kritik güvenlik açığını ortaya çıkarmasıyla ortaya çıktı.

Bu makaleyi ilginç buldunuz mu? Bizi takip edin heyecan ve yayınladığımız daha özel içerikleri okumak için LinkedIn.





Source link