DEF CON 31’de AI modellerinde hataları bulma


DEF CON’un AI Köyü, bu Ağustos’ta 31. hacker kongresinde büyük dil modellerinin (LLM’ler) halka açık ilk değerlendirmesine ev sahipliği yapacak ve AI modellerindeki hataları bulmayı ve AI modellerinin kötüye kullanım potansiyelini ortaya çıkarmayı amaçlıyor.

Hata bulma AI modelleri

LLM’lerin olanakları ve sınırlamaları

LLM’ler, kullanıcıların yaratıcılığına yardımcı olmak için sayısız yol sunar, ancak aynı zamanda, özellikle güvenlik ve gizlilik açısından zorluklar da sunar.

Bu olay, birçok potansiyel uygulamaya sahip olan ancak aynı zamanda henüz tam olarak kavrayamadığımız potansiyel yansımaları olan bir teknoloji olan üretken yapay zekayı kullanmanın sonuçlarına ışık tutabilir.

Konferans sırasında kırmızı ekipler, Anthropic, Google, Hugging Face, NVIDIA, OpenAI, Stability ve Microsoft gibi bazı önde gelen satıcıların LLM’lerini test edecek. Bunu, Scale AI tarafından geliştirilen bir değerlendirme platformunda yapacaklar.

“Geleneksel olarak, şirketler bu sorunu uzmanlaşmış kırmızı ekiplerle çözmüştür. Ancak bu iş büyük ölçüde özel olarak gerçekleşti. AI Village’ın kurucusu Sven Cattell, “Bu modellerle ilgili çeşitli sorunlar, daha fazla insan nasıl kırmızı takım yapılacağını öğrenene ve bunları değerlendirene kadar çözülmeyecek” dedi.

“Hata ödülleri, canlı bilgisayar korsanlığı etkinlikleri ve güvenlikle ilgili diğer standart topluluk etkileşimleri, makine öğrenimi model tabanlı sistemler için değiştirilebilir. Bunlar, zararları ele alarak ve nasıl yardım edeceğini bilen araştırmacılar topluluğunu büyüterek iki ihtiyacı tek bir işlemle karşılıyor.”

Bu alıştırmanın amacı, LLM’lerin hem olanaklarını hem de sınırlamalarını ortaya çıkarmaktır. Kırmızı ekipler, bu modelleri test ederek potansiyel güvenlik açıklarını ortaya çıkarmayı ve LLM’lerin ne ölçüde manipüle edilebileceğini değerlendirmeyi umuyor.

Bu kırmızı ekip oluşturma alıştırmasının sonuçları yayınlanacak ve toplanan içgörülerden herkesin yararlanması sağlanacaktır.

Beyaz Saray’dan destek

Beyaz Saray’dan, Ulusal Bilim Vakfı’nın Bilgisayar ve Bilişim Bilimi ve Mühendisliği (CISE) Direktörlüğü’nden ve Kongre’deki AI Caucus’tan yaklaşan kırmızı takım çalışması için verilen destek, LLM’lerin kullanımına verdikleri önemin açık bir göstergesidir. Ayrıca, bu tür teknolojilerle ilişkili potansiyel riskleri de vurgulamaktadır.

Yapay Zeka Haklar Bildirgesi için Biden-Harris Planı ve NIST Yapay Zeka Risk Yönetimi Çerçevesi, yapay zeka teknolojilerinin sorumlu kullanımını teşvik etmeyi amaçlayan hayati girişimlerdir. Bu kırmızı ekip çalışması, bu girişimlerle uyumludur.

“Bu bağımsız uygulama, araştırmacılara ve halka bu modellerin etkileri hakkında kritik bilgiler sağlayacak ve yapay zeka şirketlerinin ve geliştiricilerin bu modellerde bulunan sorunları düzeltmek için adımlar atmasına olanak tanıyacak. Beyaz Saray, AI modellerinin hükümetten veya onları geliştiren şirketlerden bağımsız olarak test edilmesi, etkili değerlendirmelerinde önemli bir bileşendir” dedi.



Source link