Google, Yapay Zeka Tehditleriyle Mücadele Etmek İçin Hata Ödül Programını Genişletiyor


27 Ekim 2023Haber odasıYapay Zeka / Güvenlik Açığı

Yapay Zeka Tehditleri

Google, yapay zeka emniyetini ve güvenliğini artırmak amacıyla üretken yapay zeka (AI) sistemlerine uyarlanmış saldırı senaryoları bulan araştırmacıları ödüllendirmek için Güvenlik Açığı Ödül Programını (VRP) genişlettiğini duyurdu.

Google’dan Laurie Richardson ve Royal Hansen, “Üretken yapay zeka, haksız önyargı potansiyeli, model manipülasyonu veya verilerin yanlış yorumlanması (halüsinasyonlar) gibi geleneksel dijital güvenliğe kıyasla yeni ve farklı endişeleri gündeme getiriyor.” dedi.

Kapsam dahilindeki kategorilerden bazıları arasında hızlı enjeksiyonlar, eğitim veri kümelerinden hassas verilerin sızması, model manipülasyonu, yanlış sınıflandırmayı tetikleyen düşmanca pertürbasyon saldırıları ve model hırsızlığı yer alıyor.

Siber güvenlik

Google’ın bu Temmuz ayı başlarında, Güvenli Yapay Zeka Çerçevesi’nin (SAIF) bir parçası olarak yapay zeka sistemlerine yönelik tehditleri gidermeye yardımcı olmak için bir Yapay Zeka Kırmızı Ekibi kurduğunu belirtmekte fayda var.

Yapay zekayı güvence altına alma taahhüdünün bir parçası olarak, Yazılım Eserleri için Tedarik Zinciri Düzeyleri (SLSA) ve Sigstore gibi mevcut açık kaynaklı güvenlik girişimleri aracılığıyla yapay zeka tedarik zincirini güçlendirme çabaları da duyuruldu.

Yapay Zeka Tehditleri

Google, “Kullanıcıların yazılımın kurcalanmadığını veya değiştirilmediğini doğrulamasını sağlayan Sigstore’dakiler gibi dijital imzalar” dedi.

“Bize yazılımın içinde ne olduğunu ve nasıl oluşturulduğunu anlatan SLSA kaynağı gibi meta veriler, tüketicilerin lisans uyumluluğunu sağlamasına, bilinen güvenlik açıklarını belirlemesine ve daha gelişmiş tehditleri tespit etmesine olanak tanıyor.”

Siber güvenlik

Bu gelişme, OpenAI’nin siber güvenlik, kimyasal, biyolojik, radyolojik ve nükleer (KBRN) tehditleri kapsayan üretken yapay zekaya yönelik yıkıcı risklere karşı “takip etmek, değerlendirmek, tahmin etmek ve korumak” için yeni bir dahili Hazırlık ekibini açıklamasıyla birlikte geliyor.

Anthropic ve Microsoft’un yanı sıra iki şirket, yapay zeka güvenliği alanındaki araştırmaları teşvik etmeye odaklanan 10 milyon dolarlık bir Yapay Zeka Güvenlik Fonu oluşturulduğunu da duyurdu.

Bu makaleyi ilginç buldunuz mu? Bizi takip edin heyecan ve yayınladığımız daha özel içerikleri okumak için LinkedIn.





Source link