Hata Ödülü, Tedarik Zinciri Güvenliği


Yapay Zeka ve Makine Öğrenimi, Yeni Nesil Teknolojiler ve Güvenli Geliştirme

Google, Yeni Hata Raporlama Yönergeleri ve Tedarik Zinciri Güvenliği Hakkında Duyuru Yapıyor

Rashmi Ramesh (raşmiramesh_) •
26 Ekim 2023

Google Yapay Zeka Güvenlik Planı: Hata Ödülü, Tedarik Zinciri Güvenliği
Resim: Shutterstock

Google yapay zeka modellerinin hassas eğitim verilerini sızdırmasını veya başka şekilde yanlış davranmasını sağlayacak yeni yöntemlere sahip güvenlik araştırmacıları, artık bulgularını internet devinin hata ödül programına sunabilecek.

Ayrıca bakınız: Güvenlik Operasyon Merkezini Modernleştirmeye Yönelik 5 İpucu

Mountain, View, Kaliforniya devi Perşembe sabahı yaptığı duyuruda, yapay zeka için tedarik zinciri güvenliği konusundaki çalışmalarını genişlettiğini de söyledi.

Şirket, bugünkü duyuruları, teknoloji şirketlerinin bir dizi gönüllü yapay zeka güvenliği taahhüdüne ilişkin taahhütlerini alan Beyaz Saray çabalarına katılımının devamı olarak nitelendiriyor (bkz: IBM, Nvidia ve Diğerleri ‘Güvenilir’ Yapay Zeka Geliştirmeyi Kararlaştırdı).

Google güvenlik yöneticisi Royal Hansen, “Siber tehditler hızla gelişiyor ve en büyük güvenlik açıklarından bazıları şirketler veya ürün üreticileri tarafından değil, dışarıdaki güvenlik araştırmacıları tarafından keşfediliyor” dedi.

Birçok ortamda bilgisayar korsanları ve araştırmacılar, üretken yapay zeka çıktısı üzerindeki kontrolleri atlatmanın yollarını buldular ve bu da büyük dil modellerinin istemeden kötü amaçlı kod veya kimlik avı e-postalarının üretimine katılmasına neden oldu. Salı günü IBM tarafından yayınlanan bir araştırma, ChatGPT’yi kimlik avı e-postaları yazmaya ikna etmenin ve modeli son derece ikna edici kimlik avı e-postaları geliştirmesi için kandırmanın yalnızca birkaç istem gerektirdiğini ortaya çıkardı (bkz: Phish Perfect: ChatGPT Suçluların Oraya Ulaşmasına Nasıl Yardımcı Olabilir?).

Google, üçüncü taraf araştırmacıların potansiyel bir ödül için gönderebilecekleri AI hata türlerine ilişkin raporlama kriterlerini güncelledi. Google, normalde dahili güvenlik ekipleri tarafından gözden kaçırılan sorunları tespit eden güvenlik araştırmacılarına 2022 yılında 12 milyon dolar ödedi.

Şirketin daha fazla bilgi edinmek istediğini söylediği saldırı senaryoları arasında, kullanıcılar tarafından görülemeyen hızlı enjeksiyonlar da yer alıyor. Google, bir saldırganın “gizli/tescilli bir modelin tam mimarisini veya ağırlıklarını” elde edebilmesi durumunda bunu bilmek istiyor. Bir saldırganın “güvenlik kontrolünde kötü niyetli kullanım veya düşmanca kazanç amacıyla kötüye kullanılabilecek yanlış sınıflandırmayı” güvenilir bir şekilde tetikleyebilmesi de aynı şekildedir.

Google ayrıca, Yazılım Eserleri için Tedarik Zinciri Düzeyleri ve makine öğrenimi modellerine kod imzalama dahil olmak üzere, yazılım geliştirme için geliştirilen aynı tedarik zinciri güvenlik önlemlerini uygulamak istediğini söyledi. Google güvenlik yöneticileri şöyle yazdı: “Aslında modeller program olduğundan çoğu, geleneksel yazılımlara yönelik saldırılarda kullanılan aynı türden keyfi kod yürütme açıklarına izin veriyor.”

SLSA, geliştiricilere yazılımın içinde neler olduğunu ve bilinen güvenlik açıklarını belirlemek ve daha gelişmiş tehditleri tespit etmek için yazılımın nasıl oluşturulduğunu anlatan bir meta veri çerçevesidir. Kod söyleme, kullanıcıların yazılıma müdahale edilmediğini doğrulamak için dijital imzalar dağıtmasına olanak tanır.

Google, “Tedarik zinciri güvenliğini makine öğrenimi geliştirme yaşam döngüsüne artık dahil ederek, sektör olarak hâlâ yapay zeka risklerini belirlerken, ortaya çıkan sorunların çözülmesine yardımcı olacak endüstri standartlarını oluşturmak için açık kaynak topluluğuyla çalışmaya hızlı bir şekilde başlayabiliriz” dedi.





Source link