NCSC, ChatGPT Gibi Yapay Zeka Modellerindeki Belirli Güvenlik Açıkları Konusunda Uyardı


Büyük bir dil modeli (LLM), genellikle üretken yapay zeka ile ilişkilendirilen metin tabanlı içeriği anlayan, üreten ve tahmin eden bir derin öğrenme yapay zeka modeli veya sistemidir.

Mevcut teknolojik ortamda aşağıdakiler gibi sağlam ve bilinen modellerimiz var: –

  • SohbetGPT
  • Google Ozanı
  • Meta’nın FLAME’i

Ulusal Siber Güvenlik Merkezi’ndeki (NCSC) siber güvenlik analistleri yakın zamanda yapay zeka sistemlerindeki veya Meta’nın LLaMA’sı olan ChatGPT veya Google Bard gibi modellerdeki belirli güvenlik açıklarını ortaya çıkardı ve uyardı.

Güvenlik açıkları

Yüksek Lisans’ların bir rolü olsa da makine öğrenimi projeleri için siber güvenliğin temellerini unutmayın. Aşağıda, NCSC’deki araştırmacıların uyardığı yapay zeka modellerindeki belirli güvenlik açıklarından bahsettik: –

  • Hızlı enjeksiyon saldırıları: Mevcut LLM’lerle ilgili önemli bir sorun, kullanıcıların modelin hatalı davranmasını, zarar veya sızıntı riskini göze almasını sağlamak için girdileri manipüle ettiği ‘hızlı enjeksiyon’dur. Bing’in varoluşsal krizi gibi eğlenceli şakalardan, MathGPT aracılığıyla bir API anahtarına erişim gibi potansiyel olarak zararlı istismarlara kadar çok sayıda hızlı enjeksiyon vakası mevcuttur. LLM’lerin verileri üçüncü taraf uygulamalara beslemesinden bu yana hızlı enjeksiyon riskleri arttı.
  • Veri zehirlenmesi saldırıları: Tüm ML modelleri gibi Yüksek Lisans’lar da genellikle geniş açık internetten gelen rahatsız edici veya yanlış içerik içeren eğitim verilerine güveniyor. NCSC’nin güvenlik ilkeleri ‘veri zehirlenmesini’ vurguluyor ve Nicholas Carlini’nin araştırması, büyük modellerin minimum veri erişimiyle zehirlenmesinin mümkün olduğunu gösteriyor.

Önleme mekanizmaları

Anında enjeksiyon ve veri zehirlenmesini tespit etmek ve bunlara karşı koymak zordur. ML modeli üzerinde kuralların katmanlandırılması gibi sistem çapında güvenlik tasarımı, riskleri azaltabilir ve yıkıcı arızaları önleyebilir.

Aşağıdakiler de dahil olmak üzere makine öğrenimine özgü riskleri ele almak için siber güvenlik temellerini genişletin: –

Siber güvenlik ilkeleri

Yüksek Lisans’ların ötesinde, son aylarda yetersiz siber güvenlik ilkeleri nedeniyle makine öğrenimi sistemindeki güvenlik açıkları ortaya çıktı: –

  • İnternetten indirdiğiniz kodu (modelleri) keyfi olarak çalıştırmadan önce düşünün
  • Yayınlanan güvenlik açıkları konusunda güncel kalın ve yazılımı düzenli olarak yükseltin.
  • Yazılım paketi bağımlılıklarını anlayın.
  • İnternetten indirdiğiniz kodu (paketleri) keyfi olarak çalıştırmadan önce düşünün

Ancak hızla gelişen yapay zeka ortamında, makine öğreniminin varlığı ne olursa olsun güçlü siber güvenlik uygulamalarını sürdürmek esasen önemlidir.

Bizi Google Haberler ve Linkedin’den takip ederek en son Siber siber güvenlik haberlerinden haberdar olun. heyecanve Facebook.





Source link