Google, AI Sistemlerini Hacklemek İçin Ayrıntılı Tehlikeli Kırmızı Takım Saldırıları


Google, AI Sistemlerini Hacklemek İçin Ayrıntılı Tehlikeli Kırmızı Takım Saldırıları

Google, AI Sistemlerini Hacklemek İçin Ayrıntılı Tehlikeli Kırmızı Takım Saldırıları. Yenilik peşinde koşmak, yapay zeka teknolojisinin sorumlu bir şekilde uygulanması ve güvenli yapay zeka modellerinin sağlanması için kamu ve özel sektörde net güvenlik standartları gerektirir.

AI’nın (Yapay Zeka) hızlı yükselişiyle birlikte, artan büyük güvenlik endişeleri de var ve bu nedenle Google, önemli bir AI oyuncusu olarak temkinli bir yaklaşımı teşvik ediyor.

Google’ın bünyesinde bir grup etik hacker vardır. kırmızı takım neredeyse on yıl önce oluşturulan AI’yı güvenli hale getirmeye çalışıyor.

Google Red Team’in başkanı Daniel Fabian, ordunun konseptinden esinlenerek ülkelerden bireylere kadar çeşitli düşmanları simüle eden bilgisayar korsanlarına liderlik ediyor.

Google’ın AI Red Team’i, diğer Google ürünlerinde de benzer şekilde AI sistemleri üzerinde karmaşık saldırılar gerçekleştirmek için geleneksel AI uzmanlığını harmanlıyor.

Kırmızı takım konsepti, RAND Corporation’ın savaş oyunu simülasyonlarından kaynaklanan Soğuk Savaş’a kadar uzanıyor; o zaman, ‘kırmızı’ Sovyetler Birliği gibi düşmanları sembolize etti.

Google’ın AI Red Team, AI tehdit aktörlerini simüle ederek dört temel hedefi takip eder ve burada bunlardan aşağıda bahsedilmiştir:-

Direnç stratejilerini geliştirmek için simüle edilmiş saldırıların kullanıcılar ve ürünler üzerindeki etkisini analiz edin.

Çekirdek sistemlerde yapay zeka tespitini ve önlemeyi değerlendirerek olası baypasları araştırın.

Erken müdahale ve etkili olay işleme için içgörülerle algılamayı geliştirin.

Geliştiricilerin yapay zeka risklerini anlamalarına yardımcı olmak ve risk odaklı güvenlik yatırımlarını teşvik etmek için farkındalığı artırın.

Kırmızı takım oluşturma değerlidir ancak bu alandaki tek araç değildir. SAIF araç kutusu. Kısacası, güvenli AI dağıtımları, sızma testi, güvenlik denetimi ve daha fazlası gibi diğer uygulamaları gerektirir.

Google’ın kırmızı ekip oluşturması, uçtan uca simülasyon anlamına gelirken, rekabet testi karmaşık sistemlerin belirli bölümlerine odaklanır. Otomatik rakip testi SAIF için çok önemlidir ve gelecekteki belgelerde daha ayrıntılı olarak incelenecektir.

Yapay Zeka Sistemlerine Kırmızı Takım Saldırıları

Makine öğrenimi algoritmalarına karşı saldırılara ve savunmalara odaklanan düşmanca yapay zeka, yapay zeka sistem risklerinin anlaşılmasına yardımcı olur. Google, gelişmiş araştırmalara katkıda bulunur, ancak gerçek dünyadaki çıkarımlar, laboratuvar koşullarından farklıdır ve dikkatli olmayı gerektirir.

Google’ın AI Ekibi, saldırganların taktiklerinden yararlanarak güvenlik, gizlilik ve kötüye kullanım sorunlarını keşfederek gerçek AI ürünlerini değerlendirmek için araştırmayı uyarlar.

TTP’ler, algılama yeteneklerinin test edilmesi de dahil olmak üzere güvenlikteki saldırgan davranışlarını tanımlar. MITRE, AI sistemleri için TTP’ler yayınladı ve AI, deneyime dayalı olarak ilgili gerçek dünya tehditlerine odaklanıyor.

TTP’ler

Aşağıda, tüm TTP’leri listeledik:

  • Hızlı saldırılar
  • Eğitim verisi çıkarma
  • Modelin arka kapısı
  • Düşman örnekler
  • Veri zehirlenmesi
  • sızma
  • Geleneksel kırmızı ekiplerle işbirliği

Google, gerçekçi simülasyonlar için geleneksel ekiplere yapay zeka uzmanlarıyla işbirliği yapmalarını önerir. Bulguları ele almak zor olabilir, ancak uygun kilitlenmeler gibi güçlü güvenlik denetimleri riskleri azaltır ve yapay zeka modeli bütünlüğünü korur.

Bazı AI saldırıları geleneksel olarak tespit edilebilir, ancak içerik ve hızlı saldırılar gibi diğerleri katmanlı güvenlik modelleri gerektirir.

En son Siber Güvenlik Haberleri ile güncel kalın; bizi takip edin Google Haberleri, Linkedin, twitter, Ve Facebook.





Source link