ABD Hükümeti Kritik Altyapılar için Yeni Yapay Zeka Güvenlik Yönergelerini Yayımladı


30 Nis 2024Haber odasıMakine Öğrenimi / Ulusal Güvenlik

Yapay Zeka Güvenliği

ABD hükümeti, yapay zeka (AI) ile ilgili tehditlere karşı kritik altyapıyı güçlendirmeyi amaçlayan yeni güvenlik yönergelerini açıkladı.

İç Güvenlik Bakanlığı (DHS) Pazartesi günü yaptığı açıklamada, “Bu yönergeler, on altı kritik altyapı sektörünün tamamındaki yapay zeka risklerini değerlendirmeye ve yapay zeka sistemlerine yönelik ve yapay zeka sistemlerini içeren tehditleri ele almaya yönelik tüm hükümet çabalarıyla destekleniyor.” dedi.

Ayrıca ajans, teknolojinin bireylerin mahremiyetini, sivil haklarını ve sivil özgürlüklerini ihlal etmeyecek şekilde güvenli, sorumlu ve güvenilir bir şekilde kullanılmasını kolaylaştırmak için çalıştığını söyledi.

Yeni kılavuz, kritik altyapıya yönelik saldırıları artırmak ve ölçeklendirmek için yapay zekanın kullanımı, yapay zeka sistemlerinin düşmanca manipülasyonu ve bu tür araçlardaki istenmeyen sonuçlara yol açabilecek eksikliklerle ilgilidir; yapay zekayı değerlendirmek ve azaltmak için şeffaflık ve tasarım uygulamalarıyla güvenlik ihtiyacını gerektirir. riskler.

Siber güvenlik

Spesifik olarak bu, yapay zeka yaşam döngüsü boyunca yönetme, haritalama, ölçme ve yönetme gibi dört farklı işlevi kapsar.

  • Yapay zeka risk yönetimine yönelik kurumsal bir kültür oluşturun
  • Bireysel yapay zeka kullanım bağlamınızı ve risk profilinizi anlayın
  • Yapay zeka risklerini değerlendirmek, analiz etmek ve izlemek için sistemler geliştirin
  • Emniyet ve güvenliğe yönelik yapay zeka risklerini önceliklendirin ve bunlara göre hareket edin

Ajans, “Kritik altyapı sahipleri ve operatörleri, yapay zeka risklerini değerlendirirken ve uygun hafifletici önlemleri seçerken kendi sektöre ve bağlama özel yapay zeka kullanımlarını hesaba katmalıdır” dedi.

“Kritik altyapı sahipleri ve operatörleri, yapay zeka sağlayıcılarına olan bu bağımlılıkların nerede mevcut olduğunu anlamalı ve azaltma sorumluluklarını buna göre paylaşmalı ve tanımlamalıdır.”

Gelişme, Avustralya, Kanada, Yeni Zelanda, İngiltere ve ABD’den oluşan Beş Göz (FVEY) istihbarat ittifakının, yapay zeka sistemlerinin dağıtımı için gereken dikkatli kurulum ve yapılandırmayı belirten bir siber güvenlik bilgi sayfası yayınlamasından haftalar sonra geldi.

Hükümetler, “Yapay zeka yeteneklerinin hızla benimsenmesi, konuşlandırılması ve kullanılması, bunları kötü niyetli siber aktörler için oldukça değerli hedefler haline getirebilir” dedi.

“Tarihsel olarak hassas bilgilerin ve fikri mülkiyetin veri hırsızlığını kendi çıkarları için kullanmış olan aktörler, konuşlandırılmış yapay zeka sistemlerini benimseyip bunları kötü amaçlara uygulamak isteyebilir.”

Önerilen en iyi uygulamalar arasında dağıtım ortamının güvenliğini sağlamak için adımlar atmak, yapay zeka modellerinin ve tedarik zinciri güvenliğini gözden geçirmek, sağlam bir dağıtım ortamı mimarisi sağlamak, dağıtım ortamı yapılandırmalarını güçlendirmek, yapay zeka sistemini bütünlüğünü sağlamak için doğrulamak, model ağırlıklarını korumak, sıkı erişim kontrolleri yapın, harici denetimler yapın ve sağlam günlük kaydı uygulayın.

Bu ayın başlarında, CERT Koordinasyon Merkezi (CERT/CC), Keras 2 sinir ağı kütüphanesinde, bir saldırganın popüler bir yapay zeka modelini truva atı haline getirmek ve onu yeniden dağıtmak için kullanabileceği ve bağımlı uygulamaların tedarik zincirini etkili bir şekilde zehirleyebileceği bir eksikliğin ayrıntılarını açıkladı.

Son araştırmalar, yapay zeka sistemlerinin, yapay zeka modelinin güvenlik mekanizmalarını atlatmasına ve zararlı çıktılar üretmesine neden olan çok çeşitli hızlı enjeksiyon saldırılarına karşı savunmasız olduğunu buldu.

Siber güvenlik

Microsoft yakın tarihli bir raporunda, “Zehirli içerik yoluyla yapılan hızlı enjeksiyon saldırıları büyük bir güvenlik riskidir çünkü bunu yapan bir saldırgan potansiyel olarak yapay zeka sistemine kullanıcıymış gibi komutlar verebilir” dedi.

Crescendo olarak adlandırılan böyle bir teknik, çok turlu büyük dil modeli (LLM) jailbreak olarak tanımlandı; bu, Anthropic’in çok atışlı jailbreak işlemi gibi, “dikkatle hazırlanmış sorular veya LLM’yi yavaş yavaş yönlendiren istemler sorarak modeli kötü amaçlı içerik üretmesi için kandırıyor” Hedefi bir kerede istemek yerine, arzu edilen sonuca ulaşmayı hedefliyoruz.”

Ulus devlet aktörleri casusluğu yönetmek ve operasyonları etkilemek için üretken yapay zekayı silahlandırmaya başlarken, yüksek lisans jailbreak istemleri etkili kimlik avı tuzakları oluşturmak isteyen siber suçlular arasında popüler hale geldi.

Daha da endişe verici olanı, Illinois Urbana-Champaign Üniversitesi’nde yapılan araştırmalar, LLM aracılarının, yalnızca CVE açıklamalarını kullanarak ve “web sitelerini hackleyerek, karmaşık görevleri yerine getirerek gerçek dünya sistemlerindeki bir günlük güvenlik açıklarından özerk bir şekilde yararlanmak için kullanılabileceğini keşfetti.” İnsan geri bildirimi olmadan kör veritabanı şeması çıkarma ve SQL enjeksiyonları.”

Bu makaleyi ilginç buldunuz mu? Bizi takip edin heyecan ve yayınladığımız daha özel içerikleri okumak için LinkedIn.





Source link