NIST, Yapay Zekanın Arızalanmasına Yol Açan Siber Saldırı Türlerini Detaylandırıyor


NIST, Yapay Zeka Sistemlerinin Arızasına Yol Açan Siber Saldırı Türlerini Detaylandırıyor

Yapay zeka (AI) sistemleri, saldırganlar tarafından kasıtlı olarak kandırılabilir ve hatta “zehirlenebilir”; bu da ciddi arızalara ve çarpıcı arızalara yol açabilir.

Şu anda yapay zekayı yanlış yönlendirmeye karşı koruyacak şaşmaz bir yöntem yok; bunun nedeni kısmen, bir yapay zekayı eğitmek için gerekli veri kümelerinin insanların etkili bir şekilde izleyip filtreleyemeyeceği kadar büyük olması.

Ulusal Standartlar ve Teknoloji Enstitüsü’ndeki (NIST) bilgisayar bilimcileri ve işbirlikçileri, bunları ve diğer yapay zeka açıklarını ve yapay zeka sistemlerini hedef alan hafifletme önlemlerini belirlediler.

Bu yeni rapor, yapay zeka çözümlerinin karşılaşabileceği saldırı türlerini ve geliştirici topluluğunu desteklemek için bunlara eşlik eden saldırı azaltma stratejilerini özetlemektedir.

Belge

Ücretsiz Web Semineri

MOVEit SQLi, Zimbra XSS gibi sıfır gün güvenlik açıkları ve her ay keşfedilen 300’den fazla güvenlik açığı sorunu daha da karmaşık hale getiriyor. Bu güvenlik açıklarının düzeltilmesindeki gecikmeler uyumluluk sorunlarına yol açar; bu gecikmeler, AppTrana’daki 72 saat içinde “Sıfır güvenlik açığı raporu” almanıza yardımcı olan benzersiz bir özellik ile en aza indirilebilir.


Dört Temel Saldırı Türü

Araştırmada dört temel saldırı türü inceleniyor:

  • Kaçınma
  • Zehirlenme
  • Mahremiyet
  • Kötüye Kullanım Saldırıları

Ayrıca bunları saldırganın amaç ve hedefleri, yetenekleri ve bilgisi dahil olmak üzere çeşitli özelliklere göre sınıflandırır.

Kaçış Saldırıları

Kaçınma tekniklerini kullanan saldırganlar, bir yapay zeka sisteminin konuşlandırıldıktan sonra buna nasıl tepki vereceğini etkilemek için bir girişi değiştirmeye çalışır.

Bazı örnekler, otonom bir arabanın yoldan sapmasına neden olacak şekilde kafa karıştırıcı şerit işaretleri oluşturmak veya dur işaretlerinin yanlışlıkla hız sınırı işaretleri olarak okunmasına neden olacak şekilde dur işaretlerine işaretler eklemek olabilir.

Zehirlenme Saldırıları

Eğitim sürecinde bozuk veriler enjekte edilerek zehirlenme saldırıları gerçekleşir. Örneğin, konuşma kayıtlarına birden fazla uygunsuz dil örneği eklemek, bir chatbot’u, dilin gerçek müşteri etkileşimlerinde kullanılabilecek kadar yaygın olduğunu düşünmesi için kandırmanın bir yolu olabilir.

Gizlilik Saldırıları

Dağıtım sırasında gizliliğe yönelik saldırılar, yapay zeka veya onu kötüye kullanmak üzere eğitildiği veriler hakkında özel bilgiler elde etme girişimleridir.

Bir rakip, bir chatbot’a birçok geçerli soru sorabilir ve ardından yanıtları kullanarak modelin güvenlik açıklarını belirlemek veya nereden geldiğini tahmin etmek için tersine mühendislik yapabilir.

Yapay zekanın bu belirli istenmeyen örnekleri olaydan sonra unutmasını sağlamak zor olabilir ve bu internet kaynaklarına istenmeyen örneklerin eklenmesi yapay zekanın kötü performans göstermesine neden olabilir.

Kötüye Kullanım Saldırıları

Kötüye kullanım saldırısında, yapay zekanın aldığı bir kaynağa (örneğin bir web sayfasına veya çevrimiçi belgeye) yanlış veriler aktarılır. Kötüye kullanım saldırıları, yapay zeka sistemini amacına uygun olarak yeniden kullanmak için yapay zekaya gerçek ancak bozuk bir kaynaktan yanlış bilgi sağlamayı amaçlamaktadır.

Yapay zeka sistemi hakkında çok az önceden bilgi sahibi olunması veya hiç bilgi olmaması ve sınırlı düşman yetenekleri nedeniyle çoğu saldırının başlatılması nispeten kolaydır.

Yayının yazarlarından biri olan NIST bilgisayar bilimcisi Apostol Vassilev, “Bu sınırlamaların farkındalığı, yapay zeka teknolojisini dağıtmak ve kullanmak isteyen geliştiriciler ve kuruluşlar için önemlidir” dedi.

“Yapay zeka ve makine öğreniminin kaydettiği önemli ilerlemeye rağmen, bu teknolojiler, korkunç sonuçlar doğurabilecek olağanüstü arızalara neden olabilecek saldırılara karşı savunmasızdır. Yapay zeka algoritmalarının güvenliğiyle ilgili henüz çözülmemiş teorik sorunlar var. Aksini söyleyen olursa yılan yağı satıyorlar” dedi.



Source link