RSA KONFERANSI 2023 – San Francisco – İşletmeler ve devlet kurumları, yapay zekayı (AI) ve makine öğrenimini (ML) daha geniş sistemlerine giderek daha fazla dahil ettikçe, siber güvenlik endişeleriyle başlayan ancak bunların çok ötesine yayılan bir dizi risk dayanıklılık sorununu hesaba katmaları gerekecek.
24 Nisan’da RSA Konferansı 2023’te seçkin yapay zeka ve güvenlik araştırmacılarından oluşan bir panel, düşmanca yapay zeka saldırıları, yapay zeka yanlılığı ve yapay zeka modellemenin etik uygulaması gibi önemli konuları içeren yapay zeka dayanıklılığı sorun alanını inceledi.
Panelistler, siber güvenlik uzmanlarının hem kendi kuruluşlarında hem de hükümet ve endüstri gruplarıyla iş birliği yapan kişiler olarak bu sorunları ele almaya başlaması gerektiğini belirtti.
FBI Siber Birimi’nde müdür yardımcısı olan panel moderatörü Bryan Vorndran, “Birçok kuruluş AI/ML yeteneklerini temel iş işlevlerine entegre etmeye çalışacak, ancak bunu yaparken kendi saldırı yüzeylerini artıracak” dedi. “Saldırılar yapay zeka ve makine öğrenimi geliştirme ve dağıtım döngüsünün her aşamasında gerçekleşebilir, modeller, eğitim verileri ve API’ler hedeflenebilir.”
İyi haber şu ki, topluluk şimdi çalışmaya başlarsa bu çabaları hızlandırmak için zaman var.
“Topluluk olarak burada gerçekten eşsiz bir fırsatımız var” dedi CalypsoAI CEO’su Neil Serebryany. “Bir tehdit olduğunun farkındayız, bu tehdidin ilk örneklerini görüyoruz ve tehdit henüz tam olarak ortaya çıkmadı.”
‘Yine’nin etkili kelime olduğunu vurguladı ve panelist arkadaşları da aynı fikirde. Risk yönetimi alanı, siber güvenliğin 1980’lerde İnternet ile olduğu yere benzer bir yerde, AI için misyon yetenekleri şefi Bob Lawton dedi. Milli İstihbarat Bilim ve Teknoloji Grubu Direktörlüğü.
“1985’te olduğunuzu ve şimdi siber alanda karşılaşacağımız zorlukları bildiğinizi hayal edin, 35 yıl önce bir topluluk olarak, bir endüstri olarak neyi farklı yapardık ve şu anda AI ile tam olarak bu noktadayız. ” dedi Lawton. “Doğru yapmak için zamanımız ve yerimiz var.”
Yapay zeka strateji yürütme sorumlusu Christina Liaghati, özellikle yapay zeka sistemlerine karşı düşmanlar tarafından doğrudan saldırılar söz konusu olduğunda, tehditlerin hala çok temel olduğunu, ancak bunun yalnızca saldırganların yalnızca şu anda hedeflerine ulaşmak için ihtiyaç duydukları işi ortaya koymaları nedeniyle olduğunu söyledi. ve MITRE Corporation’ın operasyon müdürü.
“Sanırım daha fazla kötü niyetli aktörün bu saldırılarda daha yüksek bir karmaşıklık düzeyine sahip olduğunu göreceğiz, ancak şu anda buna gerek yok, bence bu alanla ilgili gerçekten ilginç olan şey bu” dedi. kitle.
Yine de, kuruluşların riskleri hafife alamayacağı konusunda uyardı. Tehdit aktörlerinin AI modellerine ilişkin karmaşıklıklarını ve bilgilerini artırmaya yönelik ilgileri, yalnızca karlı bir şekilde saldırabilecekleri sistemlere gömülü olduğu sürece artmaya devam edecektir. Ve bu, finansal sistemlerde basit makine öğrenimi modellerini kullanan daha küçük kuruluşlar için olduğu kadar, onu istihbarat kapasitesinde kullanan devlet kurumları için de geçerlidir.
Herkes Risk Altında
“Herhangi bir aktörün bu sistemi kötüye kullanmak, ondan kaçmak veya saldırmak isteyebileceği herhangi bir ortama AI yerleştiriyorsanız, sisteminiz savunmasızdır” dedi. “Yani, yalnızca süper gelişmiş teknoloji devleri veya yapay zekayı devasa bir şekilde dağıtan herhangi biri değil. Sisteminiz herhangi bir sonuçsal ortamdaysa ve ardından yapay zeka ve makine öğrenimini bu daha geniş sistem bağlamına dahil ederseniz, Muhtemelen düşünmediğiniz veya mutlaka hazırlıklı olmadığınız yeni yollarla.”
Birçok siber güvenlik yöneticisi için yapay zeka ile ilgili zorluk, bu riskleri ele almanın kendilerinin ve ekiplerinin yapay zeka ve veri bilimi hakkında yepyeni bir bilgi ve deyim kazanmalarını gerektirecek olmasıdır.
Serebryany, “Yapay zeka güvencesinin özünde geleneksel bir bilgi güvenliği sorunu olduğunu düşünmüyorum” dedi. “Bu, bilgi güvenliği topluluğuna nasıl tercüme edileceğini bulmaya çalıştığımız bir makine öğrenimi sorunu.”
Örneğin, modellerin sağlamlaştırılması, hatırlama kesinliği doğruluğu ve F1 puanları gibi temel veri bilimi ölçümlerinin anlaşılmasını gerektirir, dedi.
“Bu nedenle, bu temel makine öğrenimi kavramlarını ve araştırmalarını nasıl ele alacağımızı ve deyimi, kavramları ve standart işletim prosedürlerini infosec topluluğu içinde anlamlı olan yumuşak bir bağlam içinde nasıl çevireceğimizi bulmak bizim üzerimizde bir görev.” dedi.
Aynı zamanda Liaghati, AI/ML modelleri ve sistemleri, güvenlik ekiplerinin onlarca yıllık risk yönetimi deneyimine sahip olduğu diğer sistemler bağlamında konuşlandırılacağı için güvenlik temellerini göz ardı etmemeyi söyledi. Veri güvenliği, uygulama güvenliği ve ağ güvenliği ilkeleri, standart risk yönetimi ve OpSec en iyi uygulamaları gibi hala son derece önemlidir.
“Bunların çoğu sadece iyi uygulamalar. Bu sadece büyük, süslü bir düşman katmanı veya bir veri setine yama yapabilmek değil. O kadar da karmaşık değil” diyor. “Bu tehditleri azaltmanın birçok yolu, hangi modelleri kullandığınıza, hangi verileri kullandığınıza, bunların nereden geldiğine ilişkin kamuya açık alanda yayınladığınız bilgi miktarını düşünmektir. [and] Bu yapay zeka sistemi etrafında daha geniş sistem bağlamının nasıl göründüğü.