AI’yi Edge’de dağıtmak, düşük gecikme, gelişmiş verimlilik ve gerçek zamanlı karar verme gibi avantajlar getirir. Ayrıca yeni saldırı yüzeyleri de sunuyor. Rakipler, geçişteki modelleri kesebilir, performansı azaltmak için girdileri manipüle edebilir ve hatta tersine müjdeci AI sistemlerini yaratıcılarına karşı kullanmak için kullanabilir.
Bu net güvenlik röportajında, Latent AI CEO’su Jags Kandasamy, AI modellerini korumak için gerekli teknik ve stratejik önlemleri, kısıtlı ortamlarda güvenlik ve performans arasındaki dengeyi ve profesyonellerin AI’yı yüksekte konuşlandırdıklarında öğrenebileceklerini tartışıyor. risk sektörleri.
Kenarda AI’nın dağıtılmasının, özellikle askeri ve kritik altyapı ortamlarında ne gerektirdiğini açıklayabilir misiniz?
Hesaplama düğümlerini uzak kenara getirdiğiniz anda, ağınızdaki birçok güvenlik zorluğunu otomatik olarak ortaya koyuyorsunuz. Onların “bağlantısı kesilmiş cihazlar” olmalarını beklerseniz bile, verileri aralıklı olarak bağlayabilirler. Yani, güvenlik ayak iziniz genişletildi. Kenarda dağıttığınız her yığın parçasının, kenar cihazının kendisi de dahil olmak üzere güvenli ve güvenilir olduğundan emin olmalısınız.
Edge AI için güvenlik düşünürken, eğitimli modeli, çalışma zamanı motorunu ve merkezi bir konumdan kenara uygulanmayı ve ortadaki bir saldırı için fırsat açmayı düşünmelisiniz.
Şimdi, modeliniz ve uygulamanızın aktarıldığı an ve onları kenar cihazlarında ikamet ediyorsanız, birisinin seti çalma, tersine mühendislik yapmaya çalışması, Niyetinizi Edge AI ile anlamaya çalışması olasılığı var.
Bu, hem ticari endüstri hem de yabancı bir ulus, rakip ve hatta bir sabotajcı tarafından askeri -symber istismarları için kritiktir ve bu düşmanlar AI modeliniz ve verileri ile sonuçlanabilir ve bunu size karşı çevirmek için kullanabilir.
Bu bağlamlardaki geleneksel standart merkezi AI sistemlerine kıyasla Edge AI kullanmanın temel avantajları nelerdir?
Geleneksel AI sistemleri genellikle modellerin uzaktan yürüttüğü bulut tabanlı hizmet mimarilerine güvenir. Bu yaklaşım doğal sınırlamalar getirir. İlk olarak, bulut hizmetleri her zaman kolayca mevcut değildir. Aktif olmayan hizmetleri başlatmak için gereken “ısınma” süresi performansı önemli ölçüde etkileyebilir ve bunları zaman açısından kritik uygulamalar için uygun hale getirebilir.
Örneğin, on bulut tabanlı modeliniz varsa, sekiz sürekli aktif olabilirken, geri kalan iki (örneğin, anomali tespiti veya nadir olay modelleri) kaynakları korumak için kapatılabilir. Bu “soğuk start” davranışı, bu modeller aniden gerekli olduğunda potansiyel olarak kritik süreç arızalarına yol açan önemli gecikme sağlar.
Bu zorlukları azaltmak için kuruluşlar giderek daha fazla bilgi işlemi benimsiyor. Veri kaynağına daha yakın modelleri dağıtarak, Edge Computing bant genişliği tüketimini azaltır, gecikmeyi en aza indirir ve kaynak kullanımını optimize eder.
Örneğin, bir fabrikada iki yerel sunucunun dağıtılması, belirli bir uygulamayı etkili bir şekilde ele alabilir ve ilişkili bakım ve yönetim yükü ile büyük, kaynak yoğun bir bulut altyapısına olan ihtiyacı ortadan kaldırabilir.
Riskler göz önüne alındığında, modelinizi neden kenara koymak istiyorsunuz?
Güvenlik doğal bir zorluktur ve eylemsizlik bazen en güvenli yaklaşım olabilir. Ancak, bu nadiren pratik bir çözümdür.
Askeri operasyonlarda, milyonlarca küresel sensörden gelen sürekli veri akışları ezici bir bilgi yaratır. Bulut tabanlı çözümler, depolama sınırlamaları, işleme kapasitesi kısıtlamaları ve kabul edilemez gecikme nedeniyle genellikle yetersizdir.
Bu nedenle, Edge hesaplama askeri uygulamalar için çok önemlidir, anında yanıtlar ve gerçek zamanlı karar alma sağlar.
Ticari ortamlarda, birçok ortam güvenilir veya uygun fiyatlı bağlantıdan yoksundur. Edge AI, bulutla sürekli iletişim ihtiyacını en aza indirerek yerel veri işlemeyi etkinleştirerek bunu ele alır.
Bu yerelleştirilmiş yaklaşım güvenliği artırır. Büyük miktarlarda ham veri iletmek yerine, buluta sadece temel bilgiler (örneğin, ‘bu bir anomali’) gönderilir. Edge AI modelleri tipik olarak belirli, dar tanımlanmış görevler için tasarlanmıştır, aktarılan veri miktarını azaltır ve potansiyel güvenlik risklerini en aza indirir.
Güvenlik önlemleri, kenarda sınırlı hesaplama kaynaklarıyla performansdan ödün vermeden nasıl etkili bir şekilde uygulanabilir?
AI modellerinin güvenliği, benzersiz tanımlayıcılar, filigran ve şifreleme gibi yerleşik korumalarla geliştirilebilir.
Rakipler AI eğitim verilerini kullanabilir ve model performansını tehlikeye atmak için girdileri manipüle edebilirken, eğitim sonrası filigran hırsızlığa karşı sağlam bir savunma sunar. Modelin mimarisine benzersiz bir imza yerleştirerek, performans üzerinde minimum etkisi olan mülkiyet oluşturabiliriz. Bir saldırgan filigranlı bir görüntüyü keser ve değiştirirse, bozulma belirgin hale gelir ve kurcalamayı ortaya çıkarır. Benzer şekilde, filigranlı bir modelde yapılan değişiklikler muhtemelen filigranın bozulması veya hatta kaldırılacağı, yetkisiz değişiklikleri gösterecektir. Watermarketing, modelin mülkiyetini oluşturur ve sürüm kontrolünü sağlar.
Model şifreleme ile, cihaz tehlikeye girse bile model şifreli kalır ve erişilemez.
Son olarak, model rakipler veya rakipler tarafından çalınır veya çoğaltılırsa, sürüm kontrol mekanizmaları yetkisiz kullanımı tanımlamaya ve izlemeye yardımcı olabilir ve yasal veya karşı istihbarat araştırmaları için değerli kanıtlar sağlar.
Kritik altyapıdaki AI güdümlü kenar cihazlarını siber saldırılardan korumak için hangi özel siber güvenlik stratejileri kullanılmalıdır?
Güvenliği sonradan düşünmek olarak uygulamak genellikle yüksek hesaplama yükü ile verimsiz çözümlere yol açar. Bununla birlikte, siber güvenlik uzmanlığımız, güvenlik önlemlerini doğrudan temel teknolojimize entegre etmemizi sağlar.
Örneğin, filigran teknikleri modelin mimarisine sorunsuz bir şekilde entegre edilebilir ve herhangi bir performans etkisini en aza indirebilir. Güvenliğin doğal olarak modelin kendisinin bir parçası olduğu bu yaklaşım, güvenlik katmanlarını harici bir eklenti olarak eklemekten daha verimlidir.
Şifreleme doğal olarak bazı hesaplamalı yükler getirirken, Edge dağıtımlarını güvence altına almak için önemli ve kabul edilebilir bir maliyettir.
Askerler, gerçek zamanlı olarak toplanan verilere güvendiklerinde operasyonel ortamlarda kullanılan AI sistemlerinin bütünlüğünü ve güvenilirliğini nasıl sağlayabilir?
Askeri kuruluşlar, AI sistemlerinin güvenilirliğini sağlamak için sistem kontrollerinin ve insan gözetim politikalarının bir kombinasyonunu uygulayabilir.
Örneğin, otomatik hedef tanıma (ATR) için tasarlanmış bir modeli düşünün. Önemli bir politika, doğruluğunu değerlendirmek ve potansiyel önyargıları tanımlamak için modelin çıktılarının düzenli olarak gözden geçirilmesini içerebilir. Bu döngüdeki bu yaklaşım, sistemin kararlarının yalnızca otomatik çıktılara dayanmak yerine güvenilir ve güvenilir olmasını sağlayan önemli bir koruma sağlar. Düşmanlarımız AI yeteneklidir ve AI modellerimizin operasyonel olarak performans gösteren kalmasını sağlamak için uyanık politikalara sahip olmalıyız.
Bu ortamlarda AI sistemlerini dağıtan veya yöneten profesyonellere ne tavsiye edersiniz?
Her kenar cihazını izole edilmiş bir ada olarak hayal edin. Bağımsız olsa da, bu adalar bir köprü ağına benzeyen anakaraya bağlı kalmalıdır. “Edge Continuum” terimi, sensör ve bilgi işlem arasındaki ilişkiye dayanan çeşitli adaları temsil eder. Edge Continuum içindeki bu adalar, veri ve model bilgileri aktarıldığında ağ güvenliğinde zorluklar doğurur.
Bu ada benzetmesi hem yerel hem de ağ düzeyinde güvenlik ihtiyacını vurgulamaktadır. Her Edge cihazı, hassas verileri korumak ve yerel ihlalleri önlemek için kendi sağlam savunmalarını gerektirir. Eşzamanlı olarak, kenar ve merkezi sistem arasında iletilen verilerin bütünlüğünü sağlamak için güvenli iletişim kanalları esastır.
Tıpkı bozuk bir sevkıyat anakarayı kirletebilirken, uzlaşmış bir kenar cihazı tüm ağın güvenliğini tehlikeye atabilir. Bu nedenle, sağlam güvenlik önlemleri hem bireysel cihaz hem de ağ düzeylerinde çok önemlidir.