Yapay Zeka Risklerini Azaltmak Görünürlük ve Daha İyi Planlama Gerektirir


ABD Enerji Bakanlığı (DoE), geçen ay kritik altyapıda yapay zeka ve makine öğrenimi (AI/ML) modellerinin kullanımını analiz ettiğinde, ajans, simülasyonlar da dahil olmak üzere teknolojinin potansiyel faydalı uygulamalarının ilk 10 listesini çıkardı. tahmine dayalı bakım ve kötü amaçlı olay tespiti.

Tahmin edilebileceği gibi, DoE de şunu ortaya çıkardı: dört geniş risk kategorisi: kasıtsız hata modları, yapay zekaya yönelik düşmanca saldırılar, yapay zekanın düşmanca uygulamaları ve yapay zeka tedarik zincirinin tehlikeye atılması.

DoE yalnız değil; Biden yönetimi, özellikle kritik altyapı ağlarında yapay zeka kullanmanın yararları ve riskleri konusunda kapsamlı bir hükümet değerlendirmesine öncülük ediyor. Örneğin 3 Mayıs’ta Ulaştırma Bakanlığı bilgi talebi yayınladı İlgili taraflardan yapay zekanın ulaşım sistemine hem faydalarını hem de tehlikelerini açıklamalarını istemek. 29 Nisan’da İç Güvenlik Bakanlığı (DHS) kendi görüşünü açıkladıÜç geniş risk kategorisini tanımlıyor: yapay zeka kullanan saldırılar, yapay zeka sistemlerini hedef alan saldırılar ve tasarım veya uygulama hatası.

Ancak DHS, dört bölümlü bir stratejiye odaklanarak kuruluşların yapay zeka riskini nasıl azaltabilecekleri konusunda da geniş tavsiyeler verdi: politika ve risk yönetimi kültürü oluşturarak yönetmek, tüm mevcut varlıkları veya hizmetleri yapay zeka kullanarak haritalamak, verileri izleyerek ölçmek. AI’nın sürekli kullanımı ve bir risk yönetimi stratejisi uygulanarak yönetilmesi.

Bir yapay zeka risk yönetimi firması olan HiddenLayer’ın güvenlik ve güven sorumlusu Malcolm Harkins, kuruluşların yapay zeka riskini azaltmak için ne yapması gerektiğine dair iyi ve geniş bir genel bakış olduğunu ancak bunun yalnızca bir başlangıç ​​olduğunu söylüyor.

“Buna bir kitap gibi bakarsanız, bunların harika bölümler, harika makro iş süreçleri olduğunu görürsünüz” diyor. “Gerçek başarı ya da başarısızlık, [your approach]ve ardından bunu yaparken kullandığınız etkinlik ve verimlilik.”

Çeşitli riskler halihazırda kuruluşları hedef alıyor. Kötü amaçlı AI/ML modelleri Hugging Face ve diğer depolarda barındırılıyor DoE tarafından açıklandığı gibi, tedarik zincirleri aracılığıyla saldırı potansiyelini ortaya koymuştur. ChatGPT’ye ve diğer büyük dil modellerine (LLM’ler) yönelik dolaylı istem enjeksiyon saldırıları şunu göstermiştir: En umut verici yapay zeka modelleri saldırganlar tarafından seçilebilir veya bozulabilirDHS’nin de vurguladığı gibi.

Saldırganlar ayrıca operasyonlarını daha verimli hale getirmek ve saldırılarını (özellikle kimlik avı saldırılarını) daha etkili hale getirmek için yapay zeka modelleri üzerinde geniş çaplı denemeler yapıyor.

(Yapmayı deneyin) Yapay Zeka Aldatmacasını Göz ardı Edin ve Küçük Başlayın

Kuruluşlar için yapay zekanın artan kullanımı, risklere daha fazla maruz kalma anlamına geliyor. Kuruluşlar AI/ML modellerini benimsemekten kaçınamayacaklar: Yapay zekayı kendi operasyonlarında benimsemek için acele etmeseler bile, giderek artan sayıda ürün, AI özelliklerini içeriyor veya en azından dahil ettiğini iddia ediyor.

Raporunda “Kritik Altyapı Sahipleri ve Operatörleri için Emniyet ve Güvenlik Yönergeleri“DHS, yapay zeka risk yönetimini, faaliyetleri düzenleyen kapsamlı bir Yönetim işleviyle birlikte işletmedeki yapay zeka maruziyetini Haritalama, Ölçme ve Yönetme için devam eden süreçler çerçevesi açısından tanımlar.

HiddenLayer’dan Harkins, birçok şirket için DHS azaltma stratejisinin Harita ve Ölçüm kısımlarının başlangıçta en önemli kısımlar olacağını söylüyor.

“Eski bir finans satın alma elemanıyım; bir envantere ihtiyacım var; yönetilecek varlıkları keşfetmem gerekiyor” diyor. “Yapay zeka nerede kullanılıyor? Bana sağladıkları teknolojiye dahil etmeye başladıkları için bunu üçüncü bir taraftan nereden alıyorum ve daha sonra üçüncü taraf risk yönetimime doğru soruları nasıl sorarak onların bu konuda bilgi sahibi olduklarından emin olabilirim. doğru mu yaptım?”

Haritalama, kuruluşun ortamındaki tüm yapay zeka kullanımlarının belirlenmesini, bu uygulamaların olası emniyet ve güvenlik risklerinin belgelenmesini ve üçüncü taraf tedarik zincirlerinin yapay zeka riski açısından incelenmesini içerir. Ölçme, yapay zeka riskini tespit etmek ve yönetmek için ölçümlerin tanımlanmasına ve ayrıca yapay zeka uygulamalarının sürekli izlenmesine odaklanır.

Operasyonel Teknoloji Daha Sıkı Kontroller Gerektiriyor

DHS belgesi, özellikle operasyonel farkındalık, performans optimizasyonu ve otomasyon dahil olmak üzere en iyi yapay zeka kullanım kategorileriyle yapay zeka modellerini ve platformlarını lojistik ve siber savunma gibi uzun süredir devam eden zorlukları çözmek için olası çözümler olarak gören kritik altyapı sahipleri ve operatörlerine odaklanıyor operasyonların.

Operasyonel teknoloji dünyasında yapay zekanın kullanılması, şirketlerin verilerin buluta güvenli bir şekilde aktarılması konusunda endişelenmesi gerektiği anlamına geliyor çünkü daha küçük makine öğrenimi modelleri şirket içinde çalışabilirken, en gelişmiş yapay zeka modelleri bulutta bir hizmet olarak çalıştırılıyor, diyor Phil Tonkin, kritik altyapılara yönelik siber güvenlik sağlayıcısı Dragos’un saha CTO’su.

Bu nedenle kuruluşların buluta gönderilen veri miktarını en aza indirmesi, bu iletişimleri güvence altına alması ve kötü niyetli faaliyete işaret edebilecek anormal davranışlara karşı bağlantıyı izlemesi gerektiğini söylüyor.

Tonkin, “Bu yapay zeka hizmeti ile OT sistemi arasında güven oluşturabilseniz de, artık güvenilen bağlantılardan gelebilecek potansiyel risklere hâlâ sahipsiniz” diyor. “Dolayısıyla, içeri ve dışarı tüm trafiği izlemek, bunu yapmanın tek yoludur.”

DHS, yapay zekayı halihazırda uygulamış veya uygulama sürecindedir. dört pilot program.

Siber Güvenlik ve Altyapı Güvenliği Ajansı, kritik altyapı ve ABD hükümet sistemlerindeki yazılım açıklarını tespit etmek ve düzeltmek için yapay zeka siber güvenlik sistemlerini kullanan bir pilot çalışmayı zaten tamamladı. DHS ayrıca, Ulusal Güvenlik Soruşturmaları kurumunun fentanil dağıtımını ve çocukların cinsel istismarını araştırmasına yardımcı olmak için bir yapay zeka platformu kullanacağını ve Federal Acil Durum Yönetim Ajansı’nın, toplulukları riskleri azaltmaya ve dayanıklılığı artırmaya yönelik planlar geliştirmede desteklemek için yapay zekayı kullanmayı planladığını duyurdu. Son olarak, Amerika Birleşik Devletleri Vatandaşlık ve Göçmenlik Hizmetleri, memur eğitimini geliştirmek için yapay zekayı kullanmayı planlıyor.





Source link