CISA ve NCSC, Yeni Güvenli Yapay Zeka Yönergelerinde Kurallar Değil, Bir Yol Haritası Sunuyor


Pazar günü, ABD Siber Güvenlik ve Altyapı Güvenliği Ajansı (CISA) ve Birleşik Krallık Ulusal Siber Güvenlik Merkezi yeni bir açıklama yayınladı. Güvenli Yapay Zeka Sistemi Geliştirme Yönergeleri.

23 yerli ve uluslararası siber güvenlik kuruluşu tarafından ortaklaşa mühürlenen Kılavuzlar, devam eden temellere dayanmaktadır. Beyaz Saray’ın yapay zeka riskini azaltma çabaları Ve tasarım gereği güvenli felsefe. Yapay zeka sistemlerinde güvenliğin oluşturulmasına yönelik bir taslak sunarlar, ancak bunun aksine, sektöre herhangi bir kural veya düzenleme getirme konusunda yetersiz kalırlar. Avrupa Birliği’nin son Yapay Zeka Yasası. Bu nedenle yapay zeka şirketlerinin artık kendi takdirine bağlı olarak takip edecekleri veya göz ardı edecekleri bir kılavuzu var.

Endor Labs’ın güvenlik baş danışmanı ve CISA’nın siber inovasyon uzmanı Chris Hughes, “Sektör yapay zekayı iyi yönde ama aynı zamanda kötü niyetli yollarla benimsemek için birçok yenilikçi yol buluyor” diyor. “Bu, AI’nın burada kalacağının bir kabulüdür ve güvenliği şimdi kurmak yerine daha sonra cıvatalamaktan kaçınmak için bunun önüne geçmeye çalışmalıyız.”

ABD ve İngiltere’de Yapay Zeka için Yeni Kılavuzlar

CISA ve NCSC yeni yönergelerini dört ana bölüme ayırdı.

Güvenli tasarıma ilişkin ilk bölüm, potansiyel riskleri ve tehdit modellemenin yanı sıra bu ilk tasarım aşamasında dikkate alınması gereken potansiyel ödünleri kapsar.

Güvenli geliştirme, ikinci bölüm, tedarik zinciri güvenliği, dokümantasyon ve varlık ve teknik borç yönetimiyle ilgili endişeler de dahil olmak üzere yapay zeka geliştirme yaşam döngüsünü kapsar.

Daha sonra, yönergeler kuruluşlara nasıl güvenli bir şekilde dağıtım yapacakları konusunda tavsiyelerde bulunur; uzlaşmalardan kaçınmak, olay yönetimini uygulamak vb.

Son bölüm, izleme, günlüğe kaydetme, güncelleme ve bilgi paylaşımı da dahil olmak üzere yapay zeka destekli teknolojilerin dağıtım sonrası işletimi ve bakımıyla ilgili her şeyi kapsar.

Hughes, “Tekerleği yeniden yaratmayı amaçlamıyoruz” diye açıklıyor. Bunun yerine, “CISA’nın tasarım gereği güvenli sistemler ve yazılımlar konusunda devam eden diyaloğu dikkatimi çekti. Trendi sürdürüyor ve sorumluluğu yazılım tedarikçilerine ve satıcılarına yüklüyor; bu sadece CISA tarafından vurgulanmayan bir şey. ama aynı zamanda NCSC’yi de.”

Düzenleme: Daha Hafif Bir Dokunuş mu, Daha Ağır Bir Dokunuş mu?

Haziran ayında AB, AI endüstrisi için güven ve hesap verebilirliği amaçlayan yeni yasaları tanımlayan “Yapay Zeka Yasası” olarak adlandırılan yasayı ezici bir çoğunlukla kabul etti.

Buna karşılık, CISA ve NCSC yalnızca yapay zeka geliştiricileri ve onlara güvenen şirketler için önerilerde bulundu.

Hughes, “Bu sadece bir kılavuz, sadece bir öneri. Sanırım ‘yapmalı’ sözcüğünü 51 kez kullanıyor” diye vurguluyor.

Bu nedenle bunların gerçek düzenleme kadar etkili olma ihtimalinin düşük olduğunu itiraf ediyor. “Bildiğimiz gibi, güvenliğin bir maliyeti var; bazen işleri yavaşlatabilir veya sürtüşmeye neden olabilir. Pazara giriş hızı, gelir ve buna benzer teşvikler söz konusu olduğunda insanlar bunu yapmama eğiliminde olur. yapmaları gerekmeyen şey.”

Ancak bunun iyi mi kötü mü olduğu tartışmaya açık. “Tüketiciler ve vatandaşlar için güvenlik ve mahremiyet perspektifinden yaklaşırsanız, düzenlemenin daha iyi olduğuna dair bir argüman var. Bu, gizlilik ve güvenlik için güvenliği, tedbiri, yönetişimi ve korumaları dayatıyor. Ama aynı zamanda inkar da yok. Uyumluluk ve düzenleyici önlemlerin hantal ve bürokratik olabileceğini ve inovasyon üzerinde etkisi olan daha genç, yıkıcı şirketleri bir nevi dışarıda bırakabileceğini” diye ekliyor Hughes. “Bazı yazılım tedarikçilerinin bunu alıp rekabette fark yaratan bir unsur olarak kullanacaklarını umuyorum.”





Source link