Pazar günü, ABD Siber Güvenlik ve Altyapı Güvenliği Ajansı (CISA) ve Birleşik Krallık Ulusal Siber Güvenlik Merkezi, Güvenli Yapay Zeka Sistemi Geliştirme için yeni Kılavuzlar yayınladı.
23 yerli ve uluslararası siber güvenlik kuruluşu tarafından ortaklaşa mühürlenen Kılavuzlar, Beyaz Saray’ın yapay zeka riskini azaltmaya yönelik devam eden çabalarına ve tasarım gereği güvenlik felsefesine dayanıyor. Yapay zeka sistemlerinde güvenliğin oluşturulmasına yönelik bir taslak sunuyorlar, ancak Avrupa Birliği’nin yeni Yapay Zeka Yasasının aksine, sektöre herhangi bir kural veya düzenleme getirme konusunda yetersiz kalıyorlar. Bu nedenle yapay zeka şirketlerinin artık kendi takdirine bağlı olarak takip edecekleri veya göz ardı edecekleri bir kılavuzu var.
Endor Labs’ın güvenlik baş danışmanı ve CISA’nın siber inovasyon uzmanı Chris Hughes, “Sektör yapay zekayı iyi yönde ama aynı zamanda kötü niyetli yollarla benimsemek için birçok yenilikçi yol buluyor” diyor. “Bu, AI’nın burada kalacağının bir kabulüdür ve güvenliği şimdi kurmak yerine daha sonra cıvatalamaktan kaçınmak için bunun önüne geçmeye çalışmalıyız.”
ABD ve İngiltere’de Yapay Zeka için Yeni Kılavuzlar
CISA ve NCSC yeni yönergelerini dört ana bölüme ayırdı.
Güvenli tasarıma ilişkin ilk bölüm, potansiyel riskleri ve tehdit modellemenin yanı sıra bu ilk tasarım aşamasında dikkate alınması gereken potansiyel ödünleri kapsar.
Güvenli geliştirme, ikinci bölüm, tedarik zinciri güvenliği, dokümantasyon ve varlık ve teknik borç yönetimiyle ilgili endişeler de dahil olmak üzere yapay zeka geliştirme yaşam döngüsünü kapsar.
Daha sonra, yönergeler kuruluşlara nasıl güvenli bir şekilde dağıtım yapacakları konusunda tavsiyelerde bulunur; uzlaşmalardan kaçınmak, olay yönetimini uygulamak vb.
Son bölüm, izleme, günlüğe kaydetme, güncelleme ve bilgi paylaşımı da dahil olmak üzere yapay zeka destekli teknolojilerin dağıtım sonrası işletimi ve bakımıyla ilgili her şeyi kapsar.
Hughes, “Tekerleği yeniden yaratmayı amaçlamıyoruz” diye açıklıyor. Bunun yerine, “CISA’nın tasarım gereği güvenli sistemler ve yazılımlar konusunda devam eden diyaloğu dikkatimi çekti. Trendi sürdürüyor ve sorumluluğu yazılım tedarikçilerine ve satıcılarına yüklüyor; bu sadece CISA tarafından vurgulanmayan bir şey. ama aynı zamanda NCSC’yi de.”
Düzenleme: Daha Hafif Bir Dokunuş mu, Daha Ağır Bir Dokunuş mu?
Haziran ayında AB, AI endüstrisi için güven ve hesap verebilirliği amaçlayan yeni yasaları tanımlayan “Yapay Zeka Yasası” olarak adlandırılan yasayı ezici bir çoğunlukla kabul etti.
Buna karşılık, CISA ve NCSC yalnızca yapay zeka geliştiricileri ve onlara güvenen şirketler için önerilerde bulundu.
Hughes, “Bu sadece bir kılavuz, sadece bir öneri. Sanırım ‘yapmalı’ sözcüğünü 51 kez kullanıyor” diye vurguluyor.
Bu nedenle bunların gerçek düzenleme kadar etkili olma ihtimalinin düşük olduğunu itiraf ediyor. “Bildiğimiz gibi, güvenliğin bir maliyeti var; bazen işleri yavaşlatabilir veya sürtüşmeye neden olabilir. Pazara giriş hızı, gelir ve buna benzer teşvikler söz konusu olduğunda insanlar bunu yapmama eğiliminde olur. yapmaları gerekmeyen şey.”
Ancak bunun iyi mi kötü mü olduğu tartışmaya açık. “Tüketiciler ve vatandaşlar için güvenlik ve mahremiyet perspektifinden yaklaşırsanız, düzenlemenin daha iyi olduğuna dair bir argüman var. Bu, gizlilik ve güvenlik için güvenliği, tedbiri, yönetişimi ve korumaları dayatıyor. Ama aynı zamanda inkar da yok. Uyumluluk ve düzenleyici önlemlerin hantal ve bürokratik olabileceğini ve inovasyon üzerinde etkisi olan daha genç, yıkıcı şirketleri bir nevi dışarıda bırakabileceğini” diye ekliyor Hughes. “Bazı yazılım tedarikçilerinin bunu alıp rekabette fark yaratan bir unsur olarak kullanacaklarını umuyorum.”