Geçen ay, 120 sayfalık bir ABD başkanlık emri, Biden yönetiminin yapay zeka teknolojileri geliştiren şirketleri denetleme planlarını ve federal hükümetin yapay zekayı benimsemesini nasıl genişletmesi gerektiğine ilişkin direktifleri ortaya koyuyordu. Ancak belge özünde ağırlıklı olarak yapay zeka ile ilgili güvenlik sorunlarına odaklanıyordu; hem yapay zeka ürünlerindeki güvenlik açıklarını bulup düzeltmek, hem de yapay zekanın körüklediği potansiyel siber güvenlik saldırılarına karşı savunmalar geliştirmek. Herhangi bir idari emirde olduğu gibi, sorun, geniş ve soyut bir belgenin nasıl somut bir eyleme dönüştürüleceğidir. Bugün, ABD Siber Güvenlik ve Altyapı Güvenliği Ajansı (CISA), emri uygulamaya yönelik planını ortaya koyan bir “Yapay Zeka Yol Haritası”nı açıklayacak.
CISA, yapay zeka siber güvenliği ve altyapıyla ilgili kritik konuları ele alma planlarını beş gruba ayırıyor. Bunlardan ikisi, kamu ve özel ortaklıklar arasında iletişimin, işbirliğinin ve iş gücü uzmanlığının teşvik edilmesini içerirken, üçü daha somut olarak EO’nun belirli bileşenlerinin uygulanmasıyla ilgilidir. CISA, ABD İç Güvenlik Bakanlığı (DHS) bünyesinde yer almaktadır.
CISA direktörü Jen Easterly, WIRED’e önceden şunları söyledi: “Bunu ortaya koyabilmek ve hem misyonumuz için yapmamız gereken geniş kapsamlı şeylerden hem de idari emirlerde bulunanlardan açıkçası kendimizi sorumlu tutabilmek önemli.” yol haritasının yayınlanması. “Yazılım olarak yapay zekanın toplum üzerinde olağanüstü etkileri olacağı açık, ancak hayatlarımızı daha iyi ve kolay hale getireceği gibi, büyük ve küçük düşmanlarımız için de aynısını yapabilir. Dolayısıyla odak noktamız, bu sistemlerin emniyetli ve emniyetli bir şekilde geliştirilmesini ve uygulanmasını nasıl sağlayabileceğimizdir.”
CISA’nın planı yapay zekayı sorumlu bir şekilde kullanmaya odaklanıyor, ancak aynı zamanda ABD dijital savunmasında da agresif bir şekilde. Easterly, kurumun yapay zeka destekli savunma yeteneklerinin geliştirilmesi açısından “hız yerine güvenliğe odaklandığını”, ancak gerçek şu ki saldırganların bu araçları kullanacakları (bazı durumlarda zaten kullanıyorlar) dolayısıyla bunun gerekli olduğunu vurguluyor. ABD hükümetinin de bunları kullanması acildir.
Bunu akılda tutarak, CISA’nın yapay zekanın dijital savunmada kullanımını teşvik etme yaklaşımı, hem kamu hem de özel sektörün geleneksel siber güvenlikten alabileceği yerleşik fikirler etrafında şekillenecek. Easterly’nin belirttiği gibi, “Yapay zeka bir tür yazılımdır ve biz ona yeni kuralların uygulanması gereken egzotik bir şey gibi davranamayız.” Yapay zeka sistemleri “tasarım gereği güvenli” olmalıdır; bu, tamamlanmış bir platforma sonradan düşünülerek geriye dönük olarak koruma eklemeye çalışmak yerine kısıtlamalar ve güvenlik göz önünde bulundurularak geliştirilmiş olmaları anlamına gelir. CISA ayrıca yapay zeka sistemlerini incelemeye ve tedarik zinciri denetimlerine açık tutmak için “yazılım malzeme listelerinin” ve diğer önlemlerin kullanımını teşvik etmeyi amaçlıyor.
“Yapay zeka üreticileri [need] Easterly, güvenlik sonuçlarının sorumluluğunu üstlenmek; yükü, buna en fazla dayanabilecek şirketlerin üzerine yükleme fikrinin tamamı budur, diyor Easterly. “Bu teknolojileri inşa eden ve tasarlayanlar bunlardır ve bu, radikal şeffaflığı benimsemenin önemiyle ilgilidir. Bu yazılımın içinde ne olduğunu bildiğimizden emin oluyoruz, böylece korunduğundan emin olabiliriz.”