İngiltere ve ABD, diğer 16 ülkeden uluslararası ortaklarla birlikte, güvenli yapay zeka (AI) sistemlerinin geliştirilmesine yönelik yeni yönergeler yayınladı.
ABD Siber Güvenlik ve Altyapı Güvenliği Ajansı (CISA), “Yaklaşım, müşteriler için güvenlik sonuçlarının sahiplenilmesini önceliklendiriyor, radikal şeffaflığı ve hesap verebilirliği benimsiyor ve güvenli tasarımın birinci öncelik olduğu organizasyonel yapılar kuruyor.” dedi.
Ulusal Siber Güvenlik Merkezi (NCSC), amacın yapay zekanın siber güvenlik seviyelerini artırmak ve teknolojinin güvenli bir şekilde tasarlanmasını, geliştirilmesini ve konuşlandırılmasını sağlamaya yardımcı olmak olduğunu ekledi.
Yönergeler aynı zamanda ABD hükümetinin, yeni araçların kamuya açıklanmadan önce yeterince test edilmesini, önyargı ve ayrımcılık gibi toplumsal zararları ve mahremiyet kaygılarını ele alacak korkulukların mevcut olmasını sağlayarak yapay zekanın oluşturduğu riskleri yönetmeye yönelik devam eden çabalarına da dayanıyor. Tüketicilerin yapay zeka tarafından üretilen materyalleri tanımlaması için sağlam yöntemler oluşturmak.
Taahhütler aynı zamanda şirketlerin, hızlı bir şekilde bulunup düzeltilebilmeleri için bir hata ödül sistemi aracılığıyla AI sistemlerindeki güvenlik açıklarının üçüncü taraflarca keşfedilmesini ve raporlanmasını kolaylaştırmayı taahhüt etmelerini gerektiriyor.
NCSC, en son yönergelerin “geliştiricilerin siber güvenliğin hem yapay zeka sistem güvenliğinin önemli bir önkoşulu olmasını hem de ‘tasarım gereği güvenli’ yaklaşımı olarak bilinen geliştirme sürecinin başından itibaren ayrılmaz bir parçası olmasını sağlamalarına yardımcı olduğunu” söyledi.
Bu, yapay zeka sistemi geliştirme yaşam döngüsü içindeki tüm önemli alanları kapsayan, güvenli tasarım, güvenli geliştirme, güvenli dağıtım ve güvenli operasyon ve bakımı kapsar ve kuruluşların sistemlerine yönelik tehditleri modellemesinin yanı sıra tedarik zincirlerini ve altyapılarını korumasını gerektirir.
Ajanslar, amacın aynı zamanda bir modelin sınıflandırmasını etkilemek, kullanıcıların yetkisiz eylemler gerçekleştirmesine izin vermek ve hassas bilgileri çıkarmak da dahil olmak üzere çeşitli şekillerde istenmeyen davranışlara neden olmayı amaçlayan yapay zeka ve makine öğrenimi (ML) sistemlerini hedef alan düşmanca saldırılarla da mücadele etmek olduğunu belirtti.
NCSC, “Bu etkileri elde etmenin, büyük dil modeli (LLM) alanına hızlı enjeksiyon saldırıları veya eğitim verilerinin veya kullanıcı geri bildirimlerinin kasıtlı olarak bozulması (‘veri zehirlenmesi’ olarak bilinir) gibi birçok yolu vardır” dedi.