Bu ses otomatik olarak oluşturulur. Geri bildiriminiz varsa lütfen bize bildirin.
Dalış Kılavuzu:
- AI sistemleri tasarlayan şirketler, eğitim verilerini kurcalamadan korumalı ve altta yatan altyapıya kesin olarak sınırlandırmalı, ABD ve üç müttefik ortak rehber belge Perşembe günü yayınlandı.
- AI güvenlik rehberliği, AI sistemlerinin yaşam döngüsü boyunca verilerin korunması, tedarik zinciri düşünceleri ve büyük veri setlerine olası saldırıları azaltma yolları dahil olmak üzere birçok konuyu ele almaktadır.
- Çok taraflı uyarı, ABD ve müttefik ülkelerdeki, kritik altyapı boyunca dalgalanabilen güvenlik açıkları içeren güçlü AI modelleri hakkındaki endişeleri yansıtmaktadır.
Dalış içgörü:
FBI, Siber Güvenlik ve Altyapı Güvenlik Ajansı ve Ulusal Güvenlik Ajansı, güvenli AI gelişimi için en iyi uygulama belgesi üretmek üzere Avustralya, Yeni Zelanda ve İngiltere’den siber güvenlik ajanslarıyla işbirliği yaptı.
Ülkeler, “Bu bilgi sayfasında özetlenen ilkeler, AI verilerinin güvence altına alınması ve AI odaklı sonuçların güvenilirliğini ve doğruluğunu sağlamak için sağlam bir temel sağlar” dedi.
Giderek daha fazla şirket AI’yi operasyonlarına entegre etmek için acele ettikçe, bazen çok az öngörü veya gözetim ile danışmanlık önemli bir anda gelir. Batılı hükümetler, Rusya, Çin ve diğer rakiplerin AI güvenlik açıklarını öngörülemeyen şekillerde kullanmanın yollarını bulacağından endişe duyuyorlar.
Bu riskler ancak kritik altyapı operatörleri, güçten suya, sağlık hizmetlerine kadar günlük yaşamın temel unsurlarını kontrol eden operasyonel teknolojiye yapayüz yaptıkları için artmıştır.
AI sistemlerinin temel unsurunu oluşturan verilerle, belge, planlama, veri toplama, model geliştirme, dağıtım ve işlemler dahil olmak üzere AI yaşam döngüsünün farklı aşamalarında bilgileri korumanın yollarını ele almaktadır. Değişiklikleri, yetkisiz erişimi önleyen güvenilir altyapı ve ortaya çıkan endişeleri tanımlayabilecek devam eden risk değerlendirmelerini doğrulayan dijital imzaların kullanımını teşvik eder.
Rehberlik, veri kalitesi sorunlarının kazara veya kasıtlı olarak, AI modellerinin güvenliğini ve güvenilirliğini zayıflatmasını önlemenin yollarına odaklanmaktadır. Kriptografik karmalar, belgeye göre bir modele dahil edildikten sonra ham verilerin değiştirilmemesini sağlayabilir ve düzenli kürasyon, web’de bulunan veri kümeleriyle ilgili sorunları ayıklayabilir. Rehberlik ayrıca “eğitimden önce kötü niyetli veya şüpheli veri noktalarını kaldırabilen” anomali algılama algoritmalarının kullanılmasını önermektedir.
Ortak kılavuz aynı zamanda istatistiksel önyargı, yanlış bilgi, yinelenen kayıtlar ve “veri kayması” gibi endişeleri, giriş verilerinin özelliklerinde doğal bir bozulma da ele almaktadır.