Amerika’nın NIST’i, yapay zekanın güvenli olmadığını söylüyor – Güvenlik


ABD Ulusal Standartlar ve Teknoloji Enstitüsü (NIST), şu anda “geliştiricilerin kullanabileceği kusursuz bir savunma olmadığını” söyleyerek, satıcıların yapay zeka güvenliğine ilişkin iddialarının kabul edilmesine karşı uyarıda bulundu.

Amerika'nın NIST'i yapay zekanın güvenli olmadığını söylüyor


NIST, geçen hafta sonlarında yapay zeka saldırıları ve hafifletmelerine ilişkin bir sınıflandırma yayınladığında bu uyarıyı vermişti.

Enstitü, örneğin bir yapay zeka programının web sitelerinden veya halkla olan etkileşimlerden girdi alması durumunda, kendisine güvenilmez veriler sağlayan saldırganlara karşı savunmasız olduğuna dikkat çekiyor.

NIST, “Yapay zekayı yanlış yönlendirmeden korumak için henüz kusursuz bir yöntem mevcut değil ve yapay zeka geliştiricileri ve kullanıcıları aksini iddia edenlere karşı dikkatli olmalıdır” dedi.

Belgede, saldırıların “korkunç sonuçlara yol açan olağanüstü başarısızlıklara neden olabileceği” ifade edilerek, “tüm yöntemlere (yani resimler, metin, konuşma ve tablo verileri) yönelik güçlü eşzamanlı saldırılara” karşı uyarıda bulunuldu.

Raporda, “Temel olarak, modern yapay zeka sistemlerinde kullanılan makine öğrenimi metodolojisi, modeli açığa çıkaran genel API’ler aracılığıyla ve bunların konuşlandırıldığı platformlara yönelik saldırılara karşı hassastır” denildi.

Rapor, platformlara yönelik saldırılardan ziyade yapay zekaya yönelik saldırılara odaklanıyor.

Raporda dört temel saldırı türü vurgulanıyor: kaçırma, zehirlenme, mahremiyet ve istismar.

Kaçınma, bir yapay zeka modelinin davranışlarını değiştirmek için girdileri manipüle etmek anlamına gelir; örneğin, otonom bir aracın bunları yanlış yorumlayabilmesi için dur işaretlerine işaretler eklemek.

Zehirleme saldırıları yapay zeka modelinin eğitim aşamasında meydana gelir; örneğin bir saldırgan, chatbot’un konuşma kayıtlarına uygunsuz bir dil ekleyerek bu dilin müşterilere karşı kullanılmasını sağlayabilir.

Gizlilik saldırılarında saldırgan, yapay zeka modelinin eğitim verileriyle ilgili bilgileri açığa çıkarmasını sağlamak için tasarlanmış sorular hazırlar. Amaç, modelin hangi özel bilgileri barındırabileceğini ve bu verilerin nasıl ortaya çıkarılacağını öğrenmektir.

Son olarak, kötüye kullanım saldırıları “yapay zeka sisteminin kullanım amacını yeniden belirlemek için yapay zekaya meşru ancak güvenliği ihlal edilmiş bir kaynaktan yanlış bilgi parçaları vermeye çalışır.”

Northeastern Üniversitesi’nden profesör olan ortak yazar Alina Oprea, “Bu saldırıların çoğunun kurulumu oldukça kolaydır ve yapay zeka sistemi hakkında minimum bilgi ve sınırlı düşman yetenekleri gerektirir” dedi.

“Örneğin zehirleme saldırıları, tüm eğitim setinin çok küçük bir yüzdesini oluşturacak olan birkaç düzine eğitim örneğinin kontrol edilmesiyle gerçekleştirilebilir.”

Oprea’nın 106 sayfalık kitabın ortak yazarları [pdf] NIST bilgisayar bilimcisi Apostol Vassilev ve Robust Intelligence’tan Alie Fordyce ve Hyrum Anderson vardı.



Source link