Büyük veri çağında, büyük veri kümeleri üzerinde büyük görüntü transformatörü (ViT) modellerinin ön eğitimi, aşağı yönlü görevlerde gelişmiş performans için yaygın hale geldi.
Önceden eğitilmiş omurgayı dondururken göreve özel öğrenilebilir parametreler sunan görsel yönlendirme (VP), tam ince ayara etkili bir adaptasyon alternatifi sunar.
Ancak Başkan Yardımcısı’nın potansiyel güvenlik riskleri henüz keşfedilmemiş durumda. Tsinghua Üniversitesi, Tencent Güvenlik Platformu Departmanı, Zhejiang Üniversitesi, Yapay Zeka Araştırma Merkezi ve Peng Cheng Laboratuvarı’ndan aşağıdaki siber güvenlik analistleri, yakın zamanda bir bulut hizmeti senaryosunda Başkan Yardımcısı için, tehdit aktörlerinin ekstra bir güvenlik duvarı ekleyebileceği veya kaldırabileceği yeni bir arka kapı saldırısı tehdidini ortaya çıkardı. Temiz ve arka kapılı modlar arasında gizlice geçiş yapmak için bilgi istemi belirtecini “değiştirin”: –
- Sheng Yang
- Jiawang Bai
- Kuofeng Gao
- Yong Yang
SWARM – Değiştirilebilir Arka Kapı Saldırısı
Araştırmacıların önerdiği, önceden eğitilmiş Modellere (SWARM) karşı Değiştirilebilir Saldırı; temiz kayıp, arka kapı kaybı ve çapraz mod özelliği damıtması yoluyla bir tetikleyiciyi, temiz istemleri ve anahtar belirtecini optimize ederek, etkinleştirildiğinde hedefin yanlış sınıflandırılmasını zorlarken anahtar olmadan normal davranışı garanti eder .
ANYRUN kötü amaçlı yazılım korumalı alanının 8.’si Doğum Günü Özel Teklifi: 6 Aylık Ücretsiz Hizmet Kazanın
Görsel görevler üzerinde yapılan deneyler, SWARM’ın yüksek saldırı başarı oranını ve kaçınma yeteneğini göstermektedir.
Burada, rahatsız edici bir bulut hizmeti sağlayıcısı bir tehdit aktörü olarak hareket eder; bu, mevcut arka kapı saldırı senaryolarına dayanmaktadır.
Bu kullanıcılar, görev veri kümelerini ve önceden eğitilmiş modelleri tehdit aktörünün hizmetine gönderir.
Ayrıca arka kapıları belirlemeye ve azaltmaya çalışırken saldırganların eğitimli API’sini de uygularlar.
Rakip, kullanıcı örneklerini yönetmez ancak istem girişlerini kontrol eder. Normal modda bir model, tetiklenen modelleri herhangi bir algılama olmadan işlemelidir.
Arka kapı modunda saldırı başarı oranının yüksek olması gerekir. Bu saldırı, temiz örnekler üzerinde doğru tahminler yaparak ve bir “değiştirme” tetikleyicisi eklendiğinde bunları yanlış sınıflandırarak tetikleyicileri gizlemeyi amaçlamaktadır.
Tehdit aktörü, aşağı akış veri kümesini anlar ve görsel yönlendirme yoluyla istemleri buna göre ayarlar.
Görsel yönlendirme, yerleştirme katmanından sonra öğrenilebilir bilgi istemi belirteçleri ekler, böylece eğitim sırasında yalnızca göreve özgü parametreler değiştirilir.
Kullanıcılar bu riski gidermek için Nöral Dikkat Damıtma (NAD) ve I-BAU gibi artırılmış temiz verileri ve azaltma tekniklerini kullanabilir.
Araştırmacıların deneyleri, SWARM’ın NAD’ye karşı %96 ve I-BAU’ya karşı %97’nin üzerinde ASR elde ettiğini ve bunun sonucunda temel saldırılardan önemli bir farkla daha iyi performans gösterdiğini ortaya koyuyor.
Bu, SWARM’ın tespitten kaçma ve tehditleri azaltma yeteneğini gösterir, bu da sonuç olarak mağdurlara yönelik tehlikeyi artırır.
Araştırmacılar, temiz mod ile arka kapılı mod arasında görünmez geçişler yapmak için ekstra bir anahtar belirteci ekleyen, önceden eğitilmiş görüntü transformatörlerini görsel komutlarla uyarlamak için yeni bir arka kapı saldırısı markası öneriyor.
SWARM, yeni bir saldırı mekanizmaları alanına işaret ederken aynı zamanda gelecekteki savunma araştırmalarına hız kazandırıyor.
Ücretsiz Web Semineri Canlı API Saldırı Simülasyonu: Yerinizi Ayırın | API’lerinizi bilgisayar korsanlarından korumaya başlayın