Yapay zeka siber güvenliğinin, koruduğu sistem kadar çok katmanlı olması gerekiyor


Siber suçlular, büyük dil modellerinin (LLM’ler) kendilerine sunduğu yeni kötü amaçlı seçeneklerden yararlanmaya başlıyor. LLM’ler, bağlı sistem bileşenleri tarafından yürütülen gizli talimatlar içeren belgeleri yüklemeyi mümkün kılıyor. Bu, siber suçlular için bir nimet ve dolayısıyla bunları kullanan kuruluşlar için önemli bir risk.

Yapay zeka siber güvenlik ihtiyaçları

LLM’ler birçok şekilde kandırılabilir. Siber suçlular, LLM’yi bariyerlerini aşmaya (yani zararlı çıktılar üretmeye) kandıran kötü amaçlı istemler girebilir, bu işleme jailbreaking denir. Ayrıca bir modelin yeteneklerini etkileyebilir, verileri zehirleyebilir veya LLM’ye saldırganın isteği üzerine kötü amaçlı talimatları yürütmesi talimatını verebilirler. Kötü amaçlı istemler ayrıca model ve veri çıkarımına yol açabilir ve modelin kendisi arka kapıları etkinleştiren işlevler içerebilir. Tüm bu saldırılar hassas bilgileri riske atar.

Son iki yılda gerçekleşen AI sistemlerine yönelik saldırılar, bir tür düşmanca makine öğrenimi (ML) kullanmıştır. Bu saldırılara örnek olarak, saldırganların sahte paravan şirketler oluşturarak ve vergi sisteminin müşteri olarak tanıdığı kurbanlara faturalar göndererek 77 milyon dolar dolandırıcılıkla elde ettiği Çin’deki tam ölçekli vergi dolandırıcılığı ve saldırganların gerçek kimlikleri toplayarak sahte sürücü belgeleri oluşturarak 3,4 milyon dolarlık sahte işsizlik yardımı çektiği Kaliforniya’daki işsizlik tazminatı dolandırıcılığı verilebilir; böylece sistemin kimlik doğrulama sürecindeki kusurlardan yararlanılmıştır.

Bu tür saldırılara karşı korunma, güvenlik açıklarını ve bunların üretebileceği siber zararın sıklığını, kaynağını ve kapsamını anlamakla başlar. Buradan, siber güvenlik çözümleri dört temel kategoriye ayrılır: tasarım, geliştirme, dağıtım ve operasyon.

Tasarım

Şirketler, AI’nın teknik tasarımını ve gelişimini eğitim ve dağıtımından önce değiştirerek güvenlik açıklarını başlamadan önce azaltabilirler. Örneğin, doğru model mimarisini seçmek bile önemli etkilere sahiptir, her AI modeli belirli türdeki hızlı enjeksiyon veya jailbreak’leri azaltmak için belirli yakınlıklar sergiler. Belirli bir kullanım durumu için doğru AI modelini belirlemek başarısı için önemlidir ve bu güvenlik açısından da aynı derecede geçerlidir.

Gelişim

Gömülü siber güvenliğe sahip bir AI sistemi geliştirmek, eğitim verilerinin nasıl hazırlanıp işlendiğiyle başlar. Eğitim verileri temizlenmelidir ve alınan eğitim verilerini sınırlamak için bir filtre şarttır. Giriş restorasyonu, fazladan bir rastgelelik katmanı ekleyerek saldırganın bir AI modelinin giriş-çıkış ilişkisini değerlendirme yeteneğini karıştırır.

Şirketler, Reject-On-Negative-Impact eğitimi aracılığıyla öğrenme modelinin potansiyel bozulmalarını azaltmak için kısıtlamalar oluşturmalıdır. Bundan sonra, AI modelinin düzenli güvenlik testleri ve güvenlik açığı taraması sürekli olarak yapılmalıdır.

Dağıtım sırasında geliştiriciler, kriptografik kontroller aracılığıyla değişiklikleri ve olası kurcalamaları doğrulamalıdır. Yazılımın yapılandırılmamış kodu yükleme becerisine ilişkin sıkı kısıtlamalar yoluyla kitaplık yükleme kötüye kullanımı önlenebilir. Hassas verilerin şifrelenmesi pazarlık konusu değildir.

Dağıtım

Kuruluşlar iyi güvenlik hijyeni uygulamalıdır. AI yaşam döngüleri iyi belgelenmeli ve bir kuruluşun AI risk yönetimiyle uyumlu kapsamlı bir AI girişimleri envanteri eklenmelidir. Harici paydaş geri bildirimleri toplanmalı ve sistem tasarımına entegre edilmelidir. Personel eğitimi, kırmızı takım, AI tehdit ortamının devam eden araştırması ve güçlü tedarik zinciri güvenliği yaygın uygulamalar olmalıdır.

Operasyon

Her şeyden önce, AI siber güvenliği bir araç ve yöntem kombinasyonu gerektirir. Bu, operasyon ve bakım boyunca devam eden bir süreçtir. Bu, bir kullanıcının gerçekleştirebileceği toplam sorgu sayısını sınırlamayı içerebilir.

Model karartma, bir çıkarma siber saldırısının öngöreceği tipik işlemden sapmak için model özelliklerini etkili bir şekilde değiştirir. İçerik güvenlik sistemleri, bir LLM’den gelen girdi ve çıktıyı temizleyebilir ve saldırgan girdi algılama, çıkarım için modele gönderilmeden önce sorgu trafiğini tarayabilir.

Yeni teknolojiyle karşı karşıya olan siber güvenlik tehditlerinin ortaya çıkmasını önlemek basit veya kolay olmayacaktır. Bu, birlikte kullanılan birden fazla araç ve yöntem gerektiren bir süreçtir. Bu AI güvenlik araçları ve stratejileri mevcuttur ve her geçen gün daha da olgunlaşmaktadır; eksik olan kritik bir bileşen, bunların kullanımını bir öncelik haline getirmek için sektör genelinde bir çabadır.



Source link