En önemli LLM güvenlik açıkları ve ilgili riskin nasıl azaltılacağı


Büyük dil modelleri (LLM’ler) daha yaygın hale geldikçe, LLM tehdit ortamının kapsamlı bir şekilde anlaşılması zor olmaya devam ediyor. Ancak bu belirsizlik, ilerlemenin durma noktasına gelmesi gerektiği anlamına gelmiyor: Yapay zekayı keşfetmek rekabetçi kalabilmek için çok önemli; bu da CISO’ların ortaya çıkan yapay zeka tehditlerini anlama ve ele alma konusunda yoğun baskı altında olduğu anlamına geliyor.

Yüksek Lisans güvenlik açıkları

Yapay zeka tehdit ortamı her gün değişirken, günümüzde kurumsal operasyonlar için önemli risk teşkil ettiğini bildiğimiz bir avuç LLM güvenlik açığı bulunmaktadır. Siber ekiplerin bu güvenlik açıklarının neler olduğu ve bunların nasıl azaltılacağı konusunda güçlü bir kavrayışı varsa, işletmeler aşırı risk almadan LLM’lerle yenilik yapmaya devam edebilir.

1) İstemi ve veri sızıntısı

Yüksek Lisans’larda veri sızıntısı olasılığı gerçek ve büyüyen bir endişe kaynağıdır. Yüksek Lisans’lar hassas kurumsal veya kullanıcı bilgilerini ifşa edecek şekilde “kandırılabilir” ve bu da bir dizi gizlilik ve güvenlik endişesine yol açabilir. Hızlı sızıntılar başka bir büyük sorundur. Kötü niyetli bir kullanıcı sistem istemine erişim sağlarsa şirketin fikri mülkiyeti tehlikeye girebilir.

Her iki güvenlik açığı da giderek daha popüler ve tehlikeli bir hackleme tekniği olan hızlı enjeksiyonla ilişkilidir. Hem doğrudan hem de dolaylı anında enjeksiyon saldırıları yaygınlaşıyor ve önemli sonuçlar doğuruyor. Başarılı anlık enjeksiyon saldırıları, eklentiler arası istek sahteciliğine, siteler arası komut dosyası oluşturmaya ve eğitim verilerinin çıkarılmasına yol açabilir; bunların her biri şirket sırlarını, kişisel kullanıcı verilerini ve temel eğitim verilerini riske atar.

Bununla birlikte işletmelerin yapay zeka uygulama geliştirme yaşam döngüsü boyunca bir kontrol sistemi uygulaması gerekiyor. Verilerin kaynaklanması ve işlenmesinden uygulamanın seçilmesi ve eğitilmesine kadar her adımda, ihlal riskini azaltan sınırlamalar dikkate alınmalıdır. Korumalı alan oluşturma, beyaz listeye alma ve API ağ geçitleri gibi rutin güvenlik uygulamaları, LLM’lerle uğraşırken (daha fazla olmasa bile) aynı derecede değerlidir. Bunun ötesinde ekipler, tüm eklentileri bir LLM uygulamasıyla entegre etmeden önce dikkatlice incelemelidir ve tüm yüksek ayrıcalıklı görevler için insan onayı esas olmaya devam etmelidir.

2) Ödün verilmiş model performansı

Yapay zeka modellerinin etkinliği veri kalitesine bağlıdır. Ancak ön eğitimden ince ayar ve yerleştirmeye kadar model geliştirme süreci boyunca eğitim veri kümeleri bilgisayar korsanlarına karşı savunmasızdır.

Çoğu kuruluş, bilinmeyen bir kişinin verileri yönettiği üçüncü taraf modellerinden yararlanır ve siber ekipler, verilere müdahale edilmediğine körü körüne güvenemez. Üçüncü taraf veya sahip olunan bir modeli kullanmanızdan bağımsız olarak, kötü aktörler tarafından her zaman “veri zehirlenmesi” riski olacaktır; bu, model performansı üzerinde önemli bir etkiye sahip olabilir ve ardından markanın itibarına zarar verebilir.

Açık kaynaklı AutoPoison çerçevesi, talimat ayarlama işlemi sırasında veri zehirlenmesinin bir modeli nasıl etkileyebileceğine dair net bir genel bakış sağlar. Ek olarak aşağıda siber ekiplerin riski azaltmak ve yapay zeka modeli performansını en üst düzeye çıkarmak için uygulayabileceği bir dizi strateji yer almaktadır.

  • Tedarik zinciri incelemesi: Veri kaynaklarının her türlü hava geçirmez güvenlik önlemleriyle temiz olduğunu doğrulamak için tedarik zincirini inceleyin. “Veriler nasıl toplandı?” gibi sorular sorun. ve “Uygun rıza ve etik hususlar dikkate alındı ​​mı?” Ayrıca verileri kimin etiketleyip açıklama eklediğini, niteliklerini, etiketlerde herhangi bir önyargı veya tutarsızlık olup olmadığını da sorgulayabilirsiniz. Ayrıca, verilerin kime ait olduğu ve lisanslama hüküm ve koşullarının neler olduğu da dahil olmak üzere, veri sahipliği ve lisanslama konularını ele alın.
  • Veri temizleme ve temizleme: Modellere girmeden önce tüm verileri ve kaynakları kontrol ettiğinizden emin olun. Örneğin, PII modele yerleştirilmeden önce düzenlenmelidir.
  • Kırmızı takım egzersizleri: Modelin yaşam döngüsünün test aşamaları sırasında Yüksek Lisans odaklı kırmızı takım egzersizleri gerçekleştirin. Özellikle kötü amaçlı kod, önyargı veya zararlı içerik eklemek için eğitim verilerinin manipüle edilmesini içeren test senaryolarına öncelik verin ve rakip girdiler, zehirleme saldırıları ve model çıkarma teknikleri de dahil olmak üzere çok çeşitli saldırı yöntemlerini kullanın.

3) Güvenliği ihlal edilmiş birbirine bağlı sistemler

GPT-4 gibi gelişmiş modeller genellikle diğer uygulamalarla iletişim kurabilecekleri sistemlere entegre edilir. Ancak bir API söz konusu olduğunda, alt sistemler için bir risk söz konusudur. Bu, kötü niyetli bir istemin birbirine bağlı sistemler üzerinde domino etkisi yaratabileceği anlamına gelir. Bu riski azaltmak için aşağıdakileri göz önünde bulundurun:

  • LLM’nin harici API’leri çağırmasına izin veriliyorsa, potansiyel olarak yıkıcı eylemleri gerçekleştirmeden önce kullanıcı onayı isteyin.
  • Farklı sistemler birbirine bağlanmadan önce LLM çıktılarını gözden geçirin. Uzaktan kod yürütme (RCE) gibi risklere yol açabilecek olası güvenlik açıklarına karşı bunları kontrol edin.
  • Bu çıktıların farklı bilgisayar sistemleri arasındaki etkileşimi kolaylaştırdığı senaryolara özellikle dikkat edin.
  • Birbirine bağlı sistemde yer alan tüm API’ler için sağlam güvenlik önlemleri uygulayın.
  • Yetkisiz erişime ve veri ihlallerine karşı koruma sağlamak için güçlü kimlik doğrulama ve yetkilendirme protokolleri kullanın.
  • Olağandışı istek kalıpları veya güvenlik açıklarından yararlanma girişimleri gibi anormallikler ve şüpheli davranış belirtileri açısından API etkinliğini izleyin.

4) Ağ bant genişliği doygunluğu

Ağ bant genişliği doygunluğu güvenlik açıkları, saldırganlar tarafından hizmet reddi (DoS) saldırısının bir parçası olarak kullanılabilir ve LLM kullanım maliyetleri üzerinde acı verici bir etkiye sahip olabilir.

Model hizmet reddi saldırısında, saldırgan, bant genişliği veya sistem işlem gücü gibi kaynakları aşırı tüketecek ve sonuçta hedeflenen sistemin kullanılabilirliğine zarar verecek şekilde modelle etkileşime girer. Buna karşılık, işletmeler hizmetlerde bozulma ve çok yüksek fatura. DoS saldırıları siber güvenlik alanında yeni olmadığından, model hizmet reddi saldırılarına karşı savunma yapmak ve hızla artan maliyet riskini azaltmak için kullanılabilecek çeşitli stratejiler vardır.

  • Hız sınırlaması: Sisteminizin aşırı sayıda istek nedeniyle bunaltılmasını önlemek için hız sınırlaması uygulayın. Uygulamanız için doğru hız sınırını belirlemek, model boyutuna ve karmaşıklığına, donanıma ve altyapıya, ortalama istek sayısına ve yoğun kullanım süresine bağlı olacaktır.
  • Karakter sınırları: LLM tabanlı API’nizi kaynak tükenmesinden korumak için bir kullanıcının bir sorguya ekleyebileceği karakter sayısına sınırlar belirleyin.
  • Çerçeve tarafından sağlanan yöntemler: Saldırılara karşı savunmayı güçlendirmek için çerçeve sağlayıcıları tarafından sağlanan yöntemlerden yararlanın. Örneğin, LangChain kullanıyorsanız max_iterations parametresini kullanmayı düşünün.

LLM’lerin korunması, veri işleme, model eğitimi, sistem entegrasyonu ve kaynak kullanımının dikkatli bir şekilde değerlendirilmesini içeren çok yönlü bir yaklaşım gerektirir. Ancak önerilen stratejileri uygulayarak ve dikkatli kalarak işletmeler LLM’lerin gücünden yararlanırken ilgili riskleri de en aza indirebilirler.





Source link