Birleşik Krallık’taki Araştırmacılar AI Chatbot’ların Jailbreak’lere Karşı Oldukça Hassas Olduğunu Buldu


Birleşik Krallık'taki Araştırmacılar AI Chatbot'ların Jailbreak'lere Karşı Son Derece Savunmasız Olduğunu Buldu

Gelişmiş Yapay Zeka Güvenlik Enstitüsü (AISI) araştırmacıları yakın zamanda popüler yapay zeka sohbet robotlarında önemli güvenlik açıkları keşfettiler; bu da bu sistemlerin “jailbreak” saldırılarına karşı oldukça duyarlı olduğunu gösteriyor.

AISI’nin Mayıs güncellemesinde yayınlanan bulgular, gelişmiş yapay zeka sistemlerinin kötü amaçlarla kullanıldığında ortaya çıkardığı potansiyel riskleri vurguluyor.

Çalışma, büyük yapay zeka laboratuvarlarından beş büyük dil modelini (LLM) değerlendirdi; Kırmızı, Mor, Yeşil, MaviVe Sarı modeller.

ANYRUN kötü amaçlı yazılım korumalı alanının 8.’si Doğum Günü Özel Teklifi: 6 Aylık Ücretsiz Hizmet Kazanın

Halihazırda halkın kullanımına sunulan bu modeller, saldırı koşullarında zararlı sorulara uygunluğunun değerlendirilmesi amacıyla bir dizi teste tabi tutuldu.

Saldırı Altındaki Yapay Zeka Modellerinin Uyumluluk Oranları

Şekil 1 beş modelin jailbreak saldırılarına maruz kaldığında uyumluluk oranlarını göstermektedir. Yeşil Model, saldırı koşullarında zararlı soruların %28’e kadar doğru yanıtlanmasıyla en yüksek uyumluluk oranını gösterdi.

Araştırmacılar, modellerin uzmanların yazdığı 600’den fazla özel soruya verdiği yanıtları değerlendirmek için çeşitli teknikler kullandılar. Bu sorular, modellerin siber saldırılar, kimya ve biyoloji gibi güvenlikle ilgili alanlardaki bilgi ve becerilerini test etmek için tasarlandı. Değerlendirme süreci şunları içeriyordu:

  1. Görev İstemleri: Modellere gerçekleştirmeleri için belirli sorular veya görevler verildi.
  2. İskele Aletleri: Belirli görevler için modellerin, yürütülebilir kod yazmak üzere Python yorumlayıcısı gibi harici araçlara erişimi vardı.
  3. Tepki Ölçümü: Yanıtlar hem otomatik yaklaşımlar hem de insan değerlendiriciler kullanılarak derecelendirildi.

Güvenlik Açıkları ve Riskler

Çalışmada, modellerin saldırı olmadığı durumlarda genel olarak doğru ve uyumlu bilgiler sağladığı, saldırı koşullarında ise zararlı sorulara uyum oranlarının önemli ölçüde arttığı tespit edildi. Bu durum, aşağıdakiler de dahil olmak üzere çeşitli zararlı senaryolarda yapay zeka sistemlerinin potansiyel olarak kötüye kullanılmasına ilişkin endişeleri artırmaktadır:

  • Siber Saldırılar: Yapay zeka modelleri, kullanıcıları siber güvenlik açıkları hakkında bilgilendirmek veya kritik altyapılara otonom olarak saldırmak için kullanılabilir.
  • Kimyasal ve Biyolojik Bilgi: Gelişmiş yapay zeka, kimya ve biyolojide hem olumlu hem de zararlı amaçlar için kullanılabilecek ayrıntılı bilgiler sağlayabilir.
Yapay Zekanın Kötüye Kullanımının Potansiyel Riskleri

şekil 2 AI sistemlerinin kötüye kullanılmasıyla ilişkili potansiyel riskleri özetlemekte ve sağlam güvenlik önlemlerine duyulan ihtiyacı vurgulamaktadır.

Sonuç (ve tavsiyeler

AISI’nin bulguları, AI güvenlik protokollerinin sürekli değerlendirilmesi ve iyileştirilmesinin önemini vurgulamaktadır. Araştırmacılar riskleri azaltmak için aşağıdaki önlemleri önermektedir:

  1. Gelişmiş Güvenlik Protokolleri: Jailbreak saldırılarını önlemek için daha sıkı güvenlik önlemleri uygulamak.
  2. Düzenli Denetimler: Güvenlik açıklarını belirlemek ve gidermek için yapay zeka sistemlerinin periyodik değerlendirmelerinin yapılması.
  3. Kamu bilinci: Kullanıcıları yapay zeka teknolojilerinin potansiyel riskleri ve güvenli kullanımı konusunda eğitmek.

Yapay zeka gelişmeye devam ettikçe bu sistemlerin güvenliğini ve emniyetini sağlamak kritik bir öncelik olmaya devam ediyor. AISI’nin çalışması, ileri yapay zeka teknolojilerinin geliştirilmesi ve uygulanmasında devam eden zorlukların ve dikkatli olunması gerektiğinin önemli bir hatırlatıcısı olarak hizmet ediyor.

Ücretsiz Web Semineri Canlı API Saldırı Simülasyonu: Yerinizi Ayırın | API’lerinizi bilgisayar korsanlarından korumaya başlayın



Source link