İki sistemik jailbreak ortaya çıktı, üretken AI modellerinde yaygın güvenlik açıklarını ortaya çıkardı


Üretken AI sistemlerinde iki önemli güvenlik açığı keşfedilmiştir, bu da saldırganların güvenlik protokollerini atlamasına ve birden fazla popüler AI platformundan potansiyel olarak tehlikeli içerik çıkarmasına olanak tanır.

Bu “jailbreaks”, AI endüstrisinde sistemik zayıflıkların bir modelini vurgulayan Openai, Google, Microsoft ve Antropik dahil olmak üzere endüstri liderlerinden gelen hizmetleri etkiler.

Güvenlik araştırmacıları, her ikisi de farklı platformlarda şaşırtıcı derecede benzer sözdizimi kullanan çok sayıda AI sisteminde güvenlik korkuluklarını atlayabilen iki farklı yöntem belirlemişlerdir.

– Reklamcılık –
Google Haberleri

Araştırmacı David Kuzsmar tarafından “başlangıç” olarak adlandırılan ilk güvenlik açığı, AI sistemlerinin iç içe kurgusal senaryoları nasıl ele aldığı konusunda bir zayıflıktan yararlanıyor.

Teknik, önce AI’yı zararsız bir kurgusal senaryo hayal etmeye isteyerek çalışır, daha sonra ilk olarak güvenlik kısıtlamalarının uygulanmadığı görünen ikinci bir senaryo oluşturur.

Bu sofistike yaklaşım, yapay zekanın içerik filtreleme mekanizmalarını etkili bir şekilde karıştırarak kullanıcıların yasaklanmış içeriği çıkarmalarını sağlar.

Jacob Liddle tarafından bildirilen ikinci teknik, farklı ama eşit derecede etkili bir strateji kullanıyor.

Bu yöntem, AI’dan belirli taleplere nasıl yanıt vermemesi gerektiğini açıklamasını, ardından normal sorgular ve yasaklanmış sorgular arasında geçiş yapmasını içerir.

Saldırganlar, konuşma bağlamını manipüle ederek, sistemi normalde kısıtlanacak yanıtlar sağlayarak, zararlı içeriğin üretilmesini önlemek için yerleşik güvenlik mekanizmalarını etkili bir şekilde yan yana getirebilir.

AI endüstrisinde yaygın etki

Bu güvenlik açıklarını özellikle ilgili kılan şey, birden fazla AI platformunda etkinlikleridir. “Başlangıç” jailbreak sekiz büyük yapay zeka hizmetini etkiler:

  • Chatgpt (Openai)
  • Claude (Antropik)
  • Copilot (Microsoft)
  • Deepseek
  • İkizler (Google)
  • GROK (Twitter/X)
  • Metai (Facebook)
  • Doyurma

İkinci jailbreak bu hizmetlerin yedisini etkiler, Metaai ikinci tekniğe karşı savunmasız olmayan tek platformdur.

Bireysel olarak ele alındığında “düşük şiddet” olarak sınıflandırılırken, bu güvenlik açıklarının sistemik doğası önemli endişeler doğurur.

Kötü niyetli aktörler, kontrollü maddeler, silah üretimi, kimlik avı saldırıları ve kötü amaçlı yazılım kodu ile ilgili içerik üretmek için bu jailbreak’leri kullanabilir.

Ayrıca, meşru AI hizmetlerinin vekil olarak kullanılması, tehdit aktörlerinin faaliyetlerini gizlemelerine yardımcı olabilir ve bu da tespiti güvenlik ekipleri için zorlaştırır.

Bu yaygın kırılganlık, AI endüstrisinde güvenlik korkuluklarının nasıl uygulandığı konusunda ortak bir zayıflık olduğunu ve potansiyel olarak mevcut güvenlik yaklaşımlarının temel bir şekilde yeniden değerlendirilmesini gerektirdiğini göstermektedir.

Satıcı yanıtları ve güvenlik önerileri

Bu keşiflere yanıt olarak, etkilenen satıcılar güvenlik açıklarını kabul eden ifadeler yayınladılar ve sömürü önlemek için hizmetlerinde değişiklikler yapmışlardır.

Koordineli açıklama, bu teknolojiler daha sofistike ve yaygın olarak benimsendikçe yeni saldırı vektörlerinin ortaya çıkmaya devam ettiği üretken AI’nın hızla gelişen alanında güvenlik araştırmasının önemini vurgulamaktadır.

Christopher Cullen tarafından belgelenen bulgular, üretken AI sistemlerini yaratıcı sömürü tekniklerine karşı güvence altına almada devam eden zorlukların altını çiziyor.

Güvenlik uzmanları, bu AI hizmetlerini kullanan kuruluşların, hassas ortamlarda üretken AI dağıtırken uyanık kalmasını ve ek izleme ve önlemler uygulamalarını önermektedir.

Yapay zeka endüstrisi olgunlaşmaya devam ettikçe, bu güçlü araçların kötü niyetli amaçlar için silahlandırılmamasını sağlamak için daha sağlam ve kapsamlı güvenlik çerçeveleri gerekli olacaktır.

Bu haberi ilginç bul! Anında güncellemeler almak için bizi Google News, LinkedIn ve X’te takip edin!



Source link