Yeni ChatGPT Güvenlik Açıkları Bilgisayar Korsanlarının Veri Çalmasına, Belleği Ele Geçirmesine Olanak Sağlıyor – Hackread – Siber Güvenlik Haberleri, Veri İhlalleri, Teknoloji, Yapay Zeka, Kripto ve Daha Fazlası


Tenable Research’ün yeni bir raporu, OpenAI’nin ChatGPT’sinde (GPT-5 dahil) özel kullanıcı verilerini çalmak ve hatta saldırganlara ağ üzerinde kalıcı kontrol sağlamak için kullanılabilecek yedi güvenlik açığını ortaya çıkardı. AI söyledi.

araştırmaÖncelikle Moshe Bernstein ve Liv Matan tarafından Yarden Curiel’in katkılarıyla yürütülen çalışma, kimlik avı, veri sızdırma ve kalıcı tehditler oluşturma gibi Kavram Kanıtı (PoC) saldırılarını kullanarak bu sorunları gösterdi ve Büyük Dil Modelleri ile etkileşimde bulunan milyonlarca kullanıcı için büyük bir endişeye işaret etti (Yüksek Lisans’lar).

Yapay Zekayı Kandırmanın Yeni, Sinsi Yolları

En büyük tehdit, yapay zeka sohbet robotuna zararlı talimatların gizlice verildiği, hızlı enjeksiyon olarak bilinen bir zayıflık etrafında dönüyor. Tenable Research, özellikle zorlayıcı bir türe odaklandı: dolaylı hızlı enjeksiyonkötü amaçlı talimatların kullanıcı tarafından yazılmadığı, ancak ChatGPT’nin işini yaparken okuduğu bir dış kaynakta gizlendiği yer.

Raporda bunun gerçekleşebileceği iki ana yol ayrıntılı olarak anlatılıyor:

  1. Yorumlarda Gizli: Bir saldırgan, bir blogdaki yoruma kötü niyetli bir istem ekleyebilir. Bir kullanıcı ChatGPT’den bu blogu özetlemesini isterse, yapay zeka yorumdaki talimatı okur ve kandırılabilir.
  2. 0-Tıklamayla Arama Yoluyla Saldırı: Bu, sadece soru sormanın yeterli olduğu en tehlikeli saldırıdır. Bir saldırgan belirli bir web sitesi oluşturur ve bunu ChatGPT’nin arama özelliği tarafından dizine eklerse, yapay zeka gizli talimatı bulabilir ve kullanıcı hiçbir şeye tıklamadan kullanıcının güvenliğini tehlikeye atabilir.

Kalıcı Veri Hırsızlığı İçin Güvenliği Atlamak

Araştırmacılar ayrıca yapay zekanın güvenlik özelliklerini atlamanın ve saldırıların kalıcı olmasını sağlamanın yollarını da buldu:

  1. Güvenlik Bypass’ı: ChatGPT’nin kötü amaçlı bağlantıları engellemeyi amaçlayan url_safe özelliği, güvenilir Bing.com izleme bağlantıları kullanılarak atlatıldı. Bu, saldırganların gizlice özel kullanıcı verilerini göndermesine olanak tanıdı. Araştırma aynı zamanda kötü amaçlı bağlantılar yoluyla yapılan basit tek tıklama saldırılarını da içeriyordu.
  2. Kendini Kandıran Yapay Zeka: Konuşma Enjeksiyonu tekniği, yapay zekanın kendi çalışma belleğine kötü amaçlı talimatlar enjekte ederek kendisini kandırmasını sağlar; bu, kod bloklarının görüntülenme biçimindeki bir hata aracılığıyla kullanıcıdan gizlenebilir.
  3. Kalıcı Tehdit: En ağır kusur Bellek Enjeksiyonu. Bu, kötü amaçlı istemi doğrudan kullanıcının kalıcı ‘anılarına’ (sohbetler arasında saklanan özel veriler) kaydeder. Bu, kullanıcı AI ile her etkileşime girdiğinde sürekli olarak kullanıcı verilerini sızdıran kalıcı bir tehdit oluşturur.

ChatGPT 4o ve GPT-5’te doğrulanan güvenlik açıkları, Yapay zeka güvenliği. Tenable Research, düzeltmeler üzerinde çalışan OpenAI’yi bilgilendirdi ancak hızlı enjeksiyon yüksek lisans öğrencileri için devam eden bir sorun olmaya devam ediyor.

Uzman yorumu:

Araştırma hakkında yorum yapan DryRun Security CEO’su James Wickett, Hackread.com’a şunları söyledi: “Hızlı enjeksiyonun LLM destekli sistemler için önde gelen uygulama güvenlik riski olmasının bir nedeni var. ChatGPT ile ilgili son araştırma, saldırganların gizli talimatları bağlantılara, işaretlemeye, reklamlara veya belleğe kaydırmasının ve modele asla yapmak istemediği bir şeyi yapmasını sağlamanın ne kadar kolay olduğunu gösteriyor.”

Wickett, bunun üretken yapay zeka kullanan her şirketi etkilediğini ve ciddi bir uyarı olduğunu sözlerine ekledi: “OpenAI bile bu saldırıları tamamen önleyemedi ve bu bir uyandırma çağrısı olmalı.” Hızlı enjeksiyon gibi bağlama dayalı risklerin, hem koda hem de çevreye bakan yeni güvenlik çözümleri gerektirdiğini vurguladı.





Source link