Siber güvenlik araştırmacıları, Lenovo’nun yapay zeka destekli müşteri destek chatbot’unda saldırganların kurumsal sistemlerde kötü niyetli komut dosyaları yürütmesine ve hassas oturum verilerini çalmasına izin verebilecek kritik güvenlik açıklarını ortaya çıkardılar.
Keşif, kurumsal AI uygulamalarındaki önemli güvenlik boşluklarını vurgulamakta ve yeterli güvenlik kontrolleri olmadan AI sistemlerinin hızlı bir şekilde konuşlandırılmasıyla ilgili endişeleri gündeme getirmektedir.
CyberNews araştırmacıları, Lenovo’nun Openai’nin GPT-4 teknolojisi tarafından desteklenen bir AI chatbot’u olan Lenovo’nun “Lena” uygulamasını etkileyen birden fazla güvenlik kusuru belirledi.

Güvenlik açıkları, müşteri destek platformlarını tehlikeye atabilecek ve potansiyel olarak kurumsal sistemlere yetkisiz erişim sağlayabilecek siteler arası komut dosyası (XSS) saldırılarını mümkün kılar.
Saldırı zinciri, kötü niyetli HTML yanıtları üretmek için sohbet botunun “insan hoşnutsuz” doğasından yararlanan görünüşte masum bir 400 karakterlik istem ile başlar.
Saldırı yürütüldükten sonra, hem müşteriden hem de destek acentelerinden aktif oturum çerezleri çalabilir ve potansiyel olarak saldırganlara Lenovo’nun müşteri destek altyapısına yetkisiz erişim sağlayabilir.
İstismar, uygun olmayan giriş dezenfekte, yetersiz çıktı doğrulaması ve web sunucuları tarafından yetersiz içerik doğrulaması dahil olmak üzere birden fazla güvenlik zayıflığından yararlanır.
Araştırmacılar, tek bir hazırlanmış istemi, chatbot’u destek aracıları konuşmayı görüntüleydiğinde yürütülen kötü amaçlı JavaScript içeren HTML kodu oluşturmaya nasıl kandırabileceğini gösterdiler.
Saldırı birkaç aşamada ortaya çıkıyor: Chatbot, meşru ürün sorguları olarak gizlenmiş kötü amaçlı talimatları kabul eder, istismar kodu içeren HTML yanıtları oluşturur, konuşma geçmişindeki kötü niyetli içeriği depolar ve destek aracıları sohbete eriştiğinde yük yükünü tetikler.
Bu süreç, kurumsal ağlarda oturum kaçırma, veri hırsızlığı ve potansiyel yanal hareketle sonuçlanabilir.
Çerez hırsızlığının ötesinde, güvenlik açığı, anahtarlama, arayüz manipülasyonu, kimlik avı yönlendirmeleri ve veri açığa çıkması gibi daha sofistike saldırılar sağlayabilir.
Güvenlik uzmanları, kusurun uygun korkuluklar olmadan AI sistemlerinin nasıl saldırı vektörleri olabileceğini ve büyük dil modellerinin doğal olarak güvenlik içgüdülerinden yoksun olduğunu ve verilen talimatları yürüteceğini vurguladığı konusunda uyarıyor.
Lenovo, araştırmacıların sorumlu açıklanmasının ardından kırılganlığı kabul etti ve koruyucu önlemler uyguladı.
Güvenlik profesyonelleri, tüm chatbot çıkışlarının potansiyel olarak kötü niyetli olarak ele alınmasını ve katı giriş/çıkış sterilizasyon protokollerinin uygulanmasını önermektedir.
Olay, katı içerik doğrulaması, sağlam içerik güvenlik politikası uygulaması ve AI ile çalışan sistemler için minimum ayrıcalık erişim kontrolleri dahil olmak üzere kapsamlı AI güvenlik çerçevelerine duyulan ihtiyacın altını çizmektedir.
Kuruluşlar hızla AI teknolojilerini kullandıkça, bu keşif, potansiyel olarak yıkıcı ihlalleri önlemek için güvenlik önlemlerinin yenilikle birlikte gelişmesi gerektiğini kritik bir hatırlatma görevi görür.
Bu haberi ilginç bul! Anında güncellemeler almak için bizi Google News, LinkedIn ve X’te takip edin!