Langsmith Bug, Openai Keys’i ve Kullanıcı Verilerini Kötü Amaçlı Aracılar aracılığıyla ortaya çıkarabilir


17 Haz 2025Ravie LakshmananGüvenlik Açığı / LLM Güvenliği

Langchain Langsmith Bug

Siber güvenlik araştırmacıları, Langchain’in Langsmith platformunda, API anahtarları ve kullanıcı istemleri de dahil olmak üzere hassas verileri yakalamak için kullanılabilecek şimdi paketlenmiş bir güvenlik kusuru açıkladılar.

Maksimum 10.0 üzerinden 8,8 CVSS puanı taşıyan güvenlik açığı kodlandı. Ajansmit NOMA Güvenliği tarafından.

Langsmith, kullanıcıların Langchain kullanılarak inşa edilenler de dahil olmak üzere büyük dil modeli (LLM) uygulamalarını geliştirmesine, test etmesine ve izlemesine olanak tanıyan bir gözlemlenebilirlik ve değerlendirme platformudur. Hizmet ayrıca, kamuya açık tüm istemler, temsilciler ve modeller için depo görevi gören Langchain merkezi olarak adlandırılan şeyi de sunuyor.

Araştırmacılar Sasi Levi ve Gal Moyal, “Bu yeni tanımlanmış güvenlik açığı, ‘istemi merkeze’ yüklenen önceden yapılandırılmış kötü niyetli bir proxy sunucusu içeren bir acenteyi benimseyen şüphesiz kullanıcıları kullandı.” Dedi.

Siber güvenlik

“Bir kez kabul edildikten sonra, kötü niyetli proxy, kurbanın bilgisi olmadan API anahtarları (Openai API anahtarları dahil), kullanıcı istemleri, belgeler, görüntüler ve ses girdileri gibi hassas veriler dahil tüm kullanıcı iletişimini gizli bir şekilde ele geçirdi.”

Saldırının ilk aşaması esasen ortaya çıkıyor: Kötü bir aktör yapay bir zeka (AI) ajanı oluşturuyor ve proxy sağlayıcı özelliği aracılığıyla kontrolleri altında bir model sunucusu ile yapılandırıyor, bu da istemlerin Openai API ile uyumlu herhangi bir modele karşı test edilmesini sağlıyor. Saldırgan daha sonra Ajan’ı Langchain Hub’daki paylaşır.

Bir sonraki aşama, bir kullanıcı Langchain Hub üzerinden bu kötü niyetli aracı bulduğunda ve giriş olarak bir istemi sağlayarak “denemeye” devam ettiğinde başlar. Bunu yaparken, aracı ile iletişiminin tümü, saldırganın proxy sunucusundan gizlice yönlendirilir ve verilerin kullanıcının bilgisi olmadan birleştirilmesine neden olur.

Yakalanan veriler Openai API tuşlarını, hızlı verileri ve yüklenen ekleri içerebilir. Tehdit oyuncusu, kurbanın Openai ortamına yetkisiz erişim elde etmek için Openai API anahtarını silahlandırabilir ve model hırsızlığı ve sistem hızlı sızıntısı gibi daha ciddi sonuçlara yol açar.

Dahası, saldırgan kuruluşun tüm API kotasını kullanabilir, faturalandırma maliyetlerini artırabilir veya Openai Hizmetlerine erişimi geçici olarak kısıtlayabilir.

Orada bitmiyor. Mağdur, ajanı kurumsal ortamlarına klonlamayı tercih ederse, gömülü kötü niyetli proxy konfigürasyonu ile birlikte, trafiğinin durdurulduğuna dair herhangi bir gösterge vermeden saldırganlara sürekli olarak değerli verileri sızdırmaz.

29 Ekim 2024’teki sorumlu açıklamanın ardından, güvenlik açığı, 6 Kasım’da konuşlandırılan bir düzeltmenin bir parçası olarak Langchain tarafından arka uçta ele alındı. Buna ek olarak, yama, kullanıcılar özel bir proxy konfigürasyonu içeren bir aracı klonlamaya çalıştığında veri maruziyeti hakkında bir uyarı istemini uygular.

Araştırmacılar, “Yetkisiz API kullanımından beklenmedik finansal kayıpların derhal riskinin ötesinde, kötü niyetli aktörler, Openai’ye yüklenen iç veri kümelerine, özel modellere, ticari sırlara ve diğer fikri mülkiyete kalıcı erişim sağlayabilir, bu da yasal yükümlülükler ve itibar hasarı ile sonuçlanabilir.” Dedi.

Detaylı yeni Wormgpt varyantları

Açıklama, Cato Networks’ün tehdit aktörlerinin daha önce bildirilmeyen iki Wormgpt varyantını Xai GroK ve Mistral AI Mixtrral tarafından desteklenen iki tane yayınladığını ortaya koyuyor.

Siber güvenlik

WORMGPT, 2013 yılının ortalarında, uyarlanmış kimlik avı e-postaları oluşturmak ve kötü amaçlı yazılım parçacıkları yazmak gibi tehdit aktörleri için kötü amaçlı faaliyetleri açıkça kolaylaştırmak için tasarlanmış sansürsüz üretken bir AI aracı olarak başlatıldı. Proje, aracın yazarı 23 yaşındaki Portekizli bir programcı olarak çıktıktan kısa bir süre sonra kapandı.

O zamandan beri, “etik dışı veya yasadışı” olsa bile, “çok çeşitli konulara sansürsüz yanıtlar” sağlamak için tasarlanmış Xzin0vich-Wormgpt ve Keanu-Wormgpt dahil olmak üzere BreachForums gibi siber suç forumlarında birkaç yeni “Wormgpt” varyant ilan edildi.

Güvenlik araştırmacısı Vitaly Simonovich, “‘Wormgpt’ şimdi yeni bir sansürsüz LLM sınıfı için tanınabilir bir marka olarak hizmet ediyor.” Dedi.

“Bu yeni Wormgpt yinelemeleri, sıfırdan inşa edilmiş ısmarlama modeller değil, mevcut LLM’leri ustaca adapte etmenin sonucu. Sistem bilgi istemlerini manipüle ederek ve potansiyel olarak yasadışı veriler üzerinde ince ayar kullanarak, yaratıcılar, WORMGPT markası altında siberbriminal operasyonlar için güçlü AI güdümlü araçlar sunuyor.”

Bu makaleyi ilginç mi buldunuz? Bizi takip et Twitter ve daha fazla özel içeriği okumak için LinkedIn.





Source link