ReversingLabs, Alibaba AI Labs kullanıcılarını hedefleyen PYPI üzerindeki AI/ML modellerinde gizli yeni kötü amaçlı yazılım keşfeder. Saldırganların turşu dosyalarını ve yazılım tedarik zincirine yönelik artan tehdidi nasıl kullandığını öğrenin.
ReversingLabs’tan (RL) siber güvenlik uzmanları, bu sefer yapay zeka (AI) ve makine öğrenimi (ML) modellerinde saklayarak siber suçlular tarafından zararlı yazılım yaymak için kullanılan yeni bir numara keşfetti.
Araştırmacılar, Python geliştiricilerinin kodu bulması ve paylaşması için popüler bir platform olan Python Paket Endeksi’nde (PYPI) üç tehlikeli paket keşfettiler, bu da aliyun AI Labs hizmetleri için bir Python SDK’ya benziyor ve Alibaba AI laboratuarlarının hedefli kullanıcıları.
Alibaba AI Labs, Alibaba Grubu ve Alibaba Cloud’un AI ve Veri İstihbarat Hizmetleri veya Alibaba Damo Akademisi’nin bir parçasıdır.
AI araçlarında yeni yazılım tehdidi gizleniyor
Bu kötü niyetli paketler, aliyun-ai-labs-snippets-sdk
– ai-labs-snippets-sdk
Ve aliyun-ai-labs-sd
k
gerçek yapay zeka işlevselliği yoktu, Hackread.com ile paylaşılan araştırmada tersine mühendis Karlo Zanki’yi tersine çevirdi.
Blog yazısı, “AI-Labs-Snippets-SDK paketi, diğer iki paketten daha uzun indirme için kullanılabilir olması nedeniyle indirmelerin çoğunu açıkladı” dedi.

Bunun yerine, kurulduktan sonra gizlice bir Infostealer’ı bıraktılar (bilgi çalmak için tasarlanmış kötü amaçlı yazılım). Bu zararlı kod bir Pytorch modelinde gizlendi. Bilgileriniz için, Pytorch modelleri genellikle ML’de kullanılır ve esasen sıkıştırılmış turşu dosyalarıdır. Turşu, veri kaydetmek ve yüklemek için yaygın bir Python formatıdır, ancak riskli olabilir çünkü kötü amaçlı kod içeride gizlenebilir. Bu özel Infostealer, enfekte bilgisayar ve .GitConfig dosyası hakkında temel ayrıntılar topladı, bu da genellikle geliştiriciler için hassas kullanıcı bilgileri içerir.
Paketler 19 Mayıs’tan itibaren PYPI’da 24 saatten daha kısa bir sürede mevcuttu, ancak yaklaşık 1.600 kez indirildi. RL araştırmacıları, kullanıcıları sahte yazılımı indirmek için kandırmak için kimlik avı e -postaları veya diğer sosyal mühendislik taktikleri ile başlamış olabileceğine inanıyor. Kötü amaçlı yazılımın popüler Çin uygulamasından ayrıntılar aradığı gerçeği ve .gitconfig
Dosyalar, Çin’deki geliştiricilerin ana hedefler olabileceğini gösteriyor.
ML modelleri neden hedefleniyor?
Günlük yazılımlarda AI ve ML kullanımındaki hızlı artış onları yazılım tedarik zincirinin bir parçası haline getirerek saldırganlar için yeni fırsatlar yaratıyor. ReversingLabs bu eğilimi izliyor ve daha önce turşu dosya biçiminin tehlikeleri hakkında uyarı yapıyor.
ReversingLabs Ürün Yönetimi Direktörü Dhaval Shah daha önce turşu dosyalarının zararlı kod enjekte etmek için kullanılabileceğini belirtmişti. Bu, Şubat ayında, ML projeleri için başka bir platform olan Hugging Face’te kötü niyetli ML modellerinin bulunduğu Nullifai kampanyasıyla doğrulandı.
PYPI’daki bu son keşif, saldırganların kötü amaçlı yazılımlarını gizlemek için giderek daha fazla ML modellerini, özellikle de turşu formatını kullandıklarını gösteriyor. Güvenlik araçları, ML modelleri geleneksel olarak sadece veri taşıyıcıları olarak görüldüğü için, yürütülebilir kod için yerler değil, sadece bu yeni tehdidi yakalamaya başlıyor. Bu, yazılım geliştirmedeki her türlü dosya için daha iyi güvenlik önlemlerine acil ihtiyacı vurgulamaktadır.