Yapay Zeka, Vakaların %88’inde Tespitten Kaçarak 10.000 Kötü Amaçlı Yazılım Varyantı Oluşturabilir


23 Aralık 2024Ravie LakshmananMakine Öğrenimi / Tehdit Analizi

Yapay Zeka 10.000'den Fazla Kötü Amaçlı Yazılım Varyantı Oluşturacak

Siber güvenlik araştırmacıları, tespit edilmekten daha iyi kaçabilecek şekilde, geniş ölçekte kötü amaçlı JavaScript kodunun yeni varyantlarını oluşturmak için büyük dil modellerini (LLM’ler) kullanmanın mümkün olduğunu buldu.

Palo Alto Networks Birim 42 araştırmacıları yeni bir analizde, “LLM’ler kötü amaçlı yazılımları sıfırdan oluşturmakta zorlansa da, suçlular bunları kolayca mevcut kötü amaçlı yazılımları yeniden yazmak veya gizlemek için kullanabilir, bu da tespit edilmesini zorlaştırır” dedi. “Suçlular yüksek lisans şirketlerini çok daha doğal görünen dönüşümler gerçekleştirmeye yönlendirebilir, bu da bu kötü amaçlı yazılımın tespitini daha da zorlaştırır.”

Zaman içinde yeterli dönüşüm sağlandığında bu yaklaşım, kötü amaçlı yazılım sınıflandırma sistemlerinin performansını düşürerek, kötü niyetli bir kod parçasının aslında iyi huylu olduğuna inandırarak onları kandırma avantajına sahip olabilir.

LLM sağlayıcıları, kontrolden çıkmalarını ve istenmeyen çıktılar üretmelerini önlemek için güvenlik korkuluklarını giderek daha fazla uygularken, kötü aktörler, olası hedeflere yönelik ikna edici kimlik avı e-postaları oluşturma sürecini otomatikleştirmenin ve hatta yeni e-postalar oluşturmanın bir yolu olarak WormGPT gibi araçların reklamını yaptı. kötü amaçlı yazılım.

Siber güvenlik

Ekim 2024’te OpenAI, platformunu keşif, güvenlik açığı araştırması, komut dosyası desteği ve hata ayıklama için kullanmaya çalışan 20’den fazla operasyonu ve yanıltıcı ağı engellediğini açıklamıştı.

Unit 42, Masum Kadar Kanıtlanmış Suçlu (IUPG) veya PhishingJS gibi makine öğrenimi (ML) modelleri tarafından tespit edilmekten kaçınmak amacıyla mevcut kötü amaçlı yazılım örneklerini yinelemeli olarak yeniden yazmak için LLM’lerin gücünden yararlandığını ve 10.000 yeni JavaScript’in oluşturulmasının etkili bir şekilde önünü açtığını söyledi. işlevselliği değiştirmeden varyantlar.

Rakip makine öğrenimi tekniği, kötü amaçlı yazılımı çeşitli yöntemler (yani değişken yeniden adlandırma, dize bölme, önemsiz kod ekleme, gereksiz boşlukların kaldırılması ve kodun tamamen yeniden uygulanması) kullanarak sisteme her beslendiğinde dönüştürmek için tasarlanmıştır. giriş.

Şirket, “Nihai çıktı, orijinal komut dosyasıyla aynı davranışı koruyan, neredeyse her zaman çok daha düşük bir kötü amaçlı puana sahip olan, kötü amaçlı JavaScript’in yeni bir çeşididir” dedi ve açgözlü algoritmanın, kendi kötü amaçlı yazılım sınıflandırıcı modelinin kararını kötü amaçlı yazılımdan çevirdiğini ekledi. vakaların %88’i iyi huyludur.

Daha da kötüsü, bu tür yeniden yazılan JavaScript yapıları, VirusTotal platformuna yüklendiğinde diğer kötü amaçlı yazılım analizcileri tarafından tespit edilmekten de kaçınıyor.

LLM tabanlı gizlemenin sunduğu bir diğer önemli avantaj, birçok yeniden yazma işleminin, obfuscator.io gibi kütüphaneler tarafından gerçekleştirilenlerden çok daha doğal görünmesidir; bu kitaplıkların, obfuscator.io’ya değişiklik getirme şekli nedeniyle güvenilir bir şekilde tespit edilmesi ve parmak izi verilmesi daha kolaydır. kaynak kodu.

Unit 42, “Yeni kötü amaçlı kod çeşitlerinin ölçeği, üretken yapay zekanın yardımıyla artabilir” dedi. “Ancak, makine öğrenimi modellerinin sağlamlığını artırabilecek eğitim verilerinin oluşturulmasına yardımcı olmak amacıyla kötü amaçlı kodu yeniden yazmak için aynı taktikleri kullanabiliriz.”

Siber güvenlik

Açıklama, North Carolina Eyalet Üniversitesi’nden bir grup akademisyenin, Google Edge Tensör İşleme Birimlerine (TPU’lar) %99,91 doğrulukla model çalma saldırıları gerçekleştirmek için TPUXtract adlı bir yan kanal saldırısı tasarladığı sırada geldi. Bu daha sonra fikri mülkiyet hırsızlığını veya takip eden siber saldırıları kolaylaştırmak için kullanılabilir.

Araştırmacılar, “Özellikle, katman türü, düğüm sayısı, çekirdek/filtre boyutları, filtre sayısı, adımlar, dolgu ve aktivasyon işlevi dahil tüm katman konfigürasyonlarını çıkarabilen bir hiperparametre çalma saldırısı gösteriyoruz” dedi. “En önemlisi, saldırımız daha önce görülmemiş modelleri ortaya çıkarabilen ilk kapsamlı saldırıdır.”

Kara kutu saldırısı, özünde, sinir ağı çıkarımları devam ederken TPU tarafından yayılan elektromanyetik sinyalleri yakalar (çevrimdışı makine öğrenimi modellerini çalıştırmayla ilişkili hesaplama yoğunluğunun bir sonucudur) ve bunları model hiperparametrelerini çıkarmak için kullanır. Ancak bu, düşmanın hedef cihaza fiziksel erişime sahip olmasına ve izleri araştırmak ve elde etmek için pahalı ekipmanlara sahip olmasına bağlıdır.

Araştırmanın yazarlarından Aydın Aysu, “Mimariyi ve katman ayrıntılarını çaldığımız için yapay zekanın üst düzey özelliklerini yeniden yaratmayı başardık” dedi. “Daha sonra bu bilgiyi işlevsel yapay zeka modelini veya bu modelin çok yakın bir vekilini yeniden oluşturmak için kullandık.”

Bu makaleyi ilginç buldunuz mu? Bizi takip edin heyecan ve yayınladığımız daha özel içerikleri okumak için LinkedIn.





Source link