Yapay Zeka, Vakaların %88’inde Tespitten Kaçarak 10.000 Kötü Amaçlı Yazılım Varyantı OluÅŸturabilir


23 Aralık 2024Ravie LakshmananMakine Öğrenimi / Tehdit Analizi

Yapay Zeka 10.000'den Fazla Kötü Amaçlı Yazılım Varyantı Oluşturacak

Siber güvenlik araÅŸtırmacıları, tespit edilmekten daha iyi kaçabilecek ÅŸekilde, geniÅŸ ölçekte kötü amaçlı JavaScript kodunun yeni varyantlarını oluÅŸturmak için büyük dil modellerini (LLM’ler) kullanmanın mümkün olduÄŸunu buldu.

Palo Alto Networks Birim 42 araÅŸtırmacıları yeni bir analizde, “LLM’ler kötü amaçlı yazılımları sıfırdan oluÅŸturmakta zorlansa da, suçlular bunları kolayca mevcut kötü amaçlı yazılımları yeniden yazmak veya gizlemek için kullanabilir, bu da tespit edilmesini zorlaÅŸtırır” dedi. “Suçlular yüksek lisans ÅŸirketlerini çok daha doÄŸal görünen dönüşümler gerçekleÅŸtirmeye yönlendirebilir, bu da bu kötü amaçlı yazılımın tespitini daha da zorlaÅŸtırır.”

Zaman içinde yeterli dönüşüm sağlandığında bu yaklaşım, kötü amaçlı yazılım sınıflandırma sistemlerinin performansını düşürerek, kötü niyetli bir kod parçasının aslında iyi huylu olduğuna inandırarak onları kandırma avantajına sahip olabilir.

LLM sağlayıcıları, kontrolden çıkmalarını ve istenmeyen çıktılar üretmelerini önlemek için güvenlik korkuluklarını giderek daha fazla uygularken, kötü aktörler, olası hedeflere yönelik ikna edici kimlik avı e-postaları oluşturma sürecini otomatikleştirmenin ve hatta yeni e-postalar oluşturmanın bir yolu olarak WormGPT gibi araçların reklamını yaptı. kötü amaçlı yazılım.

Siber güvenlik

Ekim 2024’te OpenAI, platformunu keÅŸif, güvenlik açığı araÅŸtırması, komut dosyası desteÄŸi ve hata ayıklama için kullanmaya çalışan 20’den fazla operasyonu ve yanıltıcı ağı engellediÄŸini açıklamıştı.

Unit 42, Masum Kadar Kanıtlanmış Suçlu (IUPG) veya PhishingJS gibi makine öğrenimi (ML) modelleri tarafından tespit edilmekten kaçınmak amacıyla mevcut kötü amaçlı yazılım örneklerini yinelemeli olarak yeniden yazmak için LLM’lerin gücünden yararlandığını ve 10.000 yeni JavaScript’in oluÅŸturulmasının etkili bir ÅŸekilde önünü açtığını söyledi. iÅŸlevselliÄŸi deÄŸiÅŸtirmeden varyantlar.

Rakip makine öğrenimi tekniği, kötü amaçlı yazılımı çeşitli yöntemler (yani değişken yeniden adlandırma, dize bölme, önemsiz kod ekleme, gereksiz boşlukların kaldırılması ve kodun tamamen yeniden uygulanması) kullanarak sisteme her beslendiğinde dönüştürmek için tasarlanmıştır. giriş.

Åžirket, “Nihai çıktı, orijinal komut dosyasıyla aynı davranışı koruyan, neredeyse her zaman çok daha düşük bir kötü amaçlı puana sahip olan, kötü amaçlı JavaScript’in yeni bir çeÅŸididir” dedi ve açgözlü algoritmanın, kendi kötü amaçlı yazılım sınıflandırıcı modelinin kararını kötü amaçlı yazılımdan çevirdiÄŸini ekledi. vakaların %88’i iyi huyludur.

Daha da kötüsü, bu tür yeniden yazılan JavaScript yapıları, VirusTotal platformuna yüklendiğinde diğer kötü amaçlı yazılım analizcileri tarafından tespit edilmekten de kaçınıyor.

LLM tabanlı gizlemenin sunduÄŸu bir diÄŸer önemli avantaj, birçok yeniden yazma iÅŸleminin, obfuscator.io gibi kütüphaneler tarafından gerçekleÅŸtirilenlerden çok daha doÄŸal görünmesidir; bu kitaplıkların, obfuscator.io’ya deÄŸiÅŸiklik getirme ÅŸekli nedeniyle güvenilir bir ÅŸekilde tespit edilmesi ve parmak izi verilmesi daha kolaydır. kaynak kodu.

Unit 42, “Yeni kötü amaçlı kod çeÅŸitlerinin ölçeÄŸi, üretken yapay zekanın yardımıyla artabilir” dedi. “Ancak, makine öğrenimi modellerinin saÄŸlamlığını artırabilecek eÄŸitim verilerinin oluÅŸturulmasına yardımcı olmak amacıyla kötü amaçlı kodu yeniden yazmak için aynı taktikleri kullanabiliriz.”

Siber güvenlik

Açıklama, North Carolina Eyalet Ãœniversitesi’nden bir grup akademisyenin, Google Edge Tensör Ä°ÅŸleme Birimlerine (TPU’lar) %99,91 doÄŸrulukla model çalma saldırıları gerçekleÅŸtirmek için TPUXtract adlı bir yan kanal saldırısı tasarladığı sırada geldi. Bu daha sonra fikri mülkiyet hırsızlığını veya takip eden siber saldırıları kolaylaÅŸtırmak için kullanılabilir.

AraÅŸtırmacılar, “Özellikle, katman türü, düğüm sayısı, çekirdek/filtre boyutları, filtre sayısı, adımlar, dolgu ve aktivasyon iÅŸlevi dahil tüm katman konfigürasyonlarını çıkarabilen bir hiperparametre çalma saldırısı gösteriyoruz” dedi. “En önemlisi, saldırımız daha önce görülmemiÅŸ modelleri ortaya çıkarabilen ilk kapsamlı saldırıdır.”

Kara kutu saldırısı, özünde, sinir ağı çıkarımları devam ederken TPU tarafından yayılan elektromanyetik sinyalleri yakalar (çevrimdışı makine öğrenimi modellerini çalıştırmayla ilişkili hesaplama yoğunluğunun bir sonucudur) ve bunları model hiperparametrelerini çıkarmak için kullanır. Ancak bu, düşmanın hedef cihaza fiziksel erişime sahip olmasına ve izleri araştırmak ve elde etmek için pahalı ekipmanlara sahip olmasına bağlıdır.

AraÅŸtırmanın yazarlarından Aydın Aysu, “Mimariyi ve katman ayrıntılarını çaldığımız için yapay zekanın üst düzey özelliklerini yeniden yaratmayı baÅŸardık” dedi. “Daha sonra bu bilgiyi iÅŸlevsel yapay zeka modelini veya bu modelin çok yakın bir vekilini yeniden oluÅŸturmak için kullandık.”

Bu makaleyi ilginç buldunuz mu? Bizi takip edin heyecan  ve yayınladığımız daha özel içerikleri okumak için LinkedIn.





Source link