Kötü amaçlı yazılım ve makine öğrenimi: Cehennemde yapılan bir eşleşme


Uzun yıllardır makine öğrenimi tabanlı siber güvenlik sistemleri geliştiriyoruz ve 2005 yılında laboratuvarlarımızda analiz için otomasyon geliştirmeye başladık. Bu erken otomasyon projeleri o zamandan beri tam gelişmiş makine öğrenimi çerçevelerine dönüştü. O zamandan beri düşmanlarımızın da aynı hareketi yapmasını bekliyoruz ve 18 yıl sonra bekleyiş sona erdi – yapay zekaya sahip kötü amaçlı yazılım geldi.

makine öğrenimi kötü amaçlı yazılımı

Savunucular bir süredir işlerini otomatikleştirerek mükemmel tespit, analiz ve tepki süreleri sağladılar – makine hızında eller serbest. Bu, saldırılarını manuel olarak oluşturup konuşlandırmak zorunda kalan saldırganların aksine, yani engellendiklerinde, çok daha yavaş insan hızında işleri manuel olarak değiştirmek zorunda kalıyorlar.

Otomatik kötü amaçlı yazılım kampanyaları, kötü amaçlı yazılım çetelerinin tepki hızını büyük ölçüde değiştirecek

Kötü amaçlı yazılım kampanyaları yürütme ve yeni savunmaları otomatik olarak atlama teknolojisi günümüzde kesinlikle yapılabilir, ancak şimdiye kadar böyle bir şey görmedik. Ancak bu gerçekleştiğinde, düşmanlarımızın tepki hızının insandan makine hızına değiştiğini açıkça işaret edeceği için farkedilir olacaktır.

Deepfake’ler, yapay zekanın suç teşkil eden veya kötü niyetli kullanımı hakkında konuşurken muhtemelen akla gelen ilk şeydir. Günümüzde, sahte insanların gerçekçi görüntülerini oluşturmak kolaydır ve bunların sıklıkla aşk dolandırıcılığı ve diğer dolandırıcılık vakalarında kullanıldığını görüyoruz. Bununla birlikte, gerçek insanların derin sahtelikleri tamamen farklı bir şeydir ve derin sahte görüntülerin, seslerin ve videoların kötüye kullanımı şu ana kadar nispeten küçük olsa da, bunun daha da kötüye gideceğine şüphe yok.

GPT, LAMDA ve LLaMA gibi büyük dil modelleri (LLM’ler) yalnızca insan dillerinde değil, tüm programlama dillerinde de içerik oluşturabilir. Kendisinin sonsuz varyasyonlarını yaratmak için büyük dil modellerini kullanabilen, kendi kendini kopyalayan bir kod parçasının ilk örneğini az önce gördük.

Bunu nasıl bilebiliriz? Çünkü kötü amaçlı yazılımın yazarı – SPTH – onu bana postaladı.

Bu kişi, eski usul bir virüs meraklısı diyebileceğimiz türdendir ve yeni çığır açan virüsler yazmaktan hoşlanıyor gibi görünmektedir. SPTH ayrıca yıllar içinde, DNA’ya bulaşan ilk kötü amaçlı yazılım olan “Mycoplasma Mycoides SPTH-syn1.0” gibi uzun bir kötü amaçlı yazılım listesi oluşturmuştur. Bununla birlikte, SPTH’nin bunu yalnızca kötü amaçlı yazılımı hasara neden olmak veya para çalmak için kullanabilecekleri ve ilgilenmedikleri için yapıyor göründüğü vurgulanmalıdır.

SPTH’nin kendi kendini kopyalayan koduna LLMorpher adı verilir. SPTH geçenlerde şunları yazdı: “Burada ötesine geçiyoruz ve tamamen doğal dilde kendi kendini kopyalayan bir kodun nasıl kodlanacağını gösteriyoruz. Somut kod talimatları yerine, virüsümüz İngilizce yazılmış, iyi tanımlanmış cümlelerin bir listesinden oluşur. Ardından, halka açık en güçlü yapay zeka sistemlerinden biri olan OpenAI’nin GPT’sini kullanıyoruz. GPT, yeni bir metamorfizma biçimi olan aynı davranışla farklı kodlar oluşturabilir.”

Bu kod parçası, Python dilinde yazılmış programlara bulaşabilir. Yürütüldüğünde, bilgisayarda .py dosyalarını arar ve kendi işlevlerini bu dosyalara kopyalar. Ancak işlevler doğrudan kopyalanmaz; işlevsellik, daha sonra kopyalanan gerçek kodu oluşturan GPT’ye İngilizce olarak açıklanmıştır. Bu, kötü amaçlı yazılımı yeni dosyalara çoğaltmaya devam edecek virüslü bir Python dosyasıyla sonuçlanır ve işlevler her seferinde GPT tarafından yeniden programlanır – daha önce hiç yapılmamış bir şey.

Basitçe kötü amaçlı yazılım yazmak yasa dışı değildir; insanların sistemlerine bulaşmak veya zarar vermek için kullanmaktır. Dolayısıyla, SPTH böyle bir şey yapmamış gibi görünse de, bu hala çok sorunlu çünkü üçüncü şahıslar SPTH’nin araştırmasını kötüye kullanabilir; LLMorpher, Github’dan kolayca indirilebilir.

LLMorpher gibi kötü amaçlı yazılımları veya buna dayalı yeni türleri nasıl engelleyebiliriz?

LLMorpher, GPT olmadan çalışamaz. GPT indirilemediği için bir kopyası yoktur. Bu, OpenAI’nin (GPT’nin yaratıcısı) GPT’yi kötü amaçlarla kullanan herkesi kolayca engelleyebileceği anlamına gelir. Bazı benzer modeller indirilebilir (örneğin, LLaMA), bu nedenle muhtemelen eninde sonunda kötü amaçlı yazılımlara gömülü olanları göreceğiz.

Kötü amaçlı davranışları tespit etmek, büyük dil modelleri kullanan kötü amaçlı yazılımlara karşı en iyi bahistir ve bunu en iyi şekilde makine öğrenimini de kullanan güvenlik ürünleri yapar!

Kötü bir yapay zekayı durdurabilecek tek şey iyi bir yapay zekadır.



Source link