GPT-3.5-Turbo ve GPT-4 Gibi Yüksek Lisans Araçları Tamamen Otonom Kötü Amaçlı Yazılımların Geliştirilmesini Destekliyor


GPT-3.5-Turbo ve GPT-4 Gibi Yüksek Lisans Araçları Tamamen Otonom Kötü Amaçlı Yazılımların Geliştirilmesini Destekliyor

GPT-3.5-Turbo ve GPT-4 gibi büyük dil modelleri çalışma şeklimizi değiştiriyor, ancak aynı zamanda siber suçlulara yeni nesil kötü amaçlı yazılım oluşturmanın kapılarını da açıyor.

Araştırmacılar, bu gelişmiş yapay zeka araçlarının, saldırganların çalışma şeklini temelden değiştirecek şekilde kötü amaçlı kod üretecek şekilde yönlendirilebileceğini gösterdi.

Programın kendi içindeki sabit kodlanmış talimatlara dayanan geleneksel kötü amaçlı yazılımların aksine, bu yeni yaklaşım, anında talimatlar oluşturmak için yapay zekayı kullanıyor ve tespit edilmesi güvenlik ekipleri için çok daha zor hale geliyor.

Tehdit manzarası önemli ölçüde değişti. Siber suçlular artık bu yapay zeka modellerinde yerleşik güvenlik önlemlerini atlamak için hızlı enjeksiyon adı verilen basit hileleri kullanabiliyor.

Saldırganlar, talepleri bir sızma testi aracı gibi görünmek gibi belirli yöntemlerle çerçeveleyerek, modelleri sistem süreçlerine kötü amaçlı yazılım enjekte etmek ve antivirüs yazılımını devre dışı bırakmak gibi tehlikeli işlemler için kod üretmeye ikna eder.

Bu, gelecekteki kötü amaçlı yazılımların ikili dosyanın içinde neredeyse hiç tespit edilebilir kod içeremeyeceği, bunun yerine her çalıştırıldığında yeni talimatlar oluşturmak için yapay zekaya güveneceği anlamına geliyor.

google

Netskope güvenlik analistleri, hem GPT-3.5-Turbo hem de GPT-4’te kapsamlı testler yaptıktan sonra ortaya çıkan bu tehdidi tespit edip belgeledi.

Araştırmaları, bu dil modellerinin kötü amaçlı kod üretmeye zorlanabileceğini ancak tam işlevsel otonom saldırıları engelleyen önemli engellerin bulunduğunu ortaya çıkardı.

Güvenlik ekibi, oluşturulan kodun gerçekten gerçek ortamlarda çalışıp çalışmadığını sistematik olarak test ederek, sistemleri yaygın kullanıma karşı koruyan kritik sınırlamaları ortaya çıkardı.

Savunmadan Kaçınma Mekanizmaları ve Kod Oluşturma Güvenilirliği

Saldırganların temel sorunu artık yalnızca kötü amaçlı kod üretmek değil, kodun kurban makinelerde gerçekten güvenilir bir şekilde çalışmasını sağlamaktır.

Netskope araştırmacıları özellikle savunmadan kaçınma tekniklerini inceleyerek, GPT modellerinin kötü amaçlı yazılım analizinin genellikle gerçekleştiği sanal ortamları ve korumalı alan sistemlerini tespit etmek için komut dosyaları oluşturup oluşturamayacağını test etti.

Bu komut dosyaları önemlidir çünkü kötü amaçlı yazılımın kontrollü bir test ortamında mı yoksa gerçek bir kullanıcının bilgisayarında mı çalıştığını belirlemesine yardımcı olurlar.

Araştırmacılar GPT-3.5-Turbo’dan süreç ekleme ve AV sonlandırma için bir Python betiği oluşturmasını istediğinde, model hemen buna uydu ve çalışma kodunu sağladı.

Ancak GPT-4, güvenlik görevlilerinin zararlı niyeti fark etmesi nedeniyle başlangıçta bu talebi reddetti. Bu atılım, araştırmacıların rol tabanlı hızlı enjeksiyonu kullanması ve esasen GPT-4’ten savunma amaçlı bir güvenlik aracı rolünü üstlenmesini istemesiyle gerçekleşti.

Bu çerçeve altında model, enjeksiyon ve sonlandırma komutlarını yürütmek için işlevsel kod üretti.

Bunun pratikteki anlamı açıktır: Saldırganların artık bu tehlikeli işlevleri manuel olarak yazmasına veya bunları derlenmiş ikili dosyalara saklayarak risk tespit etmesine gerek yoktur. Yapay zekanın çalışma zamanı sırasında bunları oluşturmasını talep edebilirler.

Ancak Netskope araştırmacıları GPT modellerinin güvenilir sanallaştırma algılama komut dosyaları oluşturup oluşturamayacağını test ettiğinde sonuçlar saldırganlar için hayal kırıklığı yarattı.

Yapay zeka tarafından oluşturulan kod, VMware Workstation, AWS Workspace VDI ve fiziksel sistemler dahil olmak üzere farklı ortamlarda düşük performans gösterdi. Komut dosyaları ya çöktü ya da hatalı sonuçlar verdi; bu da operasyonel kötü amaçlı yazılımlara yönelik katı gereksinimleri karşılayamadı.

Bu temel zayıflık şu anda tamamen otonom LLM destekli saldırıların uygulanabilirliğini sınırlıyor. Yapay zeka modelleri, özellikle de GPT-5 gibi yeni ortaya çıkan sürümlerle gelişmeye devam ettikçe, bu güvenilirlik sorunları büyük olasılıkla azalacak ve temel engel, kod işlevselliğinden yapay zeka sistemlerindeki giderek daha karmaşık hale gelen güvenlik korkuluklarının aşılmasına kayacak.

Daha Fazla Anında Güncelleme Almak için Bizi Google Haberler, LinkedIn ve X’te Takip Edin, CSN’yi Google’da Tercih Edilen Kaynak olarak ayarlayın.

googlehaberler



Source link