Yapay Zekanın Siber Saldırılarda Genişleyen Rolü


19 Mart 2024Haber odasıÜretken Yapay Zeka / Olay Müdahalesi

Siber Saldırılar

Günümüzde yapay zeka (AI) araçlarını destekleyen büyük dil modelleri (LLM'ler), YARA kurallarını atlayabilen, kendi kendini güçlendiren kötü amaçlı yazılımlar geliştirmek için kullanılabilir.

Recorded Future, The Hacker News ile paylaşılan yeni bir raporda, “Üretken yapay zeka, küçük kötü amaçlı yazılım çeşitlerinin kaynak kodunu artırarak, tespit oranlarını etkili bir şekilde düşürerek dize tabanlı YARA kurallarından kaçınmak için kullanılabilir.” dedi.

Bulgular, tehdit aktörleri tarafından kötü amaçlı yazılım kod parçacıkları oluşturmak, kimlik avı e-postaları oluşturmak ve potansiyel hedefler üzerinde keşif yapmak amacıyla zaten denenmekte olan yapay zeka teknolojilerinin kötü amaçlı kullanım örneklerini ortaya çıkarmak için tasarlanan kırmızı ekip çalışmasının bir parçası.

Siber güvenlik

Siber güvenlik firması, YARA kurallarının yanı sıra, APT28 hack grubuyla ilişkili STEELHOOK adlı bilinen bir kötü amaçlı yazılımı LLM'ye gönderdiğini ve kaynak kodunu, orijinal işlevsellik bozulmadan kalacak ve oluşturulan kaynak kodunu koruyacak şekilde tespitten kaçacak şekilde değiştirmesini istediğini söyledi. sözdizimsel olarak hatalardan arınmıştı.

Bu geri bildirim mekanizmasıyla donanmış olan LLM tarafından oluşturulan değiştirilmiş kötü amaçlı yazılım, basit dize tabanlı YARA kurallarının tespit edilmesini önlemeyi mümkün kıldı.

Bu yaklaşımın sınırlamaları vardır; en belirgin olanı, bir modelin aynı anda girdi olarak işleyebileceği metin miktarıdır ve bu da daha büyük kod tabanlarında çalışmayı zorlaştırır.

Bu tür yapay zeka araçları, kötü amaçlı yazılımları radarın altından geçecek şekilde değiştirmenin yanı sıra, üst düzey yöneticilerin ve liderlerin kimliğine bürünen derin sahtekarlıklar oluşturmak ve meşru web sitelerini geniş ölçekte taklit eden etki operasyonları yürütmek için kullanılabilir.

Ayrıca üretken yapay zekanın, tehdit aktörlerinin kritik altyapı tesislerinde keşif yapma ve sonraki saldırılarda stratejik kullanım sağlayabilecek bilgileri toplama becerilerini hızlandırması bekleniyor.

Şirket, “Çok modlu modellerden yararlanılarak, ICS ve üretim ekipmanının genel görüntüleri ve videoları, hava görüntülerine ek olarak, coğrafi konum, ekipman üreticileri, modeller ve yazılım sürümü oluşturma gibi ek meta verileri bulmak için ayrıştırılabilir ve zenginleştirilebilir” dedi.

Aslında Microsoft ve OpenAI geçen ay APT28'in yüksek lisans eğitimlerini “uydu iletişim protokollerini, radar görüntüleme teknolojilerini ve belirli teknik parametreleri anlamak” için kullandığı konusunda uyardı ve bu da “uydu yetenekleri hakkında derinlemesine bilgi edinme” çabalarına işaret etti.

Siber güvenlik

Bu tür tehditlerin oluşturduğu riskleri azaltmak için kuruluşların, hassas ekipmanları gösteren, kamuya açık görselleri ve videoları incelemeleri ve gerekirse bunları temizlemeleri önerilir.

Bu gelişme, bir grup akademisyenin, LLM destekli araçları jailbreak yapmanın ve ASCII sanatı biçimindeki girdileri ileterek zararlı içerik üretmenin mümkün olduğunu keşfetmesiyle ortaya çıktı (örneğin, “bomba nasıl yapılır?”, BOMB kelimesinin kullanılarak yazıldığı yer). “*” karakterleri ve boşluklar).

ArtPrompt olarak adlandırılan pratik saldırı, “LLM'lerin ASCII sanatını tanımadaki zayıf performansını, güvenlik önlemlerini atlamak ve LLM'lerden istenmeyen davranışları ortaya çıkarmak için” silah haline getiriyor.

Bu makaleyi ilginç buldunuz mu? Bizi takip edin heyecan ve yayınladığımız daha özel içerikleri okumak için LinkedIn.





Source link