AI kötü amaçlı yazılımların durumu ve ona karşı savunma


AI son zamanlarda siber güvenlik liderlerini uyanık tutan şeyler listesine eklendi. Chatgpt, Deepseek ve İkizler gibi büyük dil modellerinin (LLMS) artan popülaritesi ve kolay erişim, tehdit aktörlerinin saldırılarını ölçeklendirmelerini ve kişiselleştirmelerini sağladı.

Kuruluşların siber savunmalarını bu eğilime göre uyarlamaları gerekir. Ancak, AI kötü amaçlı yazılımlara karşı savaşmaya yardımcı olabilecek siber güvenlik stratejilerini geliştirmeye başlamadan önce, AI kötü amaçlı yazılımın mevcut durumunu – ne kadar geliştirildiğini ve neyin farklı kıldığını anlamalıdır.

AI kötü amaçlı yazılımın potansiyel tehlikeleri

AI kötü amaçlı yazılımların tehlikelerinden biri, polimorfizm yoluyla tespitten kaçınma yeteneğidir. Bu, kötü amaçlı yazılımların kodunu ve davranışını gerçek zamanlı olarak değiştirmeye devam edebileceği anlamına gelir. İçinde bulundukları ortamla karışmak için yüzlerini ve kıyafetlerini her birkaç dakikada bir değiştirebilecek bir suçluyu hayal edin – yakalamak son derece zor olurdu.

– Reklamcılık –
Google HaberleriGoogle Haberleri

Benzer şekilde, bu tür bir kötü amaçlı yazılım, siber güvenlik topluluğunun imza tabanlı antivirüs yazılımına güvenmek gibi uzun süredir kullandığı geleneksel tehdit algılama stratejilerine meydan okuyor.

Başka bir zorluk AI kötü amaçlı yazılımların kendi kendine öğrenme yetenekleridir. AI algoritmaları, kötü amaçlı yazılımların geçmiş müdahale girişimlerinden öğrenmesini, diğer güvenlik açıklarını tanımlamasını ve saldırı yöntemlerini optimize edebilir. Örneğin, saldırı için en iyi zamanı ve belirli bir hedef sistemde kullanılacak en uygun yöntemi öğrenebilir.

Sonuç olarak, AI, sofistike ve benzersiz kötü amaçlı yazılım varyantlarının seri üretimini otomatikleştirebilir ve tehdit aktörlerinin saldırıları planlaması ve başlatması için gereken süreyi etkili bir şekilde kısaltabilir. Sıfır gün güvenlik açıklarını bulmak ve sömürmek de daha hızlı hale getirilebilir-zaten sıfır günleri keşfetmenin öncelikleri olmuştur ve siber suçlular daha sonra aynı AI kullanarak istismar kodu yazma sürecini otomatikleştirebilir.

Kavram Kanıtı AI tarafından oluşturulan kötü amaçlı yazılımların örnekleri

Ama bu teori – ya pratiğe ne dersin? Bazı güvenlik araştırmacıları, AI kötü amaçlı yazılımların tehlikelerini zaten göstermiştir – artan zeka, daha fazla uyarlanabilirlik ve daha hızlı yayılma. Aşağıda bazı örnekler:

  • Blacklamba: Bu, LLMS’nin (özellikle ChatGPT) kötü amaçlı kod oluşturmak için nasıl kaldırılabileceğini göstermek için güvenlik şirketi Hyas tarafından geliştirilen bir polimorfik keylogger’dır. Blacklamba, çalışma zamanı sırasında ChatGPT’den kötü amaçlı kod getirir ve geleneksel dosya tabanlı algılamadan kaçınırken bellekte yürütür. Yakalanan tuş vuruşları daha sonra kötü niyetli bir Microsoft Teams kanalına gönderilir.
  • Göze çarpan: Hyas’ın bir başka kavram kanıtı olan göz, özerk bir şekilde bilinçli kararlar almak ve siber saldırılar yapmak ve tespit edilmesini önlemek için sürekli olarak morph yapmak için yeteneklerini sentezlemek için tasarlanmıştır. Saldırıları tamamen kendi başına stratejikleştirebilir. Tam silahlanmamış olsa da, bir saldırgan zihniyetini kullanarak hedeflerini ve saldırı yöntemlerini seçebilen AI güdümlü tehditlerin potansiyelini gösterir.
  • Deepseek kötü amaçlı yazılım yazmaya kandırıldı: Tenable’daki araştırmacılar, bir jailbreak tekniği kullanarak Deepseek’in korkuluklarını atlayabildiler ve LLM platformunun bir keylogger ve fidye yazılımı üretmesini istediler. Kod, manuel düzenlemenin tamamen işlevsel olması gerekse de, Deepseek hala tekniklerin yararlı bir derlemesini ve minimal kodlama becerileri olan bireylerin hızlı bir şekilde kötü amaçlı kod oluşturmasına yardımcı olabilecek temel kötü amaçlı yazılım yapısını sağlayabildi.
  • Openai operatör ajanları, kimlik avı saldırılarını potansiyel olarak kolaylaştırabilir: Symantec’in tehdit avcısı ekibi, Openai operatörüne bir hedef kişiyi tanımlamasını, hedefin kamuya açık olmayan e -posta adresini almasını, kötü niyetli bir PowerShell betiğini oluşturmasını ve ikna edici bir kimlik avı e -postasını – minimum insan müdahalesiyle – başarıyla öğretebildi.
  • Morris II: Cornell Tech araştırmacıları, sadece hassas verileri çalmakla kalmayıp aynı zamanda kötü niyetli e-postaları tehlikeye atan AI ile çalışan e-posta asistanlarını kullanarak dağıtabilen bir AI solucanı geliştirdiler. Bu, LLM tabanlı chatbot hizmetlerinin siber saldırılara güvenlik açığını gösterir.

Vahşi doğada AI’dan yararlanan saldırılar

Yukarıda belirtilen konsept kanıtlarının çoğu henüz vahşi doğada görülmese de, siber güvenlik topluluğu kötü niyetli AI kullanımının bir kısmını çalışırken gördü.

AI özellikli kimlik avı kampanyaları

Fancy Bear, APT28 veya Forest Blizzard (diğer isimlerin yanı sıra) olarak bilinen ulus-devlet tehdit grubu 2008’den beri faaliyet göstermektedir ve saldırgan taktiklerinin zaman içinde nasıl geliştiğinin en iyi örneğidir. Son aylarda grup, resmi hükümet iletişimlerini taklit eden ve onları daha inandırıcı hale getiren meşru görünümlü kimlik avı e-postaları yapmak için AI kullanılarak gözlemlendi.

Fantezi ayı polimorfik AI kötü amaçlı yazılım kullanıyor gibi görünse de, AI özellikleri, hedef avlama cazibesi için düştükten sonra habislikleri hızlı bir şekilde tespit etmesine ve hemen yararlanmasına izin veriyor.

Tehdit grubu yalnız değil. AI Tools, AI Tools, saldırganların çok sayıda kimlik avı e-postası oluşturmasına ve daha sonra bu e-postaları otomatik olarak göndermesine izin verdiğinden daha yaygın hale geliyor.

Daha da kötüsü, bu e -postaların geleneksel olanlardan daha etkili olmasıdır. Elektrik ve Elektronik Mühendisleri Enstitüsü (IEEE) tarafından yapılan bir araştırma, insanların AI tarafından oluşturulan bir kimlik avı e-postası için düşme olasılıklarının daha yüksek olduğunu ortaya koydu. Çalışmada, geleneksel kimlik avı e-postaları (geçmişte kullanılanlar)% 19 ila% 28’lik bir tıklama oranına sahipken, GPT-4 kullanılarak hazırlanan e-postaların% 30 ila% 44 arasında daha yüksek bir tıklama oranı vardı. AI ve insan yöntemleri birleştirildiğinde bu rakam daha da yükselir (%43).

AI tarafından üretilen kötü amaçlı GitHub depoları

Teknik olarak yetkin internet kullanıcıları AI özellikli saldırılardan da güvenli değildir. Dünyadaki geliştirici işbirliği için ana platform olan Github, yakın zamanda kötü amaçlı yazılımları, özellikle AI tarafından oluşturulan sahte Github depoları aracılığıyla dağıtmak için kullanılmıştır.

AI’nın dokümantasyon ve okuma dosyaları oluşturmak için kullanıldığı popüler yazılımı taklit eden depolar ile, Malefactors kullanıcıları SmartLoader veya Lumma Stealer gibi kötü amaçlı yazılımlar içeren kötü amaçlı bir fermuar arşivi indirmeye itiyor.

Rogue Llms

Siber suçlular, halka açık AI araçlarından yararlanmanın yanı sıra, daha geniş bir kötü amaçlı kullanım vakası spektrumu sunan Ghostgpt, Wormgpt ve benzerleri gibi sansürsüz LLM chatbots’tan yararlanır.

Bu araçlar sansürsüzdür, yani ana akım AI chatbot modellerinin güvenlik ve etik yönergeleri bunları kısıtlamamaktadır. Diğer AI araçlarının genellikle zararlı olarak işaretleyeceği ve onu yaratmayı reddedeceği içerik oluşturabilirler. Bu, siber suçların girişini azaltır, çünkü acemi bilgisayar korsanları bile sofistike saldırılar yaratabilir.

AI kötü amaçlı yazılım bir zaman bombası mı yoksa sadece korkutucu mu?

Kötü niyetli kampanyalarda AI kullanımının artmasına rağmen, bazı güvenlik uzmanları AI kötü amaçlı yazılımların felaket bir tehdit oluşturduğu fikrini satın almamaktadır. Cisco Talos’tan Martin Lee, bunun “aşırı şişmiş” olduğunu söylüyor, ancak bu, derin yapraklardan ve AI tarafından üretilen diğer içerikten dezenformasyon tehdidine atıfta bulundu.

AI kötü amaçlı yazılım söz konusu olduğunda, IBM’nin araştırmacıları da çok endişelenmememiz gerektiğini söylüyor. Kevin Henson’a göre, IBM X-Force Tehdit İstihbaratı ile Başliye Yazılım Ters Mühendisi, Blacklamba ve EyeSpy’nin arkasındaki kavramlar yeni değil ve güvenlik ekiplerinin onlara karşı mevcut savunma stratejileri var.

LLMS gelişmiş kodlama becerilerine sahipken, Henson, “ChatGPT’yi kullanarak [and other AI tools] Kötü amaçlı yazılım oluşturmak için sınırlamalar vardır, çünkü kod bir dizi veri üzerinde eğitilmiş modeller tarafından oluşturulur. ” Bu, makine tarafından oluşturulan kodun insanlar tarafından yazılmış kadar karmaşık olmayacağı anlamına gelir.

Ancak, diğer bazı uzmanlar daha endişeli. NATO destekli bir güvenlik organizasyonu Goldilock, önümüzdeki iki yıl içinde dünyanın, büyük ölçekli, koordineli siber savaşta kritik altyapıyı hedefleyen AI destekli kötü amaçlı yazılımlarda bir artış göreceği konusunda uyardı.

Yapay zeka tarafından oluşturulan kötü amaçlı yazılımlara ve AI ile çalışan saldırılara karşı nasıl savunulur

Hangi bakış açısının sizinle daha fazla yankılandığına bakılmaksızın, gerçek şu ki, AI kötü amaçlı yazılımların çok daha yaygın olması ve kuruluşların şimdi buna hazırlanmaya başlaması gerektiğidir. Aşağıdaki stratejilerin benimsenmesi, bir kuruluşun AI tarafından üretilen tehditlere karşı güvenlik duruşunu güçlendirmeye yardımcı olabilir:

  • Öngörücü tehdit istihbaratı: Kuruluşların AI kötü amaçlı yazılımlara karşı savaşmak için yapay zeka kullanmaları gerekir – kalıpları ve eğilimleri analiz etmek ve ortaya çıkan tehditleri tamamen silahlandırılmadan tanımlamak için kullanılabilir. Öngörücü tehdit istihbaratı için gelişmiş analizlerden yararlanmak ve erken aşamalarda potansiyel tehditlerin engellenmesi, organizasyonların AI güdümlü tehditleri geliştirerek hazırlıksız yakalanmamasını sağlar.
  • Davranışsal analitik ve anomali tespiti: Bu, normal kullanıcı ve sistem davranışının taban çizgisini oluşturmayı ve taban çizgisinden sapmalar için sürekli olarak izlenmeyi içerir. Yapay zeka kötü amaçlı yazılım bağlamında, davranışsal analizler etkili olabilir, çünkü yapay zeka ile çalışan saldırıların geleneksel güvenlik önlemlerinin kaçırabileceği anomaliler sergilemesi muhtemeldir.
  • Siber güvenlik eğitimi: Kimlik avı ve sosyal mühendislik göz önüne alındığında AI ile ilgili tehditlerde en üst saldırı vektörleri olarak kalın, kapsamlı siber güvenlik eğitimi gerekli olmaya devam etmektedir. Ancak bu kez, eğitimin AI kötü amaçlı yazılım, AI destekli kimlik avı ve zamanla ortaya çıkabilecek diğerleri gibi AI’nın benzersiz tehlikelerini içermesi gerekecektir.

Find this News Interesting! Follow us on Google News, LinkedIn, & X to Get Instant Updates!



Source link