Birleşik Krallık Ulusal Siber Güvenlik Merkezi (NCSC) bir raporda, fidye yazılımı içeren siber saldırıların hacmini ve etkisini artırmak için 2026 yılına kadar yapay zekadan (AI) yararlanılacağı konusunda uyardı.
NCSC daha önce yapay zekanın siber güvenlik üzerindeki etkisine ilişkin açık endişeleri reddetmişti ancak artık hızla gelişen teknolojinin siber saldırıların hacmini ve etkisini “neredeyse kesinlikle” artıracağına inanıyor.
GCHQ destekli kurum, yapay zekanın halihazırda kötü amaçlı faaliyetlerde kullanıldığının açık olduğunu, burada acemi siber suçluların, paralı korsanların ve hacktivistlerin giriş engelini azalttığını ve nispeten temel becerilere sahip olanların çok daha etkili izinsiz girişler gerçekleştirmesine olanak sağladığını söyledi.
Siber suç yeraltındaki bu “demokratikleşme”, yapay zeka kullanan kurbanların daha iyi hedeflenmesiyle birleştiğinde, muhtemelen yapay zekanın fidye yazılımı olaylarında bir faktör olarak ortaya çıkmasına katkıda bulunacak, ki bu şu ana kadar gerçekten görülmemiş bir şey.
NCSC CEO’su Lindy Cameron, “Hem AI teknolojisinden geniş potansiyeli için faydalandığımızdan hem de siber tehdit üzerindeki etkileri de dahil olmak üzere risklerini yönettiğimizden emin olmalıyız” dedi.
“Yapay zekanın siber saldırılarda giderek artan kullanımı devrim niteliğinde değil, evrimseldir; bu da fidye yazılımı gibi mevcut tehditleri güçlendirdiği ancak yakın vadede risk manzarasını değiştirmediği anlamına geliyor.
“NCSC, AI sistemlerinin tasarım gereği güvenli olmasını sağlamak için elinden geleni yaptığından, kuruluşları ve bireyleri, savunmalarını güçlendirmek ve siber saldırılara karşı dayanıklılıklarını artırmak için fidye yazılımı ve siber güvenlik hijyeni tavsiyelerimize uymaya çağırıyoruz” dedi.
Ulusal güvenlik tehdidi
Ulusal Suç Teşkilatı’nın (NCA) tehditlerden sorumlu genel müdürü James Babbage şunları söyledi: “Fidye yazılımı ulusal güvenlik tehdidi olmaya devam ediyor. Bu raporun gösterdiği gibi, yapay zekadaki ilerlemeler ve bu teknolojinin siber suçlular tarafından istismar edilmesi nedeniyle tehdidin önümüzdeki yıllarda artması muhtemeldir.
“Yapay zeka hizmetleri, giriş engellerini azaltarak siber suçluların sayısını artıracak ve mevcut saldırı yöntemlerinin ölçeğini, hızını ve etkinliğini artırarak yeteneklerini artıracak. Dolandırıcılık ve çocukların cinsel istismarının da özellikle etkilenmesi muhtemeldir.
“NCA, GenAI’nin suç amaçlı kullanımını hedeflemek ve teknolojiyi güvenli ve etkili olduğu yerde kendimizin benimsemesini sağlamak da dahil olmak üzere halkı korumaya ve Birleşik Krallık’a yönelik ciddi suç tehdidini azaltmaya devam edecek” dedi.
NCSC, fidye yazılımı ekiplerinin daha fazla verimlilik ve maksimum kâr arayışı içinde iş modellerini uyarlamaya devam etmesi nedeniyle, fidye yazılımının Birleşik Krallık’taki kuruluşların karşı karşıya olduğu en ciddi siber tehdit olduğunu savunuyor.
Örneğin geçen yıl, bazı çeteler arasında taktiklerde bir farklılık görüldü; bir grup, geleneksel fidye dolabı kötü amaçlı yazılımını tamamen atlayarak doğrudan gasp lehine hareket etti; Cl0p/Clop bu taktiğin en aktif savunucularından biri oldu.
Birleşik Krallık hükümeti, hem NCSC’nin, hem kolluk kuvvetleri ortaklarının hem de özel sektörün aktif katılımcı olduğu milyarlarca sterlinlik Siber Güvenlik Stratejisi aracılığıyla hızla değişen bu tehdit modeliyle mücadele etmeye çalışıyor.
ESET küresel siber güvenlik danışmanı Jake Moore şunları söyledi: “Yapay zeka, siber suçluların daha hızlı ve daha geniş ölçekte hareket etmesini sağlayan gücü artırdı. Dahası, geçmiş ve mevcut kimlik avı e-postaları algoritmalara beslenirken ve teknoloji tarafından analiz edilirken, doğal olarak sonuçlar da o kadar iyi olur. Bu tür saldırıların hacmi kaçınılmaz olarak artacaktır ancak gelişen bu soruna sağlam ve güvenli bir çözüm bulana kadar, insanlara ve işletmelere mevcut imkanlarla kendilerini nasıl koruyacaklarını öğretmeye yardımcı olmak için hemen harekete geçmeliyiz.
“Sosyal mühendislik, insan etkileşimi nedeniyle insanlar üzerinde etkileyici bir etkiye sahip, ancak artık yapay zeka aynı taktikleri teknolojik açıdan uygulayabiliyor, hafifletilmesi zorlaşıyor” diye ekledi.
“Güveni kazanmak genellikle zordur, ancak akıllı sosyal mühendislik teknikleri çoğu zaman insanları varsayılan savunmalarını aşmaya zorlar. Sonuçta insanları bu yeni saldırılar konusunda eğitmemiz ve istendiğinde para aktarmadan veya kişisel bilgileri ifşa etmeden önce iki kez düşünmemiz gerekiyor.”
“Etki abartılıyor”
Ancak ImmuniWeb’in CEO’su ve baş mimarı Ilia Kolochenko, raporun önermesini açıkça reddetti. “Üretken yapay zekanın siber suç büyümesi üzerindeki etkisi, en hafif tabirle abartılmış gibi görünüyor” dedi.
“Öncelikle çoğu siber suç grubu, LLM öncesi de dahil olmak üzere çeşitli yapay zeka türlerini yıllardır başarıyla kullanıyor. [large language model] Kolochenko, üretken yapay zeka biçimleri ve LLM’lerin kullanıma sunulmasının operasyonlarında büyük olasılıkla devrim yaratmayacağını söyledi.
“İkincisi, Yüksek Lisans’lar ilgi çekici kimlik avı e-postaları yazmak ve hatta ilkel kötü amaçlı yazılımlar oluşturmak gibi çeşitli basit görevlerde yardımcı olabilirken, C&C sunucularını barındırmak için kötüye kullanıma dayanıklı altyapı dağıtmak veya alınan parayı aklamak gibi temel görevlerin tümünü gerçekleştiremezler. kurbanlardan.
“Üçüncüsü, fidye yazılımı ‘işi’ zaten çok iyi çalışıyor” dedi. “Kendi oyuncuları, ekonomisi, yasaları ve hiyerarşisi ile olgun, son derece verimli ve etkili bir sektör.”