AI tabanlı saldırılar, yapay zeka ve makine öğrenimi, dolandırıcılık yönetimi ve siber suç
2025’te AI ile çalışan sosyal mühendislik ve derin doygunluk tehditleri
Brian Pereira (Creed_digital) •
6 Şubat 2025
2025’te siber güvenlik sadece güvenlik duvarları, şifreler veya şifreli verilerle ilgili değildir. Bu güvenle ve yapay zekanın nasıl silahlandırıldığı. Bankanızdan sesli bir mesaj aldığınızı, bir müşteri hizmetleri acentesinin tonunu mükemmel bir şekilde taklit ettiğinizi ve sizi şüpheli etkinlikleri onaylamaya çağırdığınızı düşünün. Veya tüm doğru kimlik bilgilerine sahip gibi görünen bir “işe alımcı” nın LinkedIn profilini geçerek kaydırmak.
Ayrıca bakınız: Fidye Yazılımı ve Gasp Saldırılarını Azaltma Uzman Kılavuzu
Ama bir yakalama var – hiçbiri gerçek değil.
Google Cloud Security’nin “Siber Güvenlik Tahmini 2025” e göre, kötü amaçlı aktörler, çevrimiçi operasyonlarını saldırı yaşam döngüsünün çeşitli aşamalarında artırmak için hızla AI tabanlı araçları benimseyecekler.
Google Cloud Security başkan yardımcısı ve genel müdürü Sunil Potti, “2025, AI’nın ikinci aşamasını güvenlik ile eylemde gerçekten göreceğimiz ilk yıl.” Dedi.
Araştırmacılar rahatsız edici bir değişimi vurguluyor: saldırganlar geleneksel yaklaşımların ötesine geçiyor ve daha ikna edici ve ölçeklenebilir sosyal mühendislik saldırıları başlatmak için AI ve büyük dil modellerinden yararlanıyorlar. Yazım hataları ve genel dil (şimdi Passé) ile dolu geleneksel kimlik avı e -postalarının aksine, bu mesajlar alıcıya uyarlanmış ve gerçek konuşmaları rahatsız edici bir doğrulukla taklit eder.
Deep pheake teknolojisi, gerçeklik ve imalat arasındaki çizgileri bulanıklaştırıyor ve daha önce imkansız olduğu düşünülen bir ölçekte kimlik hırsızlığı sağlıyor. Sentetik videolar ve ses kayıtları artık müşterinizi bilen güvenlik protokollerini atlayabilir.
Riskler kimliğe bürünmede durmaz. Rapor, “sınırsız” llms – etik korkuluklardan sıyrılmış araçlar için büyüyen yeraltı pazarı konusunda uyarılıyor. Bu modeller, tehdit aktörlerinin yasadışı konuları sınırsız olarak sorgulamalarına izin vererek güvenlik açığı araştırmaları, kod geliştirme ve keşifte bir avantaj sağlıyor.
Ölçekte dijital aldatma
Mantiant istihbarat baş analisti John Hultquist, Information Güvenlik Media Group’a içerik imalatının birincil AI kullanım durumu olmaya devam ettiğini söyledi. Hultquist, “Görüntüler, ses veya video olsun, en çok kullanımı görüyoruz. Sahte bir kişiyi içeren birçok sosyal mühendislik olayı var.” Dedi.
Düşmanlar, kurbanları hedeflemek için “Bu Kişi Var Değil” gibi web sitelerinden rastgele görüntü jeneratörleri kullanarak yıllarca sahte kişiler üretti.
Bir yanlış bilgilendirme incelemesi makalesi, dolandırıcıların ve spam gönderenlerin Facebook’ta kitle büyümesi için AI-görüntü jeneratörlerini nasıl kullandıklarını bildirdi. Her biri en az 50 AI tarafından üretilen görüntü yayınlayan incelenen 125 Facebook sayfasından, araştırmacılar bunları spam, aldatmaca ve diğer yaratıcı kategorilerine sınıflandırdı. Bazıları aynı yöneticiler tarafından işletilen koordineli kümeler oluşturdu.
Nisan 2024 itibariyle, bu sayfaların ortalama takipçisi 146.681 ve medyan 81.000 vardı. Bu görüntülere yüz milyonlarca maruz kaldı. Üçüncü çeyrekte, Facebook’un en çok izlenen en iyi 20 yazısı arasında yer alan AI tarafından üretilen bir görüntü gönderisi, 40 milyon görüntüleme ve 1,9 milyondan fazla etkileşim kazandı.
SPAM sayfalarında, kullanıcıları platform dışı içerik çiftliklerine ve düşük kaliteli alanlara yönlendiren Clickbait taktikleri kullanıldı. Scam sayfaları ayrıca var olmayan ürünleri satmaya veya kullanıcıların kişisel bilgilerini çıkarmaya çalıştı.
İnsan faktörü
MIT Technology Review’daki son bir makale, Stanford ve Google DeepMind araştırmacılarının iki saatlik bir röportajın birinin değerlerini ve tercihlerini yakalamak için yeterli veri sağladığını belirtti. “1.000 kişinin üretken ajan simülasyonları” başlıklı araştırma makaleleri, insan davranışsal simülasyon nüanslarını araştırdı.
Bilgisayar Bilimi alanında Stanford doktora öğrencisi Joon Sung Park, araştırmaya liderlik etti. Ekibi, değişen çağlar, cinsiyet, ırk, bölge, eğitim ve siyasi ideolojilerden 1.000 kişiyi işe aldı.
Ekip, kayıtlı röportajları analiz ederek ajan kopyaları oluşturdu. Ajanların insan meslektaşlarını ne kadar taklit ettiğini test etmek için katılımcılar her iki hafta arayla iki kez kişilik testlerini, sosyal anketleri ve mantık oyunlarını tamamladılar. AI ajanları daha sonra aynı egzersizleri tamamlayarak sonuçlarda% 85 benzerlik elde etti.
Hultquist, Kuzey Koreli aktörlerin bu tekniği nasıl kullandığını açıkladı. “Dünyaya bir sürü kötü niyetli bağlantı göndermek yerine, bu aktörler yıllardır bu şekilde faaliyet gösterdi, kötü niyetli bir şey göndermeden önce zamanlarını ve sosyal mühendislik konuşmalarını yaptıklarını giderek daha fazla görebiliriz. [to the intended victim]. “
Uzun konuşmalardan sonra hedeflerin daha alıcı hale geldiğini söyledi. “Bunu sorgulama olasılıkları daha düşüktür ve açma olasılıkları daha yüksektir.”
Akıcı İngilizcede uzun konuşmaların sürdürülmesi, özellikle birden fazla etkileşime ihtiyaç duyulduğunda, Kuzey Kore tehdit oyuncusu için bir meydan okuma oluşturmaktadır.
“Bir Kuzey Koreli için İngilizceleri potansiyel olarak fakir olduğu için bir Amerikan İK temsilcisini taklit etmesi karmaşıktır. Bu yüzden AI’yı uzun ve tekrar eden konuşmalar için bu zorluğu aşmak için kullanıyorlar.” Dedi.
Google Bulut Güvenlik Raporu, Kuzey Koreli aktörlerin BT işçileri ve kripto para hırsızlığı aracılığıyla gelir elde etmeye devam edeceğini tahmin etti. BT işçileri, yüksek ücretli yazılım geliştirme işlerine başvurmak için çalıntı ve fabrikasyon kimlikleri kullanacaklar. Bu işçiler, kötü niyetli siber müdahaleleri sağlamak için işveren sistemlerine ayrıcalıklı erişimden yararlandı, 2025 ve ötesine devam etmesi beklenen bir eğilim (bkz:: ABD Yaptırımları Kuzey Kore Uzaktan BT İşçi Ön Şirketleri).
Önümüzdeki yol
2024’teki güvenlik ekipleri, rapor özetlemesini otomatikleştirerek, geniş veri kümelerini sorgulayarak ve çeşitli görevler için gerçek zamanlı yardım alarak güvenliği demokratikleştirmek için AI kullandı. Bu entegrasyon, analistler için tekrarlayan görevleri azaltırken, güvenlik karar vericileri için araştırma verimliliğini geliştirdi.
Google Güvenlik Araştırmacıları, 2025’in yarı özerk güvenlik operasyonlarını başlatmasını öngördü. Bu ilerleme, güvenlik iş akışlarında yeterli özerk sistem yetenekleri gerektirir. Ancak insan gözetimi, analistlerin daha fazlasını gerçekleştirmesini sağlayan AI desteği ile devam etmektedir. Takımlar, daha fazla triyaj ve risk iyileştirmesi için yüksek öncelikli öğeleri tanımlamak için yanlış pozitifler de dahil olmak üzere uyarıları ayrıştıracaklar.
2025’e daha derine doğru ilerledikçe, gördüğümüz, duyduğumuz ve okuduğumuz şeylere güvenme yeteneği giderek tehdit altında. Bu, kuruluşların yapay zeka odaklı tehditlerle karşılaşıp karşılaşmayacağı sorusu değil – bu ne kadar yanıt verecekleri sorusu.