ChatGPT’nin popülaritesinden yararlanan tehdit aktörleri, gerçek üretken yapay zeka tabanlı uygulamaya benzer charbot hizmetleri sunan, ancak özellikle kötü niyetli faaliyetleri teşvik etmeyi amaçlayan başka bir taklitçi korsan aracı başlattı.
Netenrich araştırmacıları, 25 Temmuz’da yayınlanan bir gönderiye göre, abonelik esasına göre satılan ve Cumartesi gününden beri Telegram’da dolaşımda olan “FraudGPT” adlı yapay zeka güdümlü bir bilgisayar korsanlığı aracı için Dark Web’de yayınlanan reklamlar buldular. Oyuncu, FraudGPT için şimdiye kadar 3.000’den fazla onaylanmış satış ve incelemeye sahip olduğunu iddia ediyor.
Bir başka benzer yapay zeka güdümlü hacker aracı WormGPT, 13 Temmuz’dan beri dolaşımda ve SlashNext tarafından hazırlanan bir raporda ayrıntılı olarak açıklandı. ChatGPT gibi, ortaya çıkan bu rakip yapay zeka araçları da büyük veri kaynakları üzerinde eğitilmiş modellere dayalıdır ve aldıkları girdiye göre insan benzeri metinler üretebilirler.
Netenrich’in baş tehdit avcısı John Bambenek, Dark Reading’e “Araçlar, tehdit aktörlerinin araçlarına üretken yapay zeka özellikleri ekledikleri ilk eğilimler arasında görünüyor” dedi. “Bundan önce, tehdit ortamına ilişkin tartışmamız teorikti.”
FraudGPT — reklamlarda “sınırlamaları, kuralları, [and] “sınırları” — Empire, WHM, Torrez, World, AlphaBay ve Versus dahil olmak üzere çeşitli yeraltı Dark Web pazar yerlerinde doğrulanmış satıcı olduğunu iddia eden bir tehdit aktörü tarafından satılmaktadır.
Siber Suçlular Artık Yapay Zeka Sohbet Robotlarıyla Silahlandı
Hem WormGPT hem de FraudGPT, saldırganların kimlik avı kampanyaları hazırlarken yapay zekayı kendi avantajlarına kullanmalarına yardımcı olabilir, yeni başlayanlar için kurbanları iş e-postası uzlaşmasına (BEC) ve diğer e-posta tabanlı dolandırıcılıklara düşmeye zorlamayı amaçlayan mesajlar üretir.
FraudGPT, tehdit aktörlerinin kötü amaçlı kod yazma; tespit edilemeyen kötü amaçlı yazılım oluşturmak; VBV olmayan kutuları bulma; kimlik avı sayfaları oluşturmak; bilgisayar korsanlığı araçları oluşturmak; bilgisayar korsanlığı grupları, siteleri ve pazarları bulmak; dolandırıcılık sayfaları ve mektupları yazmak; sızıntıları ve güvenlik açıklarını bulma; ve kodlamayı veya hacklemeyi öğrenmek.
Buna rağmen, Netenrich’e göre, saldırganların ikna edici kimlik avı kampanyaları oluşturmasına yardımcı olmak, FraudGPT gibi bir aracın ana kullanım durumlarından biri gibi görünüyor. Krishnan, aracın bu konudaki uzmanlığının, FraudGPT’nin “alıcıları sağlanan kötü niyetli bağlantıyı tıklamaya ikna edecek” bir taslak e-postayı nasıl üretebileceğini gösteren Dark Web’de görünen tanıtım materyalinde bile lanse edildiğini söyledi.
Jailbreaking ChatGPT’nin Etik Korkulukları
ChatGPT, sosyal olarak tasarlanmış e-postalar yazmak için bir bilgisayar korsanı aracı olarak da kullanılabilir, ancak bu kullanımı sınırlayan etik önlemler vardır. Bununla birlikte, Krishnan, WormGPT ve FraudGPT gibi yapay zeka odaklı araçların artan yaygınlığının, “aynı teknolojiyi bu önlemler olmadan yeniden uygulamanın zor bir başarı olmadığını” gösterdiğini yazdı.
Aslında, FraudGPT ve WormGPT, bir güvenlik uzmanının “aptallar için üretici yapay zeka jailbreaking” dediği, kötü aktörlerin üretken yapay zeka uygulamalarını, OpenAI’nin aktif olarak mücadele ettiği üretken yapay zeka için etik korkulukları atlamak için kötüye kullandığı – çoğunlukla yokuş yukarı olan bir savaş – konusunda daha fazla kanıt.
Hoxhunt’ın kurucu ortağı ve CTO’su Pyry Avist, “Devam eden bir mücadele oldu” diyor. “Kurallar yaratılır, kurallar çiğnenir, yeni kurallar yaratılır, bu kurallar çiğnenir ve böyle devam eder.”
Birisi “ChatGPT’ye CEO’nuzdan gönderilen ikna edici bir kimlik avı e-postası ve kimlik bilgileri toplama şablonu oluşturmasını söyleyip duramazken” birisi “CEO gibi davranabilir ve finans ekibine fatura ödemesini değiştirmelerini talep eden acil bir e-postayı kolayca hazırlayabilir” diyor.
Yapay Zeka Destekli Siber Tehditlere Karşı Savunma
Gerçekten de, genel olarak üretken yapay zeka araçları, suçlulara teknoloji profesyonellerine sağladıkları temel işlevlerin aynısını sağlıyor: “Daha yüksek hız ve ölçekte çalışma yeteneği”, diyor Bambenek. “Saldırganlar artık hızlı bir şekilde kimlik avı kampanyaları oluşturabilir ve aynı anda daha fazlasını başlatabilir.”
Kimlik avı, siber saldırganların daha fazla kötü amaçlı etkinlik yürütmek için bir kurumsal sisteme ilk girişi elde etmelerinin birincil yollarından biri olmaya devam ettiğinden, buna karşı geleneksel güvenlik korumaları uygulamak çok önemlidir. Bu savunmalar, yapay zeka destekli kimlik avını ve daha da önemlisi tehdit aktörünün müteakip eylemlerini hâlâ algılayabilir.
Bambenek, “Temel olarak, bu, bir kimlik avı kampanyasının dinamiklerini veya faaliyet gösterdiği bağlamı değiştirmiyor” diyor. “Güvenliği ihlal edilmiş bir hesaptan kaynaklanan kimlik avı ile uğraşmadığınız sürece, itibar sistemleri, yazım hatası yapılan alan adları, ücretsiz Web e-posta hesaplarından gelen faturalar vb. gibi gerçek olmayan göndericilerden gelen kimlik avını hâlâ algılayabilir.”
Hızlı analitik için mevcut tüm güvenlik telemetrisi ile derinlemesine bir savunma stratejisi uygulamak, kuruluşların saldırganlar bir kurbanı tehlikeye atmadan ve saldırının bir sonraki aşamasına geçmeden önce bir kimlik avı saldırısını belirlemesine yardımcı olabilir, diyor.
“Savunma görevlilerinin bir saldırganın bir tehdit zincirinde yaptığı her şeyi tespit etmesi gerekmez, sadece bir saldırının son aşamalarından önce bir şeyi tespit etmeleri gerekir – yani fidye yazılımı veya veri hırsızlığı — bu nedenle güçlü bir güvenlik verileri analitiği programına sahip olmak çok önemlidir,” diyor Bambenek.
Diğer güvenlik uzmanları ayrıca, sayıları giderek artan yapay zeka tabanlı güvenlik araçlarını, düşman yapay zekayla savaşmak için kullanmayı, aslında tehdit ortamının artan karmaşıklığıyla mücadele etmek için ateşe ateşle mücadele etmeyi teşvik ediyor.