GPT’nin Kötü İkizi BEC Saldırılarında Nasıl Kullanılabilir?


Yapay Zeka ve Makine Öğrenimi , İş E-postası Uzlaşması (BEC), Dolandırıcılık Yönetimi ve Siber Suçlar

Araştırmacılar, Black Hat AI Aracı, Bilgisayar Korsanlarının İkna Edici Kimlik Avı E-postaları Oluşturmasına Yardımcı Oluyor

Prajeet Nair (@prajeetspeaks) •
17 Temmuz 2023

WormGPT: GPT'nin Kötü İkizi BEC Saldırılarında Nasıl Kullanılabilir?

Siber suçlular, iş e-postası ele geçirme saldırılarını desteklemek üzere inandırıcı kimlik avı e-postaları oluşturmak için WormGPT adlı üretken bir yapay zeka aracı kullanıyor olabilir. Yeni bir anket, siber güvenlik araştırmacılarına göre 5 kişiden 1’inin yapay zeka tarafından oluşturulan sahte e-postalara aşık olduğunu gösteriyor.

Ayrıca bakınız: İsteğe Bağlı | İnsan Davranışını Anlamak: Perakende Sektörünün ATO ve Dolandırıcılığı Önleme Zorluğunun Üstesinden Gelmek

SlashNext’teki araştırmacılar yakın zamanda OpenAI’nin özellikle kötü amaçlı faaliyetler için tasarlanmış GPT AI modelinin kötü bir ikizi olan WormGPT’yi değerlendirdi.

GPT-J dil modeline siyah şapka alternatifi 2021’de geliştirildi ve özellikleri arasında sınırsız karakter desteği, sohbet hafızasında tutma, olağanüstü dil bilgisi, azaltılmış giriş eşiği ve kod biçimlendirme yetenekleri yer alıyor. ChatGPT’den farklı olarak, WormGPT’yi yasa dışı faaliyetler için kullanma konusunda herhangi bir kısıtlama yoktur.

Araca, şüphelenmeyen bir hesap yöneticisini sahte bir fatura ödemeye zorlamayı amaçlayan bir e-posta oluşturma talimatı veren SlashNext araştırmacılarına göre “Sonuçlar rahatsız ediciydi”. “WormGPT, yalnızca son derece ikna edici olmakla kalmayıp, aynı zamanda stratejik olarak da kurnaz olan ve gelişmiş kimlik avı ve BEC saldırıları potansiyelini sergileyen bir e-posta üretti.”

SlashNext’teki araştırmacılarla işbirliği yapan, yenilenmiş bir siyah şapka bilgisayar korsanı olan Daniel Kelley, WormGPT’nin kötü amaçlı yazılımla ilgili çok çeşitli veriler üzerinde eğitildiğini, ancak aracın yazarının modelin eğitimiyle ilgili ayrıntıları bir sır olarak sakladığını söyledi.

Siber güvenlik firması SoSafe tarafından yakın zamanda yürütülen bir araştırma, yapay zeka botlarının şimdiden insanlardan daha iyi kimlik avı e-postaları yazabildiğini gösterdi. SoSafe’in araştırması, AI ile yazılan kimlik avı e-postalarının ilk bakışta tanınmadığını ve alıcıların %78’i tarafından açıldığını ortaya çıkardı. Bunların %21’i, bağlantılar veya ekler gibi potansiyel olarak kötü amaçlı içeriğe tıklıyor.

SoSafe’in CEO’su ve kurucu ortağı Niklas Hellemann, “Ve bu sadece başlangıç: Teknoloji gelişmeye devam ederek siber suçlulara daha fazla seçenek ve hatta WormGPT gibi özelleştirilmiş çözümler sunacak,” dedi ve ekledi: “Bu, kişiselleştirme ölçeklemesini yeni bir düzeye taşıyacak ve bunları saldırılar daha da tehlikeli.”





Source link