
Bilinmeyen tehdit aktörleri, Vercel’den üretken bir yapay zeka (AI) aracı olan Silahlaştırma V0’ı, meşru muadillerini taklit eden sahte oturum açma sayfaları tasarlamak için gözlendi.
Okta Tehdit İstihbarat Araştırmacıları Houssem Eddine Bordjiba ve Paula de la Hoz, “Bu gözlem, üretken AI’nın silahlandırılmasında basit metin istemlerinden fonksiyonel bir kimlik avı oluşturma yeteneği gösteren tehdit aktörleri tarafından yeni bir evrimi işaret ediyor.” Dedi.
V0, Vercel’den, kullanıcıların doğal dil istemlerini kullanarak temel açılış sayfaları ve tam yığın uygulamalar oluşturmalarını sağlayan AI destekli bir tekliftir.

Kimlik Hizmetleri Sağlayıcısı, teknolojiyi kullanan dolandırıcıları, kendi isimsiz bir müşteri de dahil olmak üzere birden fazla marka ile ilişkili ikna edici oturum açma sayfaları geliştirmek için kullandığını gözlemlediğini söyledi. Sorumlu açıklamanın ardından Vercel, bu kimlik avı sitelerine erişimi engelledi.
Kampanyanın arkasındaki tehdit aktörlerinin, muhtemelen geliştirici platformuyla ilişkili güveni kötüye kullanmak ve kaçınma tespiti için Vercel’in altyapısında kimliğe bürünmüş şirket logoları gibi diğer kaynaklara ev sahipliği yaptıkları bulunmuştur.
Ayarlamak için bir miktar çaba gerektiren geleneksel kimlik avı kitlerinin aksine, V0 ve GitHub’daki açık kaynak klonları gibi araçlar-saldırganların sadece bir istemi yazarak sahte sayfaları döndürmesine izin verir. Daha hızlı, daha kolay ve kodlama becerileri gerektirmez. Bu, düşük vasıflı tehdit aktörlerinin bile ikna edici kimlik avı siteleri ölçeklendirmelerini basitleştirir.
Araştırmacılar, “Gözlenen faaliyet, bugünün tehdit aktörlerinin kimlik avı yeteneklerini kolaylaştırmak ve geliştirmek için önde gelen Genai araçlarını aktif olarak denediğini ve silahlandırdığını doğrulamaktadır.” Dedi.
“Vercel’in v0.dev gibi bir platformun kullanılması, ortaya çıkan tehdit aktörlerinin hızla yüksek kaliteli, aldatıcı kimlik avı sayfaları üretmesine ve operasyonlarının hızını ve ölçeğini artırmasına izin veriyor.”

Gelişme, kötü aktörlerin suç faaliyetlerine yardımcı olmak için büyük dil modellerinden (LLMS) yararlanmaya devam ettikçe, bu modellerin yasadışı amaçlar için tasarlanmış sansürsüz versiyonlarını oluşturuyor. Siber suç manzarasında popülerlik kazanan böyle bir LLM Whiterabbitneobu da kendisini “(dev) Secops ekipleri için sansürsüz bir yapay zeka modeli” olarak reklamını yapıyor.

Cisco Talos araştırmacısı Jaeson Schultz, “Siber suçlular, sansürsüz LLM’lere, siber suçlu tasarlanmış LLM’lere ve jailbreaking meşru LLM’lere giderek daha fazla yerçekimi yapıyor.” Dedi.
“Sansürsüz LLM’ler, korkulukların kısıtlamaları olmadan çalışan hizalanmamış modellerdir. Bu sistemler, kullanıcı istemlerine yanıt olarak mutlu bir şekilde hassas, tartışmalı veya potansiyel olarak zararlı çıktı üretir. Sonuç olarak, sansürsüz LLM’ler siber suçlu kullanım için mükemmel bir şekilde uygundur.”
Bu gördüğümüz daha büyük bir değişime uyuyor: Kimlik avı AI tarafından eskisinden daha fazla güç veriliyor. Sosyal mühendislik saldırılarında sahte e -postalar, klonlanmış sesler, hatta derin peynir videoları bile ortaya çıkıyor. Bu araçlar, saldırganların hızlı bir şekilde ölçeklenmesine yardımcı olur ve küçük dolandırıcılıkları büyük, otomatik kampanyalara dönüştürür. Artık sadece kullanıcıları kandırmakla ilgili değil, tüm aldatma sistemlerini oluşturmakla ilgili.