Dark web’de binlerce kişi tarafından çalınan OpenAI kimlik bilgileri


Dark web'de reklamı yapılan ChatGPT kötü amaçlı alternatif

Tehdit aktörleri, karanlık ağda satılan yüzbinlerce OpenAI kimlik bilgisi ve ChatGPT için kötü amaçlı bir alternatife erişim ile üretken yapay zeka araçlarına artan bir ilgi gösteriyor.

Hem daha az yetenekli hem de tecrübeli siber suçlular, başarılı bir saldırı şansını artırmak için hedef kitleye göre özelleştirilmiş daha inandırıcı kimlik avı e-postaları oluşturmak için araçları kullanabilir.

GPT AI’dan yararlanan bilgisayar korsanları

Altı ay içinde, karanlık ağ ve Telegram kullanıcıları, OpenAI’nin yapay zeka sohbet robotu ChatGPT’den 27.000’den fazla kez bahsettiler ve BleepingComputer ile paylaşılan bir tehdide maruz kalma yönetim şirketi olan Flare’den alınan verileri gösteriyor.

Dark web forumlarını ve pazar yerlerini inceleyen Flare araştırmacıları, OpenAI kimlik bilgilerinin mevcut en yeni ürünler arasında olduğunu fark ettiler.

Araştırmacılar, karanlık ağda çalınan günlükler biçiminde satışa sunulan 200.000’den fazla OpenAI kimlik bilgisi belirledi.

Ocak ayındaki tahmini 100 milyon aktif kullanıcıyla karşılaştırıldığında, sayı önemsiz görünüyor, ancak tehdit aktörlerinin üretken yapay zeka araçlarında kötü niyetli faaliyetler için bir miktar potansiyel gördüğünü gösteriyor.

Siber güvenlik şirketi Group-IB’nin Haziran ayındaki bir raporuna göre, karanlık ağdaki yasa dışı pazar yerleri, 100.000’den fazla ChatGPT hesabı içeren bilgi çalan kötü amaçlı yazılımlardan gelen günlükleri alıp satıyor.

Siber suçluların bu yardımcı programlara olan ilgisi o kadar arttı ki, içlerinden biri WormGPT adlı bir ChatGPT klonu geliştirdi ve onu kötü amaçlı yazılım odaklı veriler konusunda eğitti.

Araç, “kara şapka için en iyi GPT alternatifi” ve “her türlü yasa dışı şeyi yapmanıza izin veren” bir ChatGPT alternatifi olarak ilan edilir.

WormGPT siber suç forumunda tanıtıldı
WormGPT dev, siber suç forumunda tanıtılan aracı
kaynak: SlashNext

WormGPT, insan benzeri metinler üretmek için 2021’de geliştirilen GPT-J açık kaynaklı büyük dil modeline dayanır. Geliştiricisi, aracı kötü amaçlı yazılımla ilgili verilere odaklanarak çeşitli veri kümeleri üzerinde eğittiklerini ancak belirli veri kümeleri hakkında hiçbir ipucu vermediklerini söylüyor.

WormGPT, BEC saldırıları için potansiyel gösteriyor

E-posta güvenlik sağlayıcısı SlashNext, WormGPT’ye erişim sağlamayı başardı ve teşkil ettiği potansiyel tehlikeyi belirlemek için birkaç test gerçekleştirdi.

Araştırmacıların odak noktası, iş e-postası gizliliği (BEC) saldırılarına uygun mesajlar oluşturmaktı.

Araştırmacılar, “Bir deneyde, WormGPT’ye, şüphelenmeyen bir hesap yöneticisini sahte bir fatura ödemeye zorlamayı amaçlayan bir e-posta oluşturması talimatını verdik” diye açıklıyor.

“Sonuçlar rahatsız ediciydi. WormGPT, yalnızca son derece ikna edici olmakla kalmayıp aynı zamanda stratejik olarak kurnaz bir e-posta üretti ve sofistike kimlik avı ve BEC saldırıları için potansiyelini sergiledi.”

WormGPT, BEC saldırısı için inandırıcı bir mesaj oluşturur
WormGPT, BEC saldırısı için ikna edici mesaj üretir
kaynak: SlashNext

Sonucu analiz eden SlashNext araştırmacıları, üretici yapay zekanın bir BEC saldırısına getirebileceği avantajları belirledi: mesaja meşruiyet kazandıran “kusursuz gramer” dışında, daha az yetenekli saldırganların karmaşıklık düzeylerinin üzerinde saldırılar gerçekleştirmesine de olanak sağlayabilir.

Ortaya çıkan bu tehdide karşı savunma yapmak zor olsa da şirketler, özellikle finansal bir bileşen söz konusu olduğunda acil ilgilenilmesi gereken mesajların nasıl doğrulanacağı konusunda çalışanlarına eğitim vererek hazırlık yapabilir.

E-posta doğrulama süreçlerinin iyileştirilmesi, kuruluş dışındaki iletiler için uyarılar veya tipik olarak bir BEC saldırısıyla ilişkilendirilen anahtar sözcükleri işaretleyerek de sonuç vermelidir.



Source link