Dark Web, Yapay Zeka Devrimine Nasıl Tepki Veriyor?


AI CPU'muz var

Dark web ve Telegram’da hızlı bir “ChatGPT” araması, son altı ayda 27.912 bahsi gösteriyor.

Tehdit aktörlerinin dil modellerini kullanma potansiyeli hakkında çok şey yazıldı. LLaMA ve Orca gibi açık kaynaklı büyük dil modelleri (LLM’ler) ve şimdi de siber suç modeli WormGPT ile, siber suçun metalaşması ve modellerin artan yetenekleri etrafındaki eğilimler çarpışmaya hazırlanıyor.

Tehdit aktörleri, dil modellerinin 0 günlük istismarları belirlemekten hedef odaklı kimlik avı e-postaları oluşturmaya kadar her şey için nasıl kullanılabileceğine dair titiz tartışmalara şimdiden girişiyor.

Açık kaynak modelleri, riskli veya yasa dışı yanıtları önlemeye odaklanan insan geri bildirimiyle (RLHF) pekiştirmeli öğrenmeden geçmedikleri için tehdit aktörleri için özellikle zorlayıcı bir fırsat sunuyor.

Bu, tehdit aktörlerinin jailbreak’e ihtiyaç duymadan 0-day’ları belirlemek, hedef odaklı kimlik avı e-postaları yazmak ve diğer siber suç türlerini gerçekleştirmek için bunları aktif olarak kullanmalarına olanak tanır.

Tehdit maruz kalma yönetimi şirketi Flare, şu anda karanlık ağda hırsız günlükleri biçiminde satılan 200.000’den fazla OpenAI kimlik bilgisi belirledi.

Bu şüphesiz endişe verici olsa da, istatistik, tehdit aktörlerinin ChatGPT, GPT-4 ve yapay zeka dil modellerindeki çıkarlarının daha geniş bir şekilde yalnızca yüzeyini çizmeye başlıyor.

Ölçekli bir kimlik avı platformu için oturum açma sayfası
Ölçekli bir kimlik avı platformu için oturum açma sayfası
Kaynak: Parlama

Eğilimler Çarpışıyor: Siber Suç Ekosistemi ve Açık Kaynak Yapay Zeka Dil Modelleri

Son beş yılda, siber suçların metalaşmasında çarpıcı bir büyüme oldu. Siber suçluların kişisel bilgileri, ağ erişimini, veri sızıntılarını, kimlik bilgilerini, virüslü cihazları, saldırı altyapısını, fidye yazılımlarını ve daha fazlasını alıp sattığı Tor ve yasa dışı Telegram kanallarında artık geniş bir yeraltı ağı var.

Ticari düşünen siber suçlular, hızla çoğalan açık kaynaklı AI dil modellerini muhtemelen giderek daha fazla kullanacak. Bu türden ilk uygulama olan WormGPT zaten oluşturuldu ve aylık erişim ücreti karşılığında satılıyor.

Geniş Ölçekte Özel Hedefli Kimlik Avı

Phishing-aa-Service (PhaaS) zaten mevcuttur ve aylık bir ücret karşılığında phishing kampanyaları başlatmak için hazır altyapı sağlar.

Daha geniş, kişiselleştirilmiş kimlik avı saldırılarını kolaylaştırmak için WormGPT’yi kullanan tehdit aktörleri arasında zaten kapsamlı tartışmalar var.

Üretken yapay zekanın kullanılması, siber suçluların sosyal medya hesaplarından, OSINT kaynaklarından ve çevrimiçi veritabanlarından toplanan özelleştirilmiş mesajlarla binlerce kullanıcıya karşı saldırılar başlatmasını sağlayarak çalışanlara yönelik e-posta kimlik avı tehdidini önemli ölçüde artıracaktır.

Bir tehdit aktörü WormGPT'yi açıklıyor
Bir tehdit aktörü WormGPT’yi açıklıyor
Kaynak: Parlama

Bir tehdit aktörü, Telegram’da WormGPT’nin reklamını “Yarın, API-WormGPT Galaxy dev kanalı tarafından sağlanacak, istek durumu sınırsız ve periyodik olarak hesaplanacak ve API-WORMGPT’yi kullanmak için bir API-KEY almanız gerekiyor. En son haberler duyurulacak.”

“WORMGPT’nin ne olduğunu bilmiyorsanız: Bu WORMGPT, bilgisayar korsanları tarafından tasarlanmış ve kimlik avı ve kötü amaçlı yazılım gibi yasa dışı işler için yapılmış, herhangi bir etik kaynak olmaksızın CHATGPT’nin sınırsız bir sürümüdür.”

Otomatik İstismar ve Maruz Kalma Tespiti

BabyAGI gibi projeler, çevrimiçi ve potansiyel olarak gerçek dünyada düşünceler üzerinde döngü oluşturmak ve eylemler gerçekleştirmek için dil modellerini kullanmayı amaçlıyor. Bugünkü haliyle, birçok şirket saldırı yüzeyini tam olarak göremiyor.

Yama uygulanmamış hizmetleri, kimlik bilgilerini ve genel GitHub depolarında açığa çıkan API anahtarlarını ve diğer yüksek riskli veri ifşa biçimlerini hızlı bir şekilde tanımlamayan tehdit aktörlerine güveniyorlar.

Yarı otonom dil modelleri, tehdit aktörleri için büyük ölçekte maruz kalma tespitini otomatikleştirerek tehdit ortamını hızlı ve aniden değiştirebilir.

Şu anda tehdit aktörleri, siber güvenlik uzmanları tarafından kullanılan araçların bir karışımına ve bir sisteme ilk erişim sağlayabilecek açıkları belirlemek için manuel çabaya güveniyor.

Yalnızca bir havuzdaki kimlik bilgileri gibi bariz ifşaları tespit etmekle kalmayıp, aynı zamanda uygulamalardaki yeni 0 günlük açıkları tespit edebilen ve güvenlik ekiplerinin açıklardan yararlanmalara ve veri ifşasına yanıt verme süresini önemli ölçüde azaltan sistemlerden muhtemelen yıllar, hatta aylar uzaktayız.

Vishing ve Deepfakes

Üretken AI’daki ilerlemeler de, vishing saldırıları için son derece zorlu bir ortam yaratacak gibi görünüyor. AI odaklı hizmetler, bir kişinin sesini 60 saniyeden daha kısa sürede gerçekçi bir şekilde kopyalayabilir ve derin sahte teknoloji gelişmeye devam eder.

Şu anda, derin sahtekarlıklar tekinsiz vadide kalıyor ve onları bir şekilde bariz kılıyor. Ancak teknoloji hızla ilerliyor ve araştırmacılar ek açık kaynak projeleri oluşturmaya ve dağıtmaya devam ediyor.

WormGPT, python'da bir kötü amaçlı yazılım örneği yazmak isteyen bir istemi yanıtlıyor
WormGPT, python’da bir kötü amaçlı yazılım örneği yazmak isteyen bir istemi yanıtlıyor
Kaynak: Parlama

Bilgisayar Korsanlığı ve Kötü Amaçlı Yazılım Oluşturucu Yapay Zeka Modelleri

Pen-test GPT gibi kırmızı ekip oluşturma faaliyetlerine odaklanan açık kaynaklı LLM’ler halihazırda mevcuttur.

Bir modelin işlevselliği ve uzmanlığı, büyük ölçüde, modelin üzerinde eğitildiği verileri, insan geri bildirimiyle pekiştirmeli öğrenmeyi ve diğer değişkenleri içeren çok adımlı bir sürece bağlıdır.

Microsoft’un Orca LLM’sini tartışan bir tehdit aktörü, “Orca gibi, kod üzerinde ayarlanmışsa 0 günleri bulmayı vaat eden bazı umut verici açık kaynak modeller var” diye açıklıyor.

Bu Güvenlik Ekipleri İçin Ne Anlama Geliyor?

Bir defans oyuncusu olarak hata payınız önemli ölçüde düşmek üzere. Yüksek değerli olaylara odaklanmak için SOC gürültüsünü azaltmak ve karanlık veya açık web’de yüksek riskli maruz kalma için ortalama algılama süresini (MTTD) ve ortalama yanıt süresini (MTTR) iyileştirmek bir öncelik olmalıdır.

Şirketlerde güvenlik için yapay zekanın benimsenmesi, muhtemelen saldırganlara göre çok daha yavaş hareket edecek ve rakiplerin yararlanmaya çalışacağı bir asimetri yaratacaktır.

Güvenlik ekipleri etkili bir saldırı yüzey yönetimi programı oluşturmalı, çalışanların derin sahtekarlık ve mızraklı kimlik avı konusunda kapsamlı eğitim almalarını sağlamalı, ancak bunun ötesinde, güvenlik çevrenizdeki boşlukları hızlı bir şekilde tespit etmek ve düzeltmek için yapay zekanın nasıl kullanılabileceğini değerlendirmelidir.

Güvenlik yalnızca en zayıf halka kadar güçlüdür ve yapay zeka bu zayıf halkanın bulunmasını çok daha kolay hale getirmek üzeredir.

Eric Clay hakkında

Eric, bir tehdide maruz kalma izleme platformu olan Flare’de Güvenlik Araştırmacısıdır. Siber güvenlik alanında güvenlik verileri analitiği, güvenlik araştırması ve yapay zeka uygulamaları konusunda deneyime sahiptir.

Sponsorlu ve Flare tarafından yazılmıştır



Source link