Kötü niyetli aktörlerin GenAI kullanımı henüz abartılı beklentilerle eşleşmiyor


Siber Tehdit İttifakı’nın (CTA) en son raporuna göre, üretken yapay zeka, kötü niyetli aktörlerin giriş engelinin azaltılmasına yardımcı oldu ve onları daha verimli hale getirdi; yani ikna edici deepfake’ler oluşturma, kimlik avı kampanyaları ve yatırım dolandırıcılıkları oluşturma konusunda daha hızlı hale getirdi.

Ancak şimdilik saldırganları “daha ​​akıllı” hale getirmedi veya siber tehditleri tamamen dönüştürmedi.

Kötü niyetli aktörler GenAI’yi nasıl kullanıyor?

CTA üyelerinin kullanımına sunulan verilere ve kanıta dayalı vaka çalışmalarına dayanan rapor, saldırganların şu anda GenAI’yı aşağıdaki amaçlar için kullandığını açıklıyor:

  • Deepfake videolar ve aldatıcı görüntüler oluşturmak, belirli seslere dayalı ses kayıtlarını klonlamak, son derece ikna edici e-postalar, mesajlar ve web sitesi içeriği oluşturmak
  • Kötü amaçlı yazılım oluşturma konusunda yardım (ancak ek insan girişi ve ince ayar olmadan kötü amaçlı yazılım oluşturmama)
  • Komuta ve kontrol operasyonlarını optimize etmek (örneğin, botnet’leri yönetmek için)
  • Yanlış bilgi ve dezenformasyon yaymak (örneğin, çevrimiçi komploları ilerletmek, seçim kampanyalarını etkilemek için)
  • Gerçek olmayan sosyal medya hesaplarından oluşan yapay zeka kontrollü ağlar oluşturma (bot çiftlikleri)

Analistler, “Yapay zeka yenilikleri inkar edilemeyecek kadar güçlü olsa da, şu ana kadar düşman yeteneklerinde artan gelişmelere yol açtı, ancak tamamen yeni tehditler yaratmadı” dedi.

Yapay zeka destekli tehditleri engellemek

Şu ana kadar temel siber güvenlik uygulamaları (düzenli yazılım güncellemeleri, çok faktörlü kimlik doğrulama, çevrimdışı veri yedekleme, uç nokta izleme, davranışsal analiz vb.), yapay zeka tarafından desteklenenler de dahil olmak üzere tüm tehditlere karşı koymak için temel olmaya devam ediyor.

Ancak ikincisiyle mücadele etmek aynı zamanda teknik çözümlerin (derin sahte dedektörler gibi) bir kombinasyonunu ve daha da önemlisi sürekli eğitim ve belirli becerilerin edinilmesini (örneğin, gerçekleri nasıl kontrol edeceğini bilmek, ters görüntü aramaları yapmak, meta verileri doğrulamak vb.) gerektirecektir. .) ve eleştirel düşünmenin teşvik edilmesi.

“Kuruluşlar, içeriğe dayalı analize öncelik veren ve sağlıklı bir şüphecilik kültürünü teşvik eden eğitimleri vurgulamalıdır. CTA analistlerinden Chelsea Conard, çalışanların ‘Bu talebi ben mi başlattım’ veya ‘Bu iletişim önceki görüş alışverişleriyle tutarlı mı?’ gibi sorular sormaya teşvik edilmesi gerektiğini belirtti.

“Diğer savunmalar hem teknik hem de süreç bazlı önlemlere dayanabilir. Teknik araçlar, ses uyumsuzluğu gibi manipülasyonlar için içeriği analiz edebilir. Bu araçlar yetersiz kaldığında kuruluşlar, kritik güvenlik önlemleri sağlamak için çok kanallı doğrulama, ikili onaylar veya önceden düzenlenmiş kimlik doğrulama ifadeleri dahil olmak üzere süreç bazlı önlemlere güvenebilir.”

İyi haber şu ki, düşmanların GenAI kullanımı henüz bu kadar abartılı bir beklentiyle karşı karşıya değil ve eğer hızlı hareket ederlerse kuruluşlar ve kurumlar, yapay zeka destekli tehditlerin çoğunu engelleyecek savunmaları uygulamaya koyabilirler.




Source link