Devlet destekli tehdit aktörleri yapay zekadan nasıl yararlanıyor?


Microsoft ve OpenAI, devlete bağlı çeşitli tehdit aktörlerinin siber operasyonlarını geliştirmek için büyük dil modellerini (LLM’ler) kullanma girişimlerini tespit etti.

Tehdit aktörleri Yüksek Lisans Dereceleri

Tehdit aktörleri LLM’leri çeşitli görevler için kullanıyor

Tıpkı savunucuların yaptığı gibi, tehdit aktörleri de verimliliklerini artırmak ve bu teknolojilerin sunabileceği tüm olanakları keşfetmeye devam etmek için yapay zekadan (daha spesifik olarak: LLM’lerden) yararlanıyor.

Microsoft ve OpenAI, bilinen devlet destekli düşmanların LLM’leri ne kadar farklı şekilde kullandığını paylaştı:

  • Rus askeri istihbarat aktörü Forest Blizzard (STRONTIUM) – Ukrayna’daki askeri operasyonlarla ilgili uydu ve radar teknolojileri hakkında bilgi edinmek ve komut dosyası yazma tekniklerini geliştirmek
  • Kuzey Koreli tehdit aktörü Emerald Sleet (TALYUM) – Kuzey Kore’deki düşünce kuruluşları ve uzmanları araştırmak, hedef odaklı kimlik avı kampanyalarında kullanılacak içerik oluşturmak, kamuya açık olarak bilinen güvenlik açıklarını anlamak, teknik sorunları gidermek ve farklı web teknolojilerini kullanmalarına yardımcı olmak
  • İranlı tehdit aktörü Kızıl Kum Fırtınası (CURIUM) – sosyal mühendislik, hata giderme, .NET geliştirme ile ilgili destek almak ve tespitten kaçınmak için kod geliştirmek
  • Çin devletine bağlı tehdit aktörü Charcoal Typhoon (CHROMIUM) – araçlar geliştirmek, komut dosyaları oluşturmak ve iyileştirmek, teknolojileri, platformları ve güvenlik açıklarını anlamak ve sosyal mühendislik için kullanılan içerik oluşturmak
  • Çin devletine bağlı tehdit aktörü Somon Tayfunu (SODIUM) – kodlama hatalarını çözmek, teknik belgeleri ve terimleri tercüme etmek ve açıklamak ve hassas konular, önemli kişiler, bölgesel jeopolitik, ABD nüfuzu ve içişleri ile ilgili bilgi toplamak

“Microsoft ve OpenAI, tehdit aktörlerinin yapay zeka kullanımından kaynaklanan özellikle yeni veya benzersiz yapay zeka destekli saldırı veya kötüye kullanma tekniklerini henüz gözlemlemedi. Ancak Microsoft ve ortaklarımız bu durumu yakından incelemeye devam ediyor” diyen Microsoft araştırmacıları, OpenAI ile yaptıkları araştırmada, yakından izledikleri LLM’leri kullanan önemli saldırıların tespit edilmediğini ekledi.

“Aynı zamanda, tanınmış tehdit aktörlerinin girişimde bulunduğunu gözlemlediğimiz erken aşamadaki, artan hareketleri açığa çıkarmak ve bunları nasıl engellediğimiz ve savunma topluluğuyla nasıl karşı koyduğumuza ilişkin bilgileri paylaşmak için bunun yayınlanmasının önemli bir araştırma olduğunu düşünüyoruz.”

Soruşturmaları sırasında çeşitli tehdit aktörleriyle ilişkili tüm hesapları ve varlıkları devre dışı bıraktılar.

LLM istismarına karşı mücadele

Microsoft ve OpenAI, güvenlik ekiplerinin yapay zeka ile ilgili tehditlere karşı hazırlıklı olmasına yardımcı olmak için LLM temalı TTP’lerin MITRE ATT&CK çerçevesine dahil edilmesini savunuyor.

Microsoft ayrıca yapay zeka araçlarının ve API’lerinin ulus devlet gelişmiş kalıcı tehditleri (APT’ler), gelişmiş kalıcı manipülatörleri (APM’ler) ve siber suç örgütleri tarafından kullanılmasından kaynaklanan riskleri azaltmayı amaçlayan ilkeleri de duyurdu:

  • Kötü niyetli tehdit aktörlerinin kullanımına karşı tespit ve eylem
  • Diğer AI hizmet sağlayıcılarına bildirim
  • Diğer paydaşlarla işbirliği
  • Şeffaflık (yani bu ilkeler kapsamında gerçekleştirilen eylemlerin ana hatlarını çizecekler)

“Saldırganlar yapay zeka ve araştırma teknolojilerinin mevcut yetenekleri ve güvenlik kontrolleriyle ilgilenmeye devam edecek olsa da, bu riskleri bağlam içinde tutmak önemlidir. Her zaman olduğu gibi, çok faktörlü kimlik doğrulama (MFA) ve sıfır güven savunması gibi hijyen uygulamaları hayati önem taşıyor çünkü saldırganlar, sosyal mühendisliğe ve güvenli olmayan cihaz ve hesapları bulmaya dayanan mevcut siber saldırılarını geliştirmek için yapay zeka tabanlı araçlar kullanabilirler.”



Source link