OpenAI, devlet destekli bilgisayar korsanlarının ChatGPT kullanmasını engelliyor


OpenAI, devlet destekli bilgisayar korsanlarının ChatGPT kullanmasını engelliyor

OpenAI, yapay zeka chatbotu ChatGPT’yi kötüye kullanan İran, Kuzey Kore, Çin ve Rusya’daki devlet destekli tehdit grupları tarafından kullanılan hesapları kaldırdı.

Yapay zeka araştırma kuruluşu, Microsoft’un Tehdit İstihbaratı ekibinden önemli bilgiler aldıktan sonra büyük dil modeli (LLM) hizmetlerini kötü amaçlarla kötüye kullanan bilgisayar korsanlığı gruplarıyla ilişkili belirli hesaplara karşı harekete geçti.

Microsoft, ayrı bir raporda bu gelişmiş tehdit aktörlerinin ChatGPT’yi nasıl ve neden kullandığına ilişkin daha fazla ayrıntı sunuyor.

Platformda aşağıdaki tehdit gruplarıyla ilişkili faaliyetler sonlandırıldı:

  1. Orman Kar Fırtınası (Stronsiyum) [Russia]: Askeri operasyonlarla ilgili uydu ve radar teknolojileri üzerine araştırma yapmak ve siber operasyonlarını komut dosyası geliştirmeleriyle optimize etmek için ChatGPT’den yararlanıldı.
  2. Zümrüt Karla karışık yağmur (Talyum) [North Korea]: Güvenlik açıklarını anlamanın (CVE-2022-30190 “Follina” gibi) ve web teknolojilerinde sorun gidermenin yanı sıra, Kuzey Kore’yi araştırmak ve hedef odaklı kimlik avı içeriği oluşturmak için ChatGPT’den yararlanıldı.
  3. Kızıl Kum Fırtınası (Curium) [Iran]: Sosyal mühendislik yardımı, hata giderme, .NET geliştirme ve kaçınma teknikleri geliştirmek için ChatGPT ile meşgul.
  4. Kömür Tayfunu (Krom) [China]: Araç geliştirme, komut dosyası oluşturma, siber güvenlik araçlarını anlama ve sosyal mühendislik içeriği oluşturma konularında yardımcı olmak için ChatGPT ile etkileşime geçildi.
  5. Somon Tayfunu (Sodyum) [China]: İstihbarat toplama araçlarını genişletmek ve bilgi kaynağına yönelik yeni teknolojilerin potansiyelini değerlendirmek amacıyla hassas bilgiler, yüksek profilli bireyler ve siber güvenlik de dahil olmak üzere çok çeşitli konularda keşif araştırmaları için Yüksek Lisans’lar kullanıldı.

Tehdit aktörleri genel olarak keşif, sosyal mühendislik, kaçırma taktikleri ve genel bilgi toplama dahil olmak üzere stratejik ve operasyonel yeteneklerini geliştirmek için geniş dil modellerini kullandı.

Gözlemlenen vakaların hiçbiri, doğrudan kötü amaçlı yazılım geliştirmek veya özel yararlanma araçlarını tamamlamak için Yüksek Lisans’ların kullanımını içermiyor.

Bunun yerine, gerçek kodlama yardımı, kaçınma ipuçları istemek, komut dosyası yazmak, antivirüsü kapatmak ve genel olarak teknik operasyonların optimizasyonu gibi daha düşük seviyeli görevlerle ilgiliydi.

Ocak ayında, Birleşik Krallık Ulusal Siber Güvenlik Merkezi’nden (NCSC) hazırlanan bir rapor, 2025 yılına kadar gelişmiş gelişmiş kalıcı tehditlerin (APT’ler) operasyonlarının, özellikle de kaçmaya yönelik özel kötü amaçlı yazılımların geliştirilmesinde, genel anlamda AI araçlarından yararlanacağını öngördü.

Ancak geçen yıl, OpenAI ve Microsoft’un bulgularına göre, kimlik avı/sosyal mühendislik gibi APT saldırı segmentlerinde bir artış oldu, ancak geri kalanı daha çok keşif amaçlıydı.

OpenAI, özel izleme teknolojisini, endüstri ortaklarından gelen bilgileri ve şüpheli kullanım kalıplarını belirlemekle görevli özel ekipleri kullanarak devlet destekli bilgisayar korsanlarını izlemeye ve engellemeye devam edeceğini söylüyor.

OpenAI’nin gönderisi şöyle: “Bu aktörlerin istismarından öğrendiğimiz dersleri alıyoruz ve bunları güvenliğe yönelik yinelenen yaklaşımımızı bilgilendirmek için kullanıyoruz.”

Şirket, “En gelişmiş kötü niyetli aktörlerin sistemlerimizi zarar vermek için nasıl kullanmaya çalıştıklarını anlamak, bize gelecekte daha yaygın hale gelebilecek uygulamalara dair bir sinyal veriyor ve güvenlik önlemlerimizi sürekli olarak geliştirmemize olanak sağlıyor” diye ekledi.



Source link