OpenAI, Kimlik avı e-postaları ve kötü amaçlı yazılımların kullanıldığı Hesapları kapattı


Yapay Zeka iyilik için muazzam bir potansiyele sahip olsa da, gücü kötü niyetli olanları da cezbedebilir.

Gelişmiş kaynakları ve uzmanlıklarıyla devlete bağlı aktörler, altyapıyı bozabilecek, verileri çalabilecek ve hatta bireylere zarar verebilecek siber saldırılar için yapay zekadan yararlanarak benzersiz bir tehdit oluşturuyor.

“Devlete bağlı tehdit aktörleriyle ilişkili hesapları sonlandırdık. Bulgularımız, modellerimizin kötü amaçlı siber güvenlik görevleri için yalnızca sınırlı, artan yetenekler sunduğunu gösteriyor.”

OpenAI, yapay zeka hizmetlerini kötü amaçlı faaliyetler için kötüye kullanmaya çalışan devlete bağlı beş grubu engellemek için Microsoft Tehdit İstihbaratı ile iş birliği yaptı.

Belge

Canlı Hesap Devralma Saldırısı Simülasyonu

Canlı saldırı simülasyonu Web Semineri, hesap ele geçirmenin çeşitli yollarını gösterir ve web sitelerinizi ve API’lerinizi ATO saldırılarına karşı korumaya yönelik uygulamaları gösterir.

Devlete bağlı gruplar

Kömür Tayfunu ve Somon Tayfunu olarak bilinen, Çin ile bağlantılı iki grup,

İranlı tehdit aktörü “Crimson Sandstorm”, Kuzey Kore’nin “Emerald Sleet”i ve Rusya’ya bağlı “Forest Blizzard” grubu.

Kömür Tayfunu: Büyük olasılıkla kimlik avı kampanyaları için araştırılan şirketler ve siber güvenlik araçları.

Somon Tayfunu: Teknik belgeleri tercüme etti, ajanslar ve tehditler hakkında istihbarat topladı ve kötü amaçlı süreçleri gizlemeyi araştırdı.

Kızıl Kum Fırtınası: Uygulama ve web geliştirme için komut dosyaları geliştirildi, potansiyel hedef odaklı kimlik avı içeriği hazırlandı ve kötü amaçlı yazılım tespitinden kaçınma teknikleri araştırıldı.

Zümrüt Sleet: Güvenlik uzmanları belirlendi, güvenlik açıkları araştırıldı, temel komut dosyası oluşturma konusunda destek verildi ve potansiyel kimlik avı içeriği taslağı hazırlandı.

Orman Kar Fırtınası: Komut dosyası oluşturma görevleri için yapay zekayı kullanırken uydu iletişimi ve radar teknolojisi üzerine açık kaynaklı araştırmalar yürüttü.

OpenAI’nin uzmanlarla gerçekleştirilen en son güvenlik değerlendirmeleri, kötü niyetli aktörlerin GPT-4 gibi yapay zekayı kötüye kullanmaya çalışmasına rağmen, zararlı siber saldırılara yönelik yeteneklerinin, halihazırda mevcut yapay zeka olmayan araçlarla karşılaştırıldığında nispeten basit kaldığını gösteriyor.

OpenAI stratejisi

Proaktif Savunma: Özel ekipler ve teknolojiyle platformları kötüye kullanan devlet destekli aktörleri aktif olarak izleyin ve engelleyin.

Sanayi İşbirliği: Bilgileri paylaşmak ve kötü amaçlı yapay zeka kullanımına karşı toplu yanıtlar geliştirmek için iş ortaklarıyla birlikte çalışın.

Sürekli Öğrenme: Güvenlik önlemlerini iyileştirmek ve gelişen tehditlerin önünde kalmak için gerçek dünyadaki kötüye kullanımı analiz edin.

Kamu Şeffaflığı: Farkındalığı ve hazırlığı teşvik etmek için kötü niyetli yapay zeka faaliyetleri ve eylemleri hakkında öngörüleri paylaşın.

Siber Güvenlik haberleri, Teknik İncelemeler ve İnfografiklerden haberdar olun. Bizi LinkedIn’de takip edin & heyecan.





Source link