OpenAI, Siber Suçlar ve Dezenformasyon için Yapay Zekayı Kullanan 20 Küresel Kötü Amaçlı Kampanyayı Engelledi


10 Eki 2024Ravie LakshmananSiber Suç / Dezenformasyon

Yapay Zeka Siber Suçları ve Dezenformasyon

Çarşamba günü OpenAI, yılın başından bu yana dünya çapında platformunu kötü amaçlarla kullanmaya çalışan 20’den fazla operasyonu ve aldatıcı ağı kesintiye uğrattığını söyledi.

Bu aktivite, kötü amaçlı yazılımlarda hata ayıklamayı, web siteleri için makaleler yazmayı, sosyal medya hesapları için biyografiler oluşturmayı ve X’teki sahte hesaplar için yapay zeka tarafından oluşturulan profil resimleri oluşturmayı kapsıyordu.

Yapay zeka (AI) şirketi, “Tehdit aktörleri gelişmeye ve modellerimizi denemeye devam ediyor, ancak bunun önemli ölçüde yeni kötü amaçlı yazılım oluşturma veya viral hedef kitleler oluşturma yeteneklerinde anlamlı atılımlara yol açtığına dair bir kanıt görmedik” dedi.

Ayrıca ABD, Ruanda ve daha az ölçüde Hindistan ve Avrupa Birliği’ndeki seçimlerle ilgili sosyal medya içeriği üreten faaliyetleri kesintiye uğrattığı ve bu ağlardan hiçbirinin viral etkileşim veya kalıcı izleyici çekmediği belirtildi.

Bu, daha önce Meta ve OpenAI tarafından bu Mayıs ayı başlarında açıklandığı gibi, Hindistan seçimleri hakkında sosyal medyada yorumlar üreten STOIC (Zero Zeno olarak da bilinir) adlı İsrailli bir ticari şirketin çabalarını da içeriyordu.

Siber güvenlik

OpenAI tarafından vurgulanan siber operasyonlardan bazıları şunlardır:

  • SweetSpecter, OpenAI’nin Yüksek Lisans bilgili keşif, güvenlik açığı araştırması, komut dosyası desteği, anormallik tespitinden kaçınma ve geliştirme hizmetlerinden yararlanan, Çin merkezli olduğundan şüphelenilen bir düşman. Ayrıca SugarGh0st RAT’ı sunmak için OpenAI çalışanlarına karşı başarısız hedef odaklı kimlik avı girişimleri gerçekleştirildiği de gözlemlendi.
  • İran İslam Devrim Muhafızları Birliği’ne (IRGC) bağlı bir grup olan Cyber ​​Av3ngers, programlanabilir mantık denetleyicileri üzerine araştırma yapmak için modellerini kullandı.
  • İranlı bir tehdit aktörü olan Storm-0817, hassas bilgileri toplayabilen Android kötü amaçlı yazılımlarının hatalarını ayıklamak, Selenium aracılığıyla Instagram profillerini kazımak ve LinkedIn profillerini Farsçaya çevirmek için modellerini kullandı.

Başka bir yerde şirket, çeşitli platformlarda çeşitli web sitelerinde ve sosyal medya hesaplarında daha sonra yayınlanmak üzere İngilizce ve Fransızca dillerinde içerik üreten hesapların A2Z ve Stop News kod adlı etki operasyonu da dahil olmak üzere çeşitli kümeleri engellemek için adımlar attığını söyledi.

“[Stop News] araştırmacılar Ben Nimmo ve Michael Flossman, “görüntü kullanımında alışılmadık derecede verimliydi” dedi. “Web makalelerinin ve tweet’lerinin çoğuna DALL·E kullanılarak oluşturulan görüntüler eşlik ediyordu. Bu görüntüler genellikle karikatür tarzındaydı ve dikkat çekmek için parlak renk paletleri veya dramatik tonlar kullanılıyordu.”

OpenAI Bet Bot ve Corrupt Comment tarafından tanımlanan diğer iki ağın, X’teki kullanıcılarla sohbetler oluşturmak ve onlara kumar sitelerine bağlantılar göndermek ve ayrıca daha sonra sırasıyla X’e gönderilen yorumları üretmek için API’lerini kullandıkları tespit edildi.

Açıklama, OpenAI’nin, diğer şeylerin yanı sıra yaklaşan ABD başkanlık seçimlerine odaklanan içerik oluşturmak için ChatGPT’den yararlanan Storm-2035 adlı İran’ın gizli nüfuz operasyonuyla bağlantılı bir dizi hesabı yasaklamasından yaklaşık iki ay sonra geldi.

“Tehdit aktörleri modellerimizi çoğunlukla belirli bir orta faaliyet aşamasındaki görevleri gerçekleştirmek için kullandılar; internet erişimi, e-posta adresleri ve sosyal medya hesapları gibi temel araçları edindikten sonra, ancak sosyal medya gibi ‘tamamlanmış’ ürünleri uygulamaya koymadan önce Nimmo ve Flossman, “Bir dizi dağıtım kanalı aracılığıyla internetteki gönderiler veya kötü amaçlı yazılımlar” diye yazdı.

Siber güvenlik

Siber güvenlik şirketi Sophos, geçen hafta yayınlanan bir raporda, üretken yapay zekanın, mikro hedefli e-postalar aracılığıyla kişiye özel yanlış bilgileri yaymak için kötüye kullanılabileceğini söyledi.

Bu, siyasi kampanya web siteleri, siyasi yelpazede yapay zeka tarafından oluşturulan kişiler ve kampanya noktalarına göre onları özel olarak hedefleyen e-posta mesajları oluşturmak için yapay zeka modellerinin kötüye kullanılmasını gerektirir; böylece yanlış bilgilerin geniş ölçekte yayılmasını mümkün kılan yeni bir otomasyon düzeyine izin verilir. .

Araştırmacılar Ben Gelman ve Adarsh ​​Kyadige, “Bu, bir kullanıcının iyi niyetli kampanya materyallerinden kasıtlı yanlış bilgilere ve küçük yeniden yapılandırmalarla kötü niyetli tehditlere kadar her şeyi üretebileceği anlamına geliyor.” dedi.

“Herhangi bir gerçek siyasi hareketi veya adayı, aynı fikirde olmasalar bile herhangi bir politikayı desteklemekle ilişkilendirmek mümkündür. Bunun gibi kasıtlı yanlış bilgiler, insanların desteklemedikleri bir adayla aynı hizaya gelmesine veya hoşlandıklarını düşündükleri bir adayla aynı fikirde olmamalarına neden olabilir. “

Bu makaleyi ilginç buldunuz mu? Bizi takip edin heyecan ve yayınladığımız daha özel içerikleri okumak için LinkedIn.





Source link