OpenAI, Yapay Zeka ile Konuşlandırılan Etki Operasyonlarını Engelliyor


Yapay Zeka ve Makine Öğrenimi, Yeni Nesil Teknolojiler ve Güvenli Geliştirme

Rusya, Çin, İran ve İsrail Merkezli Düşük Etkili Dezenformasyon Kampanyaları

Rashmi Ramesh (raşmiramesh_) •
31 Mayıs 2024

OpenAI, Yapay Zeka ile Konuşlandırılan Etki Operasyonlarını Engelliyor
OpenAI, Çin, Rusya, İran ve İsrail’den aktörlerin araçlarını dezenformasyon yaratmak için kullanırken yakaladığını söylüyor. (Resim: Shutterstock)

OpenAI, seçimler sırasında kamuoyunu manipüle etmek için yapay zeka hizmetlerini kullanmaya çalışan Çin ve Rusya’nın da aralarında bulunduğu beş gizli nüfuz operasyonunu kesintiye uğrattığını söyledi.

Ayrıca bakınız: Uygulamalarınızı Güvenceye Alın: Yapay Zeka Tarafından Oluşturulan Kod Riskini Nasıl Önleyeceğinizi Öğrenin

Şirket, tehdit aktörlerinin birden fazla dilde kısa yorumlar ve daha uzun makaleler oluşturmak, sosyal medya hesapları için isimler ve biyografiler oluşturmak, açık kaynak araştırması yapmak, kod hatalarını ayıklamak ve metinleri tercüme edip düzeltmeler yapmak için yapay zeka modellerini kullandığını söyledi.

Operasyonlar, izleyici katılımı veya manipülatif mesajların yayılması üzerinde çok fazla etki yaratmamış gibi görünüyor; etkileme operasyonlarının etkisini ölçen Brookings Patlama Ölçeği’nde iki olarak derecelendiriliyor. Düşükten yükseğe ölçekte iki puan ve en yüksek puanın altı olması, manipülatif içeriğin çeşitli platformlarda göründüğünü ancak izleyici üzerinde büyük bir etki yaratmadığını gösteriyor.

Alan Turing Enstitüsü’nün yapay zeka destekli gizli etki kampanyalarının seçim üzerindeki etkisine ilişkin yakın tarihli ayrı bir raporu, benzer şekilde yapay zekanın sonuçlar üzerinde sınırlı bir etkiye sahip olduğunu ancak aynı zamanda kutuplaşma ve çevrimiçi kaynaklara olan güvenin zedelenmesi gibi ikinci dereceden riskler yarattığını ortaya çıkardı. (Görmek: Birleşik Krallık Hükümetine Seçim Yapay Zekasına Yönelik Kılavuz Yayınlaması Çağrısı).

OpenAI’nin keşfettiği kampanyalar Rusya’daki iki operasyonla, biri Çin’de, biri İran’da ve İsrail’de bir ticari şirketle bağlantılıydı.

“Kötü Dilbilgisi” adlı bir Rus operasyonu, Telegram’ı kullanarak Ukrayna, Moldova, Baltık ülkeleri ve ABD’yi hedef aldı. “Doppelganger” adlı diğeri ise Ukrayna ile ilgili içerik yayınladı.

Çinli tehdit aktörü Spamouflage, Çin’in çalışmalarını destekledi ve eleştirmenleri sert bir dille eleştirirken, “Sanal Medya Birliği” adlı İran operasyonu ise İran’ı övdü, İsrail ve ABD’yi kınadı. İsrail merkezli operasyon, Gazze çatışması ve İsrail sendikası Histadrut hakkında içerik üreten özel bir şirket olan Stoic tarafından yürütülüyordu.

OpenAI, tehdit aktörlerinin gerekli özeni göstermemesi nedeniyle yapay zeka destekli etki operasyonlarını tespit edebildiğini söyledi. Bad Grammar, propaganda kampanyacıları “ret mesajlarını modelimizden kaldırmayı ve bunların içeriklerinin yapay zeka tarafından oluşturulduğunu açığa çıkarmayı” unuttuklarında kendini ele verdi.

Uzmanlar sürekli olarak ABD’ye uyarılarda bulunuyor. Federal hükümet ve sektör oyuncuları, farkındalık kampanyaları ve sektörler arası ortaklıklarla tehdidin önüne geçmeye çalıştı.

Sektör uzmanları, yapay zekanın öncülük ettiği “zayıf ve etkisiz” dezenformasyon kampanyasına şaşırdıklarını söyledi. Johns Hopkins Üniversitesi Uluslararası İleri Düzey Okulu’ndan profesör Thomas Rid, “Hepimiz kötü aktörlerin gizli etki kampanyalarını artırmak için Yüksek Lisans’ları kullanmalarını bekliyorduk; hiçbirimiz yapay zeka destekli ilk dezenformasyon girişimlerinin bu kadar zayıf ve etkisiz olmasını beklemiyorduk” dedi. Çalışmalar.





Source link