OpenAI, Devlet Aktörlerinin Gizli Etki Operasyonlarını Ortaya Çıkardı


OpenAI’nin son raporuna göre Rusya, Çin, İsrail ve İran’dan gelen kötü niyetli aktörler kurbanları hedeflemek için yapay zekadan yararlanıyor. Yukarıda adı geçen ülkelerdeki bu tehdit aktörleri, gizli nüfuz operasyonlarında yapay zeka modellerini kullanıyor.

Raporda, “Kötü Dilbilgisi” ağı tarafından yapılan gramer manipülasyonlarından “Doppelganger” tehdit aktörünün kullandığı gelişmiş stratejilere kadar çeşitli düşman taktikleri ayrıntılarıyla anlatılıyor ve bu kötü niyetli faaliyetlere ilişkin derinlemesine bilgiler sağlanıyor.

Yapay Zeka ve Gizli Etki Operasyonları En Son Trendler raporu, son gelişmelerin ve aksaklıkların derinlemesine analizi yoluyla, çevrimiçi platformlarda anlatıları manipüle etmek ve kamuoyunu etkilemek için tehdit aktörlerinin kullandığı modern taktiklere ilişkin paha biçilmez bilgiler sunuyor.

Tehdit Aktörleri Yapay Zeka ve Gizli Etki Operasyonları Kullanıyor

Rusya, Çin, İran ve İsrail merkezli bir ticari kuruluş da dahil olmak üzere çeşitli jeopolitik bölgelerden gelen bu tehdit aktörleri, bir dizi gizli etki operasyonu oluşturmak için yapay zeka teknolojisinden, özellikle de üretken yapay zekadan yararlanıyor.

OpenAI, raporda titizlikle belgelenen ve analiz edilen bu operasyonların, kötü niyetli aktörlerin AI teknolojilerini hain gündemleri için istismar etmek için kullandıkları karmaşık stratejileri örneklediğini söylüyor.

Raporda öne çıkan operasyonlardan biri de Rusya kaynaklı, daha önce açıklanmayan bir kampanya olan “Kötü Dilbilgisi”. Esas olarak mesajlaşma platformu Telegram üzerinde faaliyet gösteren Bad Grammar, Ukrayna, Moldova, Baltık Devletleri ve Amerika Birleşik Devletleri’ndeki hedef kitleleri hedef alan siyasi içerikli içerikleri yaymayı amaçladı.

Coğrafi erişimine rağmen bu operasyon, içerik oluşturmak için yapay zeka modellerinden yararlanırken güvenilirliği baltalamaya yönelik kasıtlı bir girişimi yansıtan bariz dilbilgisi hatalarıyla karakterize edildi.

Benzer şekilde rapor, Rusya bağlantılı ısrarlı bir tehdit aktörü olan ve çeşitli çevrimiçi kanallarda Ukrayna karşıtı propaganda yaymakta olan “Doppelganger”ın faaliyetlerine de ışık tutuyor.

Yapay zeka tarafından oluşturulan içeriği internetten alınan memler gibi geleneksel formatlarla birleştiren hibrit bir yaklaşım kullanan Doppelganger, bu kampanyalarda eski ve yeni taktiklerin birleşimini örnekliyor.

Coğrafi Politikayı Etkilemek

Raporda ayrıca Rusya’nın yanı sıra Çin, İran ve İsrail’deki ticari bir grupla bağlantılı gizli nüfuz kampanyaları da vurgulanıyor.

“Spamouflage” ve “STOIC” gibi isimlerle bilinen bu operasyonlar, kendi özel gündemlerini zorlamak için çeşitli stratejiler kullanıyor. Faaliyetleri arasında Çin yanlısı anlatıları teşvik ederken, onu eleştirenlere saldırırken, aynı zamanda Çin yanlısı anlatılara odaklanan içerik oluşturmak yer alıyor. Gazze çatışması ve seçimler Hindistan.

Bu tehdit aktörlerinin farklı kökenleri ve kullandıkları taktiklere rağmen rapor, gizli nüfuzun mevcut durumuna ışık tutan ortak eğilimleri vurguluyor. Bu trendlerden biri, üretkenliği artırmak ve içerik oluşturma süreçlerini kolaylaştırmak için yapay zeka modellerinin yaygın şekilde kullanılmasıdır.

Çok dilli makaleler oluşturmaktan web sitesi etiketlerinin oluşturulmasını otomatikleştirmeye kadar yapay zeka, dijital söylemi manipüle etmek isteyen kötü niyetli varlıklar için bir güç çarpanı görevi görüyor.

Ayrıca rapor, yapay zeka odaklı stratejiler ile insan hatası arasındaki karmaşık etkileşimi daha da derinlemesine ele alıyor ve gizli etkileme operasyonlarına katılan insan operatörlerin doğası gereği yanılabilirliğini vurguluyor. Devlet korsanlarının tehdit edici otomasyon işaretlerini içeren, yapay zeka tarafından oluşturulan içerik örnekleri.



Source link