Net güvenlik röportajında, IFSH’nin araştırmacısı Mateusz łabuz, kişiselleştirilmiş siyasi kampanyalar için AI kullanma ve seçmen gizliliğini korumak arasındaki dengeyi tartışıyor.
Łabuz ayrıca AI’nın gerçek kontrol etme potansiyelini, düzenleyici manzarayı ve AI’nın otoriter rejimlerde kampanya stratejileri üzerindeki etkisini tartışmaktadır.
Kampanyalar, özellikle daha zayıf veri koruma yasalarına sahip yargı alanlarında, seçmen mahremiyetini aşındırma endişeleriyle kişiselleştirme için AI’dan yararlanmayı nasıl dengeleyebilir?
Modern teknolojilerin kötüye kullanılmasına karşı koymanın bir yolu, oyunun açık kurallarını oluşturmak, yani kampanyalar sırasında siyasi partiler ve adaylar için geçerli olacak düzenlemeler sunmaktır. Bu elbette alıcılar hakkında bilgi toplama sorununu da içermelidir. Tabii ki, düzenlemeler zaten tanık olduğumuz tüm sorunları çözmeyecek ve kişiselleştirme ihlaller için ciddi bir alan yaratıyor, ancak bir tür koruyucu bariyer oluşturacaklar.
Bu tür eğilimleri, vatandaşların bilinçli seçimler yapmasını sağlamayı amaçlayan tüm yasal çözümlerin ekosistemine sahip olduğumuz Avrupa Birliği’nde görüyoruz. Bu çabaların doruk noktası, siyasi reklamcılığın şeffaflığı ve hedeflenmesi konusunda yeni bir düzenleme olabilir.
Kullanıcı verilerinin uygun şekilde korunmasını ve kişiselleştirmenin sınırlı olmasını sağlamak için düzenleyiciler ve dijital platformlar arasındaki işbirliği de gereklidir. Etik düzeyde, gerçekçi olmamız gerekse de, siyasi partiler tarafından imzalanabilecek davranış kurallarının getirilmesini de düşünmeye değer – kişiselleştirme ve teknolojiyi kendi yararlarına kullanma olasılıkları varsa, siyasi aktörler bu yetenekleri keşfedeceklerdir.
Bir seçimin kritik son günlerinde AI odaklı dezenformasyonun etkisini azaltabilecek erken tespit sistemleri veya çerçeveler var mı?
Evet, dezenformasyonun gerçek zamanlı olarak yayılmasını izleyen içerik analizi ve sosyal ağ algoritmaları gibi erken algılama sistemleri vardır. Bence, tüm dezenformasyon tedarik zincirini hedeflemek çok önemlidir. Bu bağlamda, odak noktası öncelikle belirli içeriği yükseltmekten sorumlu olan dijital platformların rolü üzerinde olmalıdır.
Tabii ki, bazı yargı bölgelerinde, seçim döneminden önceki birkaç düzine gün boyunca dezenformasyon veya sentetik medyanın yayılmasını yaptıran düzenlemeler, zaten (örn. Birkaç ABD eyaleti), ancak başarıları için gerekli durumun gerekli olduğunu hatırlayalım. etkili bir uygulamadır. Dezenformasyon aktörlerinin kuralları umursamadığını biliyoruz. Çözüm, söz konusu dönemde, öncelikle içerik denetlemesinde artan harcamalar gerektiren gerçek kontrol faaliyetlerini yoğunlaştırmak olabilir.
AB’nin Dijital Hizmetler Yasası gibi mevcut düzenlemeler, AI tarafından üretilen dezenformasyonun yayılmasını engellemede ne kadar etkilidir ve hangi boşluklar kullanılmaz?
Çok yakın zamanda yürürlüğe giren ve hala test aşamasında olan düzenlemelerin etkinliği hakkında konuşmak çok zordur. Önceki gerçek kontrol etkinliklerinden çekildiklerini açıklayan ABD dijital platformlarıyla yüzleşmede nasıl kullanılacaklarını göreceğiz.
Şu anda, etkinlik hakkında yorum yapmam, çünkü kuralların uygulanmasını gerçekçi bir şekilde değerlendirmek için daha fazla zamana ve daha fazla veriye ihtiyacımız var. Tabii ki, içerik denetleme süreçlerinde daha fazla şeffaflık ve raporlama yükümlülüklerine tabi olan platformların yeteneği gibi görülmesi gereken bazı pozitifler var.
AI Yasası, sentetik içeriği tespit ve izleme açısından DSA ile bazı sinerjiler oluşturduğu için de yararlı olabilir. Tabii ki, birçok boşluk veya belki de daha fazla risk alanı vardır, çünkü demokratik bir sistemde sansür getirmek ve böylece neyin kabul edilebilir olduğuna ve neyin olmadığına, neyin doğru olarak kabul edilebileceğine karar verme düzeyinde dezenformasyonla mücadele etmek imkansızdır. . Bu nedenle dezenformasyon bazen konuşma özgürlüğü, görüş ifadesi, mizah duygusu veya hiciv kisvesi altında gelişebilir.
Örneğin, belirli ideolojiyi ve görüşleri teşvik etmek ve belirli aktörler ve değerlerle olumsuz veya pozitif ilişkiler yaratabilmek için meme kreasyonlarını kullanabilen bilişsel savaş hakkında konuşabilmesi için bir sebep yoktur. Bence bu konuya daha fazla dikkat etmeliyiz ve sadece anlatıların kendilerine değil, aynı zamanda yayılma mekanizmalarına, dezenformasyon aktörleri ve bireysel ülkelerle bağlantıları arasındaki bağlantılara odaklanmalıyız.
Kampanyalar sırasında gerçek zamanlı olarak dezenformasyonu kontrol etmek için yapay zeka odaklı araçlar geliştirilebilir ve bunları ölçekte uygulamanın önündeki engeller ne olur?
Bunlar, örneğin daha önce dezenformasyon olarak tanınan içeriğin amplifikasyonunun duygu analizi veya otomatik olarak tespiti ile ilgili olarak geliştirilmektedir. Referans noktası, güvenilir gerçek kontrol kuruluşlarının veritabanları olabilir. Bununla birlikte, büyük ölçekli uygulamalarının önündeki engeller, dilin karmaşıklığı (ve çok dilli), güncel verilere erişim ihtiyacı, algoritma yanlılığı riski ve otomatik içerik denetimi sırasında kaçınılmaz olan hatalar içerir.
Bu nedenle, insan denetimi ve teknoloji ile işbirliği hala önemlidir. Sentetik ortamı tespit etmek için araçlar da vardır. Sonuçta, AB AI Yasası’na göre, sentetik ortam, otomatik olarak algılanabilmeleri için sağlayıcıların düzeyinde (makine tarafından okunabilen bir formatta) işaretlenmelidir.
Yapay zeka benimsemesindeki küresel eğilimler, yerleşik otoriter rejimlere sahip ülkelerde kampanya stratejilerini nasıl etkiliyor?
Otoriter rejimler söz konusu olduğunda, yapay zeka vatandaşlar üzerinde kontrol kullanmak için başka bir araç olarak görülmelidir. Bu nedenle, belirli anlatıları yaymak veya bilgi alanını ve vatandaşların kendilerini denetlemek için ideolojiye bağlı olacaktır.
AI’daki küresel eğilimler, otoriter rejimlerin toplumun daha ileri izlenmesini veya propagandanın kişiselleştirilmesini sağlıyor. Bunların hepsi siyasi anlatılar üzerindeki kontrolü güçlendirecek. Aynı zamanda, AI aktivistlere otoriter manipülasyona karşı koymak için araçlar verebilir, ancak bu açıdan oldukça gerçekçiyim ve bir atılım beklemiyorum.
AI’nın otoriter kurallara karşı koymak için ilginç şekillerde kullanıldığı birkaç örnek vardır. Venezuela’da zulüm gören gazeteciler sansürsüz bilgi sağlamak için avatarlar kullandılar. Ancak bunlar izole vakalardır. Yapay zeka, bilgi alanının kontrolü nedeniyle fırsatların eşitlenmesi mümkün olmadığında zaten gözlemlenen güç dengesizliklerini artırma eğilimindedir.