Birleşik Krallık, ABD, AB ve Hindistan’da önemli seçimler yapılıyor ve diğer birçok ülkede de yıl içinde seçim yapılması planlanıyor. Veri ve yapay zekayla çalışan birçok kuruluşun yanı sıra biz de bu teknolojilerin demokrasilerimizi şekillendirmede ve onlara zarar vermede oynayabileceği büyük fırsatların ve önemli zorlukların farkındayız.
Birleşik Krallık’taki Yapay Zeka Güvenliği Zirvesi ve Avrupa Birliği’nin Yapay Zeka Yasası’nın ardından, önümüzdeki yolda ilerlerken yapay zeka hakkındaki tartışmalar siyaset, sivil toplum ve endüstri çevrelerinde ilgi odağı haline geldi. Bu konuşmaların birçoğu geleceğin yapay zekasına (‘Sınır Yapay Zekası’ olarak adlandırılan) odaklanma eğiliminde; Gelecekteki tehditleri, gelecekteki fırsatları ve yapay zekadan ayrılamaz bir geleceği duyduk.
Ancak zaten yapay zeka çağındayız ve on yılı aşkın süredir bu çağdayız. Konuşmalarımızın, hayatımızın her alanında halihazırda sahip olduğu gerçek ve mevcut etkiye odaklanması gerekiyor. Yapay zeka hem yaygındır hem de her yerde bulunur; en çarpıcı özelliklerinden biri, insanların düşüncelerini, davranışlarını ve oylarını etkilemek için kullanılması gereken olağanüstü potansiyeldir. Yapay zekanın kampanyaları yürütmeyi daha az maliyetli hale getirerek oyun alanını eşitlediğini gördük, ancak aynı zamanda Cambridge Analytica’nın inanılmaz derecede olumsuz etkisini de gördük. Geniş ölçekte gerçekçi, derin sahtekarlıklar oluşturma yeteneği ve konuşmaya dayalı üretken yapay zekanın yetenekleri, şu anda karşılaştığımız zorlukların potansiyel kapsamını ve derinliğini değiştirdi.
Teknoloji dünyasında sık sık “hızlı hareket edin ve bir şeyleri kırın” atasözünü duyarız; ancak kırabileceğimiz şeyler demokrasi ve toplum olduğunda bu bizim için yerel, ulusal veya küresel düzeyde iyiye işaret değil. En son yapay zeka dalgası elbette siyasi katılımı artırabilir. Örneğin, ChatGPT gibi üretken yapay zeka araçları siyasi sistemleri açıklamak, manifesto taahhütlerini özetlemek ve az temsil edilen grupları sandık başına gitmeye teşvik etmek için kullanılabilir. Ancak yapay zekanın gerçekçi derin sahtekarlıklar üretmek, dezenformasyon yaratıp yaymak ve seçmenleri daha önce görülmemiş bir düzeyde zararlı veya asılsız mesajları güçlendiren mesajlarla hedef almak için kullanıldığına ve kullanılacağına dair giderek artan kanıtlar var.
Önceki seçimlerde – hem Avrupa’da hem de yurt dışında – yapay zeka gibi veri merkezli teknolojiler, sosyal medya platformlarını çoğu zaman yarı gerçekler ve şüpheli iddialar içeren kişiselleştirilmiş ve hedefe yönelik reklamlarla doldurmuştu. Bu yılki seçimlere yaklaşırken, dünya çapında her zamankinden daha fazla insan sandık başına gittiğinden, seçimlerde çok daha gelişmiş yapay zekaların kullanılmasıyla uğraşmak zorunda kalacağız. Yapay zeka, sürekli gelişen ve akıllı telefona erişimi olan herkese, eğer isterlerse, yanlış bilgi oluşturma ve yayma yeteneği veren bir teknolojidir. Yanlış bilgi, insanlar bunu sosyal platformlarda paylaştığı için yayılıyor olsa da, önceki seçimlere göre maddi bir fark var: derin sahtekarlıkların kalitesi arttı. İnsanlar bu yeteneklerin var olduğunun daha fazla farkındalar ve bunları nasıl kullanacaklarını öğrendiler.
Üretken yapay zekanın uygulanmasında kötü bir niyetin olmadığı durumlarda bile önyargıların, yani yapay zeka sistemlerinin eğitildiği verilerde var olabilecek önyargıların yerleştirilmesi, güçlendirilmesi ve sağlamlaştırılması riski hâlâ mevcuttur. Sosyal medya platformlarından geniş miktarda veri toplanıyor ve yapay zekayı eğitmek için kullanılıyor; ancak bunun doğru ve temsili olduğundan emin olmak için yeterince şey yapılmıyor. Aynı zamanda teknoloji bir dönüm noktasında: Arşivler, kütüphaneler, medya içeriği gibi seçilmiş veri kaynaklarının büyük çoğunluğu halihazırda piyasadaki mevcut, mükemmel olmayan yapay zekaları eğitmek için kullanılıyor. Bu yapay zekaların daha yeni sürümleri sosyal medyada zaten gördüğümüz sentetik içerik seline dayanıyorsa, örneğin daha doğru, doğrulanmış içerik biçimindeki iyileştirmeler elde edilemez; dolayısıyla teknolojinin kötüleştiğini görme riski vardır. Yapay zeka tarafından oluşturulan verilere güvenmeye başlarsa.
Birleşik Krallık’ta araştırma ve çalışmalarımızın temelini oluşturan güçlü bir seçim kanunumuz var. İşlenebilecek suçların, hastalıkların ve kötülüklerin tamamı zaten tanımlanmıştır. Ancak bizim ve diğer devlet kurumlarının, çok sayıda ihlal ve kural ihlali karşısında bunalması da mümkündür. Bilindiği gibi, gerçek ortaya çıkmadan önce dünyanın dört bir yanında bir söylenti yayılıyor ve bu, üretken yapay zeka çağında daha da güçlendirilebiliyor. Düzenleyicilerimizin ve kurumlarımızın hem mevcut düzenlemelerin yapay zekaya nasıl uygulanacağı konusunda rehberlik almasını, hem de kuralların nasıl ve ne zaman uygulanacağını anlamak için kaynak ve teknik uzmanlık almasını sağlamamız gerekiyor. Bu, yapay zeka gibi etkileyici maaşlara sahip olan ve hâlihazırda önemli beceri eksiklikleri yaşayan bir sektörde özellikle zordur.
Buna çözüm bulmak sadece hükümetin düşüneceği bir konu değil. Sivil toplumu, özel teknoloji şirketlerini, vatandaşları ve tüketicileri kapsamalıdır. Şirketlerin verilerini güvence altına alması ve yapay zeka algoritmalarını besledikleri veriler konusunda daha açık olmaları gerekecek. Hükümetlerin vatandaşlara güvence vermenin ve kendilerini güvende hissetmelerini sağlamanın yenilikçi yollarını düşünmesi gerekecek. Tüketiciler ve toplum olarak çok daha eleştirel olmayı öğrenmemiz, bilginin temel kökenini ve dayandığı verileri sorgulamamız gerekecek. Bu, insanları veri ve yapay zeka okuryazarlığı becerileriyle donatmak ve yapay zeka tarafından oluşturulan içeriğin medyada ve başka yerlerde bu şekilde etiketlenmesini talep etmelerini sağlamakla başlar.
Küresel olarak, güven, köken ve özgünlük değerlerini merkeze alan yapıları, kurumları, düzenlemeleri ve teknolojiyi nasıl inşa etmeye başlayabileceğimizi düşünmemiz gerekecek. Havuç ve sopayla teknoloji şirketlerini güvenlik önlemleri oluşturmaları ve bağımsız değerlendirme için algoritmalar açmaları konusunda teşvik etmemiz gerekecek. Teknoloji sektörünün sahte haberlerle mücadele eden ve yanlış ve dezenformasyonla mücadele eden çözümlere yatırım yapmaya devam etmesi gerekiyor: Bu, yapay zekanın kötü niyetli kullanımını tespit etmek için derin öğrenmeden yararlanmayı ve aynı zamanda daha geniş ekosistemi desteklemek için daha fazlasını yapmayı içeriyor ve bu da araştırmacılara ve yenilikçilerin verilere erişimi.
Hükümetler ayrıca yapay zekaların ve algoritmik sistemlerin kullanımının siyasi adaylar ve siyasi kampanyalar tarafından ifşa edilmesini talep etmelidir; böylece insanlar, bunların hedefleme konusu olup olmadığını ve algoritmik olarak seçilip seçilmediğini ve bilgilerin kendi yollarına itilip itilmediğini bilir. Sorumluluk ve şeffaflığın artmasıyla insanlar kendilerini daha güvende hissedecek ve manipülasyona daha az açık olacaklar. Demokrasilerimizi ve toplumlarımızı gelecek yıllarda koruyabilmemiz için küresel olarak hükümetler 2024’ü takip etmeli, değerlendirmeli ve bunlardan ders çıkarmalıdır. Hükümetler sosyal medyanın demokrasi üzerindeki risklerine karşı tepki vermekte yavaş davrandılar; ancak bu alanda yapay zeka düzenlemeleriyle diğerlerinden bir adım öne geçme şansımız var.
Seçimde nasıl oy vereceği herkese bağlıdır ve az ya da çok güvenilir kaynaklardan gelen az ya da çok bilgiyle oy vermeyi ya da hiç oy vermemeyi seçebilirler. Bu onların seçimi. Ancak yeni ve güçlü teknoloji bağlamında, sonuçta bunun gerçekten onların kendi tercihi olduğundan emin olmalıyız.
Resham Kotecha, Açık Veri Enstitüsü’nde politika başkanıdır