Farid, “Fiziksel dünyada, ürünleri piyasaya sürdüğümüzde gerçekten katı kurallar olması beni sürekli şaşırtıyor” diyor. “Bir ürünü piyasaya sürüp bunun müşterinizi öldürmemesini umamazsınız. Ancak yazılım söz konusu olduğunda, ‘Bu gerçekten işe yaramıyor, ama onu milyarlarca insana sunduğumuzda bakalım ne olacak’ diyoruz.”
Seçim sırasında önemli sayıda derin sahtekarlığın yayıldığını görmeye başlarsak, Donald Trump gibi birinin bu tür içerikleri sosyal medyada paylaştığını ve bunun gerçek olduğunu iddia ettiğini hayal etmek kolaydır. Başkan Biden’ın diskalifiye edici bir şey söylediği bir derin sahte seçimden kısa bir süre önce ortaya çıkabilir ve birçok insan bunun yapay zeka tarafından üretildiğini asla öğrenemeyebilir. Ne de olsa araştırmalar sürekli olarak sahte haberlerin gerçek haberlerden daha fazla yayıldığını göstermiştir.
Deepfake’ler, daha 18 ay olan 2024 seçimlerinden önce her yerde yaygınlaşmasa bile, bu tür içeriklerin oluşturulabilmesi bile seçimi etkileyebilir. Sahte görüntülerin, seslerin ve videoların nispeten kolay bir şekilde oluşturulabileceğini bilmek, insanların karşılaştıkları meşru malzemeye güvenmemelerine neden olabilir.
Ajder, “Bazı açılardan, derin sahtekarlıkların ve üretici yapay zekanın yine de aksamaya neden olmaları için seçime dahil olmalarına bile gerek yok, çünkü kuyu artık her şeyin sahte olabileceği fikriyle zehirlendi” diyor. “Sizinle ilgili uygunsuz bir şey ortaya çıkarsa bu gerçekten yararlı bir bahane sağlar. Sahte diye reddedebilirsin.”
Peki bu sorun hakkında ne yapılabilir? Bir çözüm, C2PA adı verilen bir şeydir. Bu teknoloji, telefon veya video kamera gibi bir cihaz tarafından oluşturulan herhangi bir içeriği ve görüntüyü kimin, nerede ve ne zaman çektiği belgeleri kriptografik olarak imzalar. Kriptografik imza daha sonra merkezi bir değişmez defterde tutulur. Bu, meşru videolar üreten kişilerin aslında meşru olduklarını göstermelerini sağlar.
Diğer bazı seçenekler, parmak izi ve filigran olarak adlandırılan resimleri ve videoları içerir. Parmak izi, içerikten “karma” olarak adlandırılan, esasen yalnızca veri dizileri olan, böylece daha sonra meşru olarak doğrulanabilecek olanların alınmasını içerir. Filigran, tahmin edebileceğiniz gibi, resimlere ve videolara dijital filigran eklemeyi içerir.
Deepfake’leri tespit etmek için AI araçlarının geliştirilebileceği sıklıkla önerildi, ancak Ajder bu çözümde satılmıyor. Teknolojinin yeterince güvenilir olmadığını ve geliştirilmekte olan sürekli değişen üretken AI araçlarına ayak uyduramayacağını söylüyor.
Bu sorunu çözmek için son bir olasılık, sosyal medya kullanıcıları için bir tür anlık bilgi denetleyicisi geliştirmek olacaktır. Harvard’daki Berkman Klein İnternet ve Toplum Merkezi’nde araştırmacı olan Aviv Ovadya, bir uygulamadaki bir içeriği öne çıkarabileceğinizi ve onu, doğruluğu konusunda sizi bilgilendirecek bir bağlama oturtma motoruna gönderebileceğinizi söylüyor.
“Bu teknolojideki gelişmeler hızında gelişen medya okuryazarlığı kolay değil. Ovadya, “Çevrimiçi olarak gördüğünüz bir şeye baktığınızda ve o şeyle ilgili bağlamı anladığınızda, bunun neredeyse anında olmasına ihtiyacınız var” diyor. “Neye bakıyorsun? Güvenebileceğiniz kaynaklarla çapraz referans alabilirsiniz.”
Sahte haber olabilecek bir şey görürseniz, araç size bunun doğruluğu konusunda hızlı bir şekilde bilgi verebilir. Sahte gibi görünen bir resim veya video görürseniz, doğrulanıp doğrulanmadığını görmek için kaynakları kontrol edebilir. Ovadya, WhatsApp ve Twitter gibi uygulamalarda kullanılabileceğini veya kendi uygulaması olabileceğini söylüyor. Sorunun, konuştuğu birçok kurucunun böyle bir araç geliştirmek için çok fazla para görmemesi olduğunu söylüyor.
Bu olası çözümlerden herhangi birinin 2024 seçimlerinden önce benimsenip benimsenmeyeceği henüz belli değil, ancak tehdit büyüyor ve üretken yapay zeka geliştirmeye çok para harcanıyor ve bu tür dezenformasyonun yayılmasını önlemenin yollarını bulmak için çok az çaba harcanıyor. .
“Zaten gördüğümüz gibi bir alet seli göreceğimizi düşünüyorum, ama bence [AI-generated political content] devam edecek,” diyor Ajder. “Temel olarak, bu inanılmaz derecede hızlı hareket eden, güçlü teknolojilerle başa çıkmak için iyi bir konumda değiliz.”