AI ile çalışan aldatma, toplumlarımız için bir tehdittir


Dünyada çatışma nerede olursa olsun, propaganda hiç uzakta olmamıştı. M.Ö. 515’e zamanında geri dönün ve Farsça Kral Darius’un iktidara yükselişini tartışan bir otobiyografi olan Behistun Yazıtını okuyun. Daha yakın zamanlarda, farklı gazetelerin ‘İlk yaralı gerçektir’ dedi.

Bu iletişim biçimleri insanların inançlarını şekillendirebilirken, ölçeklenebilirlik etrafında sınırlamalar da taşırlar. Herhangi bir mesajlaşma ve propaganda, belirli bir mesafe kat ettikten sonra genellikle gücünü kaybeder. Tabii ki, sosyal medya ve çevrimiçi dünyada, birisinin internet bağlantısının düştüğü yerler dışında, ulaşamayacak kadar az fiziksel sınır vardır. Yapay zekanın yükselişini ekleyin ve ölçeklenebilirliği de durduracak hiçbir şey yok.

Bu makale, AI destekli bilgi manipülasyonu ve aldatmacalı toplumlar ve kuruluşlar için bunun ne anlama geldiğini araştırmaktadır.

Yankı odasının yükselişi

Pew Araştırma Merkezi’ne göre, beşte biri Amerikalılar haberlerini sosyal medyadan alıyor. Avrupa’da, sosyal medya platformlarını kullanan insanlarda haberlere erişmek için% 11 artış oldu. AI algoritmaları bu davranışsal kaymanın merkezindedir. Bununla birlikte, bir hikayenin her iki tarafını, gazetecilerin eğitildiği ve medya düzenleyicilerinin gerektirdiği şekilde sunmaya zorlanmazlar. Daha az kısıtlama ile sosyal medya platformları, kullanıcılarının sevdiği, istediği ve tepki verdiği içerik sunmaya odaklanabilir.

Göz kürelerini korumaya odaklanmak dijital bir yankı odasına ve potansiyel olarak polarize bakış açılarına yol açabilir. Örneğin, insanlar katılmadıkları fikirleri engelleyebilirken, algoritma tüketimi artırmak için kullanıcı yayınlarını otomatik olarak ayarlar, kaydırma hızını izler. Tüketiciler yalnızca kabul ettikleri içeriği görürlerse, AI’nın onlara gösterdiği şeyle bir fikir birliğine varırlar, ancak daha geniş dünya değil.

Dahası, bu içeriğin daha fazlası şimdi AI araçları kullanılarak sentetik olarak oluşturuluyor. Bu, yakın zamanda bilgi güvenilirliği konusunda uzmanlaşmış bir şirket olan NewsGuard tarafından tanımlanan 1.150’den fazla güvenilmez AI tarafından oluşturulan haber web sitesini de içermektedir. Yapay zekanın çıktı kabiliyeti ile ilgili birkaç sınırlama ile, uzun süredir devam eden siyasi süreçler etkiyi hissediyor.

AI aldatma için nasıl konuşlandırılıyor

İnsanların öngörülemez olduğumuzu söylemek doğru. Beynimizin her birinde çoklu önyargılarımız ve sayısız çelişkimiz sürekli olarak oynar. Milyarlarca nöronun gerçekleri ve sırayla görüşlerimizi şekillendiren yeni bağlantılar kurduğu yer. Kötü niyetli aktörler bu güçlü karışıma AI eklediğinde, bu da aşağıdakiler gibi olaylara yol açar:

  • ABD seçimleri sırasında yayılan derin pul videolar: AI Tools, siber suçluların sadece metin istemlerini kullanarak hareket eden ve konuşan insanların yer aldığı sahte görüntüler oluşturmasına izin verir. Yüksek düzeyde kolaylık ve hız, gerçekçi AI ile çalışan görüntüler oluşturmak için teknik uzmanlığa ihtiyaç duyulmadığı anlamına gelir. Bu demokratikleşme, son ABD seçimlerine kadar gösterildiği gibi demokratik süreçleri tehdit ediyor. Microsoft, Çin ve Rusya’dan gelen faaliyetleri vurguladı ve burada ‘tehdit aktörlerinin üretken yapay zekayı ABD seçimlerine entegre etmesi çabalarını etkiledi.
  • Ses klonlama ve siyasi figürlerin ne dediği: Saldırganlar artık konuşmalarının birkaç saniyesini işleyerek herhangi birinin sesini kopyalamak için AI kullanabilirler. 2023’te bir Slovaklı politikacı için olan buydu. Sözde Michal Simecka’nın bir gazeteciyle yaklaşan bir seçimi nasıl düzelteceğini tartışan sahte bir ses kaydı çevrimiçi yayıldı. Tartışma yakında sahte bulunurken, bunların hepsi yoklama başlamadan sadece birkaç gün önce oldu. Bazı seçmenler AI videonunun gerçek olduğuna inanırken oylarını vermiş olabilirler.
  • Kamu Duygusunu Taklit eden LLM’ler: Rakipler artık seçtikleri LLM kadar ve herhangi bir ölçekte de iletişim kurabilirler. 2020 yılında, erken bir LLM olan GPT-3, ABD eyalet yasa koyucularına binlerce e-posta yazmak için eğitildi. Bunlar, siyasi yelpazenin sol ve sağındaki sorunların bir karışımını savundu. İnsan tarafından yazılmış ve yapay zeka tarafından yazılmış bir karışım olan yaklaşık 35.000 e-posta gönderildi. Yasama müdahale oranları ‘istatistiksel olarak ayırt edilemezdi’ üç konuda.

AI’nın demokratik süreçler üzerindeki etkisi

Birçok AI destekli aldatmacayı tanımlamak hala mümkündür. Bu, bir videodaki aksaklık bir çerçeveden isterse bir konuşmada yanlış ayrılmış bir kelimeden olsun. Bununla birlikte, teknoloji ilerledikçe, gerçeği kurgudan ayırmak zorlaşacak, hatta imkansız olacak.

Fakat denetleyicileri sahte sosyal medya yayınlarına takip ekleyebilir. Snopes gibi web siteleri komplo teorilerini deşifre etmeye devam edebilir. Ancak, bunların orijinal yayınları gören herkes tarafından görüldüğünden emin olmanın bir yolu yoktur. Mevcut dağıtım kanallarının sayısı nedeniyle orijinal sahte malzeme kaynağını bulmak da imkansızdır.

Evrim hızı

Görmek (veya işitme) inanıyor. Gördüğümde buna inanacağım. Göster bana, söyleme. Tüm bu ifadeler insanın dünyayı evrimsel anlayışına dayanmaktadır. Yani gözlerimize ve kulaklarımıza güvenmeyi seçiyoruz.

Bu duyular yüzlerce, hatta milyonlarca yıldan fazla gelişti. Chatgpt Kasım 2022’de halka açık olarak piyasaya sürülürken, beyinlerimiz AI hızına uyum sağlayamazlar, bu yüzden insanlar artık önlerinde olanlara güvenemezlerse, herkesin gözlerini, kulaklarını ve zihinlerini eğitmenin zamanı geldi.

Aksi takdirde, bu organizasyonları saldırıya açık bırakır. Sonuçta, iş çoğu zaman insanların bir bilgisayarda en fazla zaman geçirdiği yerdir. Bu, eylem oluşturmak için tasarlanmış içerikle karşı karşıya kaldıklarında işgücünü farkındalık, bilgi ve şüphecilikle donatmak anlamına gelir. İster seçim zamanında siyasi mesajlar içeriyor veya bir çalışandan prosedürleri atlamasını ve doğrulanmamış bir banka hesabına ödeme yapmasını isteyin.

Bu, toplumları kötü niyetli aktörlerin doğal önyargılar, duygular ve içgüdüler üzerinde birisinin söylediklerine inanmak için oynadığı birçok yoldan haberdar etmek anlamına gelir. Bunlar, kimlik avı (FBI’a göre ‘Bir Numaralı İnternet Suç Türü’) dahil olmak üzere birçok sosyal mühendislik saldırısında oynar.

Ve bu, bireylerin çevrimiçi gördüklerini ne zaman duraklatacaklarını, yansıtacağını ve meydan okumayı bilmelerini desteklemek anlamına gelir. Bunun bir yolu, AI ile çalışan bir saldırıyı simüle etmektir, bu nedenle nasıl hissettirdiğine ve neye dikkat edeceğiniz konusunda ilk elden deneyim kazanırlar. İnsanlar toplumu şekillendirirler, sadece kendilerini, örgütleri ve toplulukları AI destekli aldatmaya karşı savunmak için yardıma ihtiyaçları vardır.


Bu makaleyi ilginç mi buldunuz? Bu makale, değerli ortaklarımızdan birinin katkıda bulunan bir parçasıdır. Bizi takip et Twitter ve daha fazla özel içeriği okumak için LinkedIn.





Source link