Deepfake’ler ve ses klonları seçim bütünlüğünü baltalıyor


TeleSign’a göre, dijital iş hacmi her geçen yıl artarken, yapay zeka destekli dijital dolandırıcılığın potansiyeli de artıyor.

Yapay zeka tarafından üretilen içerik korkusu

Yeni bir TeleSign raporu, özellikle dijital gizlilik konusunda AI’nın nasıl dağıtıldığına dair tüketici endişelerini ve belirsizliğini vurguluyor ve dolandırıcılık, bilgisayar korsanlığı ve yanlış bilgilendirmeyle mücadele için etik AI ve ML kullanımına duyulan ihtiyacı vurguluyor (diğer adıyla “iyi amaçlı AI”). 2024’te rekor sayıda seçmenin sandık başına gitmesiyle birlikte, seçim güvenini zedeleyebilecek AI’nın potansiyel kötüye kullanımı hakkındaki tüketici tutumlarını da araştırıyor.

Telesign CEO’su Christophe Van de Weyer, “Yapay zekanın son bir yılda ortaya çıkması, dijital dünyada güvenin önemini ön plana çıkardı” dedi. “Yapay zeka gelişmeye ve daha erişilebilir hale gelmeye devam ettikçe, kişisel ve kurumsal verilerin bütünlüğünü korumak için yapay zeka destekli dolandırıcılık koruma çözümlerine öncelik vermemiz hayati önem taşıyor; yapay zeka, yapay zeka destekli dolandırıcılık saldırılarına karşı en iyi savunmadır.”

Seçmenler seçimlerde yapay zeka tarafından üretilen içeriklerden korkuyor

Yapay zekanın yükselişi, iş dünyasında güvenin önemini artırıyor. Amerikalıların %87’si markaların kullanıcıların dijital gizliliğini korumaktan sorumlu olduğuna inanıyor. Yine de, yapay zekanın dijital gizlilikleri üzerindeki etkisine ilişkin algılarına gelince, ABD’li katılımcıların %44’ü yapay zeka/makine öğreniminin dijital dolandırıcılığa karşı duyarlılıklarında hiçbir fark yaratmayacağına inandığından şaşırtıcı derecede kararsızlar. Bu, üretken yapay zeka tarafından körüklenen artan hesap ele geçirme girişimleri ve diğer dolandırıcılık saldırılarının olduğu bir ortamda gerçekleşiyor.

Gençlerin (%47) dolandırıcılığa karşı korunmak için yapay zeka veya makine öğrenimi kullanan şirketlere güvenme olasılığı, yaşlılara (%39) göre daha yüksektir.

Daha önce hiç olmadığı kadar çok seçmenin sandık başına gideceği bir yılda (dünya nüfusunun yaklaşık %49’unu temsil ediyor), yapay zekanın seçimlere olan güveni nasıl etkileyebileceği konusunda korku yüksek. Dünya çapında seçmenlerin %72’si, yapay zeka tarafından üretilen içeriklerin ülkelerindeki yaklaşan seçimleri baltalayacağından korkuyor.

Bu kasım ayında başkanlık seçimlerinin yapılacağı ABD’de, katılımcıların %45’i son bir yılda yapay zeka tarafından oluşturulmuş bir siyasi reklam veya mesaj gördüğünü belirtirken, %17’si ise son bir hafta içinde bir tane gördüğünü söyledi.

ABD’li katılımcıların %74’ü çevrimiçi yapılan bir seçimin sonucunu sorgulayacaklarını kabul ediyor. Küresel ortalama %70 ile biraz daha düşük. Amerikalılar çevrimiçi seçim sonuçlarına güvenme olasılığı en düşük olanlardır.

Yanlış bilgilendirme seçim sonuçlarına olan güveni zedeliyor

Dahası, ABD’li katılımcıların %75’i yanlış bilginin seçim sonuçlarını doğası gereği daha az güvenilir hale getirdiğine inanıyor. Özellikle, Amerikalıların %81’i deepfake’lerden ve ses klonlarından gelen yanlış bilginin seçimlerinin bütünlüğünü olumsuz etkilediğinden korkuyor. Dolandırıcılık mağdurlarının geçen yıl bir deepfake veya klona maruz kaldıklarına inanma olasılıkları daha yüksek (%21).

ABD’deki katılımcıların %69’u yakın zamanda deepfake videolara veya ses klonlarına maruz kaldıklarına inanmıyor. Küresel ortalama %72’ye çıkıyor.

Üretken yapay zekanın hızla gelişmesiyle birlikte hesap ele geçirme girişimlerindeki artış gibi endişe verici dolandırıcılık eğilimlerinin artmasıyla birlikte, işletmelerin dolandırıcılık girişimlerini durdurmak için yapay zeka gibi teknolojileri kalıcı olarak kullanmaları kaçınılmaz hale geldi.

Deepfake’leri tespit etme ve kaldırmada kaydedilen ilerlemelere rağmen, yapay zeka tarafından üretilen içeriklerin sahte hesaplar aracılığıyla dağıtımı hala önemli bir zorluk olmaya devam ediyor. İşletmelerin sahte hesapların ve deepfake’lerin yayılmasını durdurmasının kritik bir yolu, kullanıcıların gerçek olduğunu kanıtlamak için güvenli protokoller uygulamaktır.



Source link