Yapay Zeka ve Makine Öğrenimi, Sahtekarlık Yönetimi ve Siber Suç, Sahtekarlık Risk Yönetimi
Google, Veo 3 için övgü alıyor, ancak AI video aracının daha karanlık bir tarafı var
Suparna goswami (Gsuparna) •
27 Mayıs 2025

“Deli. Derin dişler için büyük sorun. Dezenformasyon başka bir seviyeye ulaşacak.”
Ayrıca bakınız: Ondemand | Modern işletmeler kapsamlı kimlik güvenliği programları gerektirir: Kimlik güvenliğinde liderden en iyi uygulamalar
Bu, 20 Mayıs’ta Google’ın Veo 3’ün piyasaya sürülmesinden sonra sahtekarlık savaşçılarının tepkisiydi.
Bu arada, AI meraklıları Veo 3’ün Google’ın en iyi ürünlerinden biri olduğunu ve tam olarak vaat ettiği şeyi yapıyor. Mindoing AI, metin istemlerinden sinematik video klipler oluşturur ve sonuçlar tamamen gerçek görünüyor ve hissediyor. Ama – tabii ki bir ‘ama’ var büyük bir atılım var – daha karanlık bir taraf var. Veo 3, derin peynir yeteneklerini keşfedilmemiş bölgeye iter. Yaratıcı gücü, gerçeğe, güvene ve özgünlüğe yeni tehditler getiriyor.
VEO 3 tarafından hayali bir araba şovunda basit, ılımlı röportaj isteyen videolara bir örnek.
Point Protective ile Şef Dolandırıcılık Stratejisti Frank McKenna, Blogunda Dolandırıcılık Fighters Unite adlı hayali bir sahtekarlık konferansında bir video yayınladı. Video, “uzmanlar” ı çek sahtekarlığı, çevrimiçi sahtekarlık ve otomatik kredi dolandırıcılıkları dahil olmak üzere en iyi sahtekarlık trendleri hakkında konuşuyor. Konferans, tek bir çatı altında 2.000’den fazla dolandırıcılık savaşçısını bir araya getirmeyi vaat ediyor. Video, bir hacker’dan özel bir mesajla bitiyor – hepsi AI sayesinde.
Tüm suçu Veo 3’e yerleştirmek haksızlık olurdu. Veo 3 gerçeğe dönüşmeden çok önce, dolandırıcılar kurbanları kandırmak için derin peynir videoları kullanıyorlar. Örneğin, 2023’te dolandırıcılar, İngiliz mühendislik firması Arup’daki bir finans çalışanını 25 milyon dolar hesaplarına aktarmaya kandırdı. Dolandırıcılar, şirketin CFO’su ve diğer yöneticilerin AI tarafından oluşturulan avatarlarını içeren bir derin pasife görüntülü görüşmesi kullandı ve etkileşimin gerçek görünmesini sağladı.
Açıkçası, bu teknolojideki gelişmeler hem işletmeler hem de tüketiciler için büyük riskler oluşturmaktadır. Ne yazık ki, sahte bir videodan gerçek bir video tespit etmek zorlaşıyor. Başlangıçta, şekilsiz eller, hatalı yüzler ve garip ifadeler gibi AI tarafından üretilen videoların belirtileri tespit edilebilir. Ancak bugünün modelleri o kadar cilalı ki uzmanlar bile farkı anlatmak için mücadele ediyor.
Tespit araçları mevcuttur, ancak mükemmel olmaktan uzaktırlar. Openai’nin kendi AI sınıflandırıcısı kaldırıldı çünkü AI ve insan tarafından yazılmış metni güvenilir bir şekilde ayıramadı. Google’ın Synthid filigran teknolojisi iyi bir atılımdır, ancak bir çalışma, araştırmacıların konseptte benzer bir dijital filigran deseni çalabildiklerini buldu.
Bu, daha iyi çözümlere ve hızlı bir şekilde ihtiyacımız olduğu anlamına gelir.
Kimse frenleri inovasyona koymak istemese de, AI ve AI tarafından üretilen videoların yükselişi küresel aldatmaca etkinliğinde zirve ile ilişkilidir. Küresel Scam karşıtı ittifakın FeedZai ile işbirliği içinde yapılan bir raporu, dolandırıcıların geçen yıl küresel olarak 1.03 trilyon dolardan fazla sifonladığını söylüyor. Dolandırıcıların finansal ücretleri şaşırtıcı, ABD, Danimarka ve İsviçre kurban başına en yüksek kayıpları bildiriyor. Amerikalılar ortalama 3.520 dolar kaybetti. Bu yapay zeka tarafından oluşturulan bu video özelliklerinin romantizm ve yatırım dolandırıcılıklarında bir artışı artırması muhtemeldir.
İronik olarak, yanlış ellerde ve yanlış amaçlar için inovasyon, dijital dönüşümü yavaşlatabilir ve bizi analog gerçek dünya etkileşimlerinin eski güzel günlerine geri götürebilir. Bunun bir savunucusu olduğum için değil, ama dijital bir şeye güvenmek her gün zorlaşıyor. Gördüklerimize ve duyduğumuza hangi noktada tam güvenini kaybedeceğiz?
Hükümetler ve çeşitli devlet kurumları, yanlış bilgilendirme konusundaki endişelerden dolayı AI tarafından üretilen içeriği düzenlemek için yarışıyor. Birleşmiş Milletler AI dezenformasyonunu küresel bir güvenlik tehdidi olarak tanımlamıştır ve etik yönergeler ve uluslararası bir AI bekçi grubu çağrısında bulunur. Avrupa Birliği’nin AI Yasası, yüksek riskli kullanımlar için sentetik içerik ve daha katı kontrollerin filigranını zorunlu kılar. Çin, DeepFakes için etiketleme ve onay gerektiriyor ve Birleşik Krallık bir AI Güvenlik Enstitüsü başlattı ve siyasi reklamlar üzerinde filigran yapmayı düşünüyor.
Düzenlemelerin sınırlamaları olsa da, hükümetler uygulanmalarını sağlamada önemli bir rol oynamaktadır. Eleştirmenler, hükümetlerin önyargı ile hareket edebileceğini veya uygunsuz gerçekleri gizleyebileceğini savunuyorlar, ancak AI’nın sorumlu kullanımını denetleyecek başka kim konumlandırıldı?
Mevcut AI algılama araçları yardımcı olur, ancak üretken yapay zeka derinüzleri tespit etmek için AI kullanmak, antivirüs yazılımını bilinen tehditlere karşı dağıtmak gibidir.
AI, tasarımla bilinmeyene karşı başarısız olacaktır. Ve bu “büyük sorun” demek.