Yapay Zeka ve Makine Öğrenimi, Yeni Nesil Teknolojiler ve Güvenli Geliştirme
NSA, FBI ve CISA, Yapay Zeka Tarafından Üretilen Medyayı ‘Özellikle Kaygı verici’ Buluyor
Rashmi Ramesh (raşmiramesh_) •
13 Eylül 2023
ABD federal kurumları, yapay zeka tarafından üretilen derin sahtekarlıkların etkisini azaltmak için kuruluşlara gerçek zamanlı doğrulama yeteneklerini ve pasif tespit tekniklerini geliştirmelerini tavsiye ediyor.
Ayrıca bakınız: Web Semineri | SASE Dağıtımınız Neden ZTNA 2.0 ile Başlamalı?
Bilgisayar korsanları, bir kuruluşun markasını tehdit etmek için son derece gerçekçi ve “özellikle endişe verici” türde sentetik medyayı kullanabilir, mali kazanç elde etmek için liderlerinin kimliğine bürünebilir ve kişisel, mali ve iç güvenlik bilgilerini (Ulusal Güvenlik) çalmak amacıyla kuruluşun ağına erişmek için sahte iletişimler kullanabilir. Ajans, FBI ve Siber Güvenlik ve Altyapı Güvenliği Ajansı şunları söyledi (bkz: FBI: Deepfake Dolandırıcıları Uzaktan Çalışmaya Başvuruyor).
Devlet destekli kötü niyetli aktörler henüz derin sahtekarlıkları önemli ölçüde kullanmıyor olabilir, ancak teknolojinin kolay erişilebilirliği, daha az yetenekli kötü niyetli aktörlerin artan gerçeklikten yararlanabileceği anlamına geldiğinden, yapay zeka tarafından oluşturulan sahte görüntüler bir zorluk haline gelecektir. Daha önce özel bir yazılım kullanan bir profesyonel tarafından birkaç hafta içinde oluşturulan karmaşık bir sahtekarlık, artık teknik uzmanlığı sınırlı olan veya hiç olmayan biri tarafından bu sürenin çok küçük bir kısmında üretilebiliyor.
Deepfake’in doğrudan ve bariz bir uygulaması, bir şirketin teknik savunmasını aşmak için çalışanları sahte çevrimiçi hesaplar ve sahte metin ve sesli mesajlar yoluyla manipüle etmektir. Suçlular, ikna edici kimlik avı e-postaları oluşturmak için OpenAI’nin ChatGPT’si gibi büyük dil modellerini zaten kullanmışlardır (bkz.: Evet, Virginia, ChatGPT Kimlik Avı E-postaları Yazmak İçin Kullanılabilir).
Ajanslar, bu metin çıktılarının bilgisayar tarafından oluşturulan görüntülerle birleştirilmesinin “daha inandırıcı sahte ürünler üretmek için kullanıldığı” konusunda uyarıyor.
Daha belirgin hale gelmesi beklenen bir diğer uygulama ise savaş zamanı propagandası da dahil olmak üzere dezenformasyondur. Kiev’in Rusya’ya karşı savunma savaşının başlarında Ukraynalı yetkililer uyardı Rus deepfake videolarının olası bir saldırısı hakkında. Günler sonra, bilinmeyen düşmanlar, saldırıya uğramış bir Ukrayna haber sitesinde, Ukrayna Devlet Başkanı Volodymyr Zelenskyy’nin sözde Rusya’ya teslim olduğunu gösteren derin sahte bir video yayınladı.
Çözümler
Ajanslar, deepfake’lerin ve üretken yapay zekanın kötü amaçlarla kullanılmasındaki maliyet ve teknik engellerin düşmeye devam edeceğini, ancak kolluk kuvvetlerinin ve diğer savunucuların deepfake’leri tespit etme ve azaltma yeteneklerinin de düşeceğini söyledi.
Gerçek zamanlı doğrulama ve pasif algılama yetenekleri, derin sahtekarlıkları tespit edebilir ve medyanın kaynağını belirleyebilir. Tespit yöntemleri genellikle, güvenlik personelinin öncelikle, analistleri medyanın daha fazla incelemeye ihtiyacı olduğu konusunda uyaracak kadar önemli manipülasyon kanıtları bulan yöntemler geliştirmeye odaklandığı pasif adli tıp teknikleridir.
Ajanslar, “Bu tespit biçimi bir kedi fare oyunudur; tespit yöntemleri geliştirilip halka açıklandıkça, nesil topluluğundan bunlara karşı koymak için genellikle hızlı bir yanıt gelir” dedi.
Kimlik doğrulama yöntemleri, kaynağın şeffaf olmasını sağlamak için medyanın oluşturulması veya düzenlenmesi sırasında bilinçli olarak yerleştirilen aktif adli tıp teknikleridir. Şu anda kullanılan yöntemler arasında dijital filigranlama, canlılığı doğrulamak için gerçek zamanlı yakalamada aktif sinyaller gönderme ve bir cihaza kriptografik varlık karması ekleme yer alıyor.