Deepfakes Gerçekten Bir Güvenlik Tehdidi mi? – (ISC)² Güvenlik Kongresi 2022’den Üye Özeti


[ This article was originally published here ]

Dr. Thomas Scanlon’ın , CISSP, CCSP, MBA, PMP tarafından hazırlanan (ISC)² Güvenlik Kongresi 2022’deki oturumunun bir üye özeti.

Dr. Scanlon konuşmasına kadın resimlerini göstererek ve dinleyicilere bir soru sorarak başladı: Sahte kişiyi tanıyabilir misiniz? Soldaki resme bakın.

Şaşırtıcı bir şekilde, hiçbiri gerçek bir insan değil! Bu görüntüler bir AI algoritması (GAN) tarafından oluşturulur, kaynak: . Bence biraz ürkütücü. Günümüzde birçok web sitesi, .

Deepfake’e göre, yanlış bilgilendirme, dezenformasyon ve yanlış bilgilendirme (MDM) olarak kabul edilir.

  • yanlış bilgilendirme yanlıştır, ancak zarar verme niyetiyle oluşturulmaz veya paylaşılmaz. yani ilk Amerikan bayrağını Betsy Ross dikti.
  • dezenformasyon bir kişiyi, sosyal grubu, kuruluşu veya ülkeyi yanıltmak, zarar vermek veya manipüle etmek için kasıtlı olarak oluşturulur. yani INFEKTON Operasyonu.
  • yanlış bilgilendirme gerçeğe dayalıdır, ancak yanlış yönlendirmek, zarar vermek veya manipüle etmek için bağlam dışında kullanılır. yani diş hekimlerinin %80’i Colgate’i tavsiye ediyor.

Dezenformasyon ve Yanlış bilgi genellikle yanlış bilgi olarak paylaşılır.

2017’de bir Reddit kullanıcısı ilk derin sahtekarlığı yarattığını iddia etti. Bugün, yapay zekanın bir dalı olan Makine öğrenimi (ML), derin sahte içerik oluşturmaya yönelik kullanılabilirliği hızlandırdı. Deepfake, bir kişinin kimliğini değiştirmek için ML algoritması Deep Neural Networks kullanılarak aldatıcı bir şekilde değiştirilmiş ses, video, görüntü veya çok modlu olabilir. Ancak, bir deepfake, photoshop kullanmakla aynı şey değildir. Deepfake’ler dezenformasyon olarak kabul edilir veya dezenformasyonla birleştirilir. Bir örnek, LinkedIn’de derin sahte görüntü içeren bir profil olabilir.

Görüntü kaynağı:

Deepfake’lerin çoğu yüz değiştirme, dudak senkronizasyonu, kuklacılık ve sentetiktir. Otomatik kodlayıcılar, GAN’lar veya her ikisinin bir kombinasyonu kullanılarak oluşturulurlar. Oluşturma süreçleri şu şekildedir: Çıkarma (Veri toplama) -> Eğitim -> Dönüştürme / Üretim. Binlerce görüntü alıyor. Bu görüntüler, birkaç video klipteki tek tek karelerden de çıkarılabilir. Görüntü oluşturma sırasında ifadeyi, ağzı, bakışı ve duruşu veya bedeni yönlendirmek için bir canlandırma kullanılır.

Video deepfake’leri eğlence için kullanılabilir, örneğin Başkan Obama’nın bir YouTube’da Başkan Trump’a adıyla seslendiği zaman.

Dr. Scanlon, derin sahtekarlığı tanımlamak için sezgi ve göz testini kullanabileceğimize dikkat çekiyor. Sezgilerim bana, bir başkanın bunları söylemesinin karakterine aykırı olduğunu söylüyor, kesinlikle kayıtlı resmi bir oturumda değil.

Dr. Scanlon bize kadınların deepfake oluşturulmuş görüntülerini ikinci kez gösterdiğinde, görüntülerde gözlerle bakmayı veya bakmayı fark edebiliyorum.

İşte bazı pratik ipuçları:

  • titriyor
  • Doğal olmayan hareketler ve ifadeler
  • yanıp sönme eksikliği
  • Doğal olmayan saç ve cilt renkleri
  • Garip kafa pozisyonları
  • Dudak senkronizasyonu gibi görünüyor
  • Aşırı düzleştirilmiş yüzler
  • Çift kaşlar: kaşları yanlış zamanda kaldırmak; Rock gibi tek kaşını kaldırdı
  • Camlarda parlama/parlama eksikliği
  • Benlerin gerçekçi görünümü; benlerin yerleşimini düşünün
  • Küpeler – yalnızca bir tane takmak veya uyumsuz

Deepfake yaygınlaştıkça güvenlik endişeleri artar ve kamu ve özel sektörde bunlarla mücadele etmek için çeşitli çabalar vardır. Savunma İleri Araştırma Projeleri Ajansı (DARPA), Semantik Adli Tıp (SemaFor) ve Medya Adli Tıp (MediFor) üzerinde çalışıyor. Facebook gibi sosyal medya şirketlerinin derin sahtekarlığı tespit etmek için kendilerine ait veya merkezi bir ajansı vardır. Microsoft’un Video Authenticator Tool, Facebook Tersine Mühendislik ve Quantum Integrity gibi algılama araçları da vardır.

Deepfake’i tespit etmenin birkaç programlı yolu:

  • Karıştırma (uzaysal)
  • Çevresel (uzaysal): aydınlatma – arka plan/ön plan farklılıkları
  • Fizyolojik (geçici): üretilen içerikte nabız, atış yok; düzensiz göz kırpma paternleri var
  • Senkronizasyon (geçici): Ağız şekilleri ve konuşma, “BPM” ağız kapalı hatası
  • Tutarlılık (geçici): Titreşiyor, sonraki kareyi tahmin ediyor
  • Adli (uzaysal): Eşsiz parmak izi bırakan Üretken Düşman Ağlar (GAN’lar), Kamera Fotoğraf Tepkisi Tekdüze Olmama (PRNU)
  • Davranışsal (geçici): Video ve işitsel duygular; hedef tavırları (>veri)

Bir kuruluş olarak, güvenlik tehditlerini önlemek için birkaç yöntem düşünülebilir:

  • Oluşturma ve algılama için mevcut yetenekleri anlayın
  • Neyin gerçekçi bir şekilde yapılabileceğini bilin ve göstergeleri tanımayı öğrenin
  • Mevcut derin sahte yetenekleri yenmenin pratik yollarının farkında olun – “kafanızı çevirin”
  • Kuruluşunuz için bir eğitim ve bilinçlendirme kampanyası oluşturun
  • Deepfake’lerden yararlanılabilecek yerler için iş akışlarını inceleyin
  • Sesli veya görüntülü talimatlarla neler yapılabileceğine ilişkin politikalar oluşturun
  • Bant dışı doğrulama süreçleri oluşturun
  • Filigran medyası – tam anlamıyla ve mecazi olarak
  • Her türden MDM ile savaşmaya hazır olun
  • Sonunda deepfake algılama araçlarını kullanın

Soru-Cevap sırasında izleyiciler, Dr. Scanlon’dan derin sahtekarlığı tanımlamaya yönelik ipuçları istedi. Deepfake, üç boyutlu uzaya doğru çalışıyor olsa da, çok sayıda yapay zeka olmayan ön ve son işleme gerektirir. Faceswap ve DeepFaceLab gibi mevcut deepfake araçları, düşük kaliteli bir deepfake oluşturmak için önemli ölçüde zaman ve Grafik İşlem Süresi (GPU) alıyor. Sanal toplantı katılımcıları, diğerlerinden “kafanızı çevirmelerini” isteyerek kusurları kolayca fark edebilir. Dr. Scanlon, işleme öncesi ve sonrası sorununun beş yıl içinde aşılabileceğini öngörüyor.

(ISC)² Güvenlik Kongresi katılımcıları, talep üzerine etkinlikteki diğer tüm oturumları izleyerek CPE kredisi kazanabilir.

AI hakkında daha fazlasını keşfetmek ister misiniz? (ISC)² Üyeler, Profesyonel Gelişim Kursunu ÜCRETSİZ alabilirler, üye olmayanlar için 80 ABD Doları.

reklam





Source link