
Siber güvenlik manzarası, üretken AI’nın ortaya çıkmasıyla önemli ölçüde yeniden şekillendirildi. Saldırganlar artık güvenilir bireyleri taklit etmek ve bu sosyal mühendislik taktiklerini ölçekte otomatikleştirmek için büyük dil modellerinden (LLMS) yararlanıyor.
Bu yükselen saldırıların durumunu, onları neyin körüklediğini ve bunları nasıl önlemeye, nasıl önleyeceğinizi, bunları nasıl önleyeceğinizi gözden geçirelim.
Çağrıdaki en güçlü kişi gerçek olmayabilir
Son tehdit istihbarat raporları, AI odaklı saldırıların artan karmaşıklığını ve yaygınlığını vurgulamaktadır:
Bu yeni dönemde, güven varsayılamaz veya sadece tespit edilemez. Determinist ve gerçek zamanlı olarak kanıtlanmalıdır.
Sorun neden büyüyor
AI taklitini bir sonraki büyük tehdit vektörü yapmak için üç eğilim yakınlaşıyor:
- AI aldatmayı ucuz ve ölçeklenebilir hale getirir: Açık kaynaklı ses ve video araçlarıyla, tehdit aktörleri sadece birkaç dakikalık referans materyali olan herkesi taklit edebilir.
- Sanal işbirliği güven boşluklarını ortaya çıkarır: Zoom, ekipler ve Slack gibi araçlar, ekranın arkasındaki kişinin kim olduğunu iddia ettiklerini varsayar. Saldırganlar bu varsayımı kullanıyor.
- Savunmalar genellikle kanıta değil, olasılığa dayanır: Derin keçe algılama araçları tahmin etmek Birisi gerçekse. Yüksek bahisli bir ortamda bu yeterince iyi değil.
Ve uç nokta araçları veya kullanıcı eğitimi yardımcı olabilirken, gerçek zamanlı olarak kritik bir soruyu cevaplamak için oluşturulmamıştır: Konuştuğum bu kişiye güvenebilir miyim?
AI tespit teknolojileri yeterli değil
Geleneksel savunmalar, şüpheli davranışları tespit etmek için kullanıcıları eğitmek veya birisinin sahte olup olmadığını analiz etmek için AI kullanmak gibi tespit üzerine odaklanır. Ancak derin dişler çok iyi, çok hızlı hale geliyor. Olasılık tabanlı araçlarla AI tarafından üretilen aldatmaca ile savaşamazsınız.
Gerçek önleme, varsayım değil, kanıtlanabilir güvene dayalı farklı bir temel gerektirir. Bu şu anlama geliyor:
- Kimlik doğrulaması: Yalnızca doğrulanmış, yetkili kullanıcılar, şifreler veya kodlara değil, şifreleme kimlik bilgilerine dayalı hassas toplantılara veya sohbetlere katılabilmelidir.
- Cihaz bütünlüğü kontrolleri: Bir kullanıcının cihazı enfekte ise, jailbroken veya uyumlu değilse, kimlikleri doğrulanmış olsa bile saldırganlar için potansiyel bir giriş noktası haline gelir. Bu cihazları iyileştirene kadar toplantılardan engelleyin.
- Görünür Güven Göstergeleri: Diğer katılımcıların Görmek Toplantıdaki her bir kişinin söyledikleri ve güvenli bir cihazda olduklarını kanıtlar. Bu, son kullanıcıların yargı yükünü ortadan kaldırır.
Önleme, kimliğe bürünmenin sadece zor olmadığı koşullar yaratmak anlamına gelir, aynı zamanda imkansızdır. Kurul toplantıları, finansal işlemler veya satıcı işbirlikleri gibi yüksek riskli konuşmalara katılmadan önce AI Deepfake saldırılarını bu şekilde kapatıyorsunuz.
Tespit Tabanlı Yaklaşım | Önleme yaklaşımı |
---|---|
Anomalileri ortaya çıktıktan sonra | Yetkisiz kullanıcıların katılmasını engelleyin |
Sezgiselliklere ve Guesswork’e güvenin | Kriptografik kimlik kanıtını kullanın |
Kullanıcı yargısı gerektirir | Görünür, doğrulanmış güven göstergeleri sağlayın |
Aramalarınızdaki derin düneme tehditlerini ortadan kaldırın
RealityCheck Beyond Identity, işbirliği araçları içindeki bu güven boşluğunu kapatmak için inşa edildi. Her katılımcıya kriptografik cihaz kimlik doğrulaması ve sürekli risk kontrolleri ile desteklenen görünür, doğrulanmış bir kimlik rozeti verir.
Şu anda Zoom ve Microsoft Teams için mevcut (Video ve Sohbet), RealityCheck:
- Her katılımcının kimliğinin gerçek ve yetkili olduğunu doğrular
- Yönetilmeyen cihazlarda bile cihaz uyumluluğunu gerçek zamanlı olarak doğrular
- Doğrulandığınızı göstermek için görsel bir rozet görüntüler
Nasıl çalıştığını görmek istiyorsanız, Beyondtity, ürünü çalışırken görebileceğiniz bir web seminerine ev sahipliği yapıyor. BURADA KAYIT!