AI güdümlü kimlik avı dolandırıcılığı için AI kullanmak


Kimlik avı dolandırıcıları garip ifadeler ve bariz dilbilgisi hatalarıyla dolduruluyordu. Artık değil. AI şimdi gerçek olanı ayırt etmeyi zorlaştırıyor.

AI kimlik avı savunması

Cofense’e göre, e-posta tabanlı dolandırıcılıklar, AI’nın yemleri otomatikleştirme, iç konuşmaları yok etme ve spam filtrelerini ince metin varyasyonlarıyla atlayabilme yeteneğinden kaynaklanan yıldan yıla% 70 arttı.

Suçlular, hedeflerinin ilgi alanlarını, davranışlarını ve tercihlerini anlamak için büyük miktarda veriyi analiz etmek için AI algoritmalarını kullanırlar. Bu amaçla, yeraltı kanallarında bulunabilen Fraudgpt gibi özel araçlar kullanırlar. Popüler ChatGPT’den farklı olarak, yasadışı faaliyetle ilgili soruları cevaplamasını engelleyen herhangi bir kısıtlamadan yoksundur.

Tehdit algılamasını iyileştirmek için yapay zeka kullanmak

Manuel tespit insan analistlerine bağlıdır, bu nedenle daha yavaş ve daha az verimlidir. Ayrıca büyük miktarda veriye ayak uyduramaz ve genellikle tehditleri çok geç bulur.

Bu, AI’nın büyük veri kümelerinde bile, kalıpları ve olağandışı aktiviteyi hızlı bir şekilde tanımladığı yerdir. Gerçek dünya örneklerinden öğrenerek ve yeni tehditlere uyum sağlayarak, kimlik avı girişimlerini erken tespit etmeye yardımcı olur.

Hızlı olmanın ve çok sayıda veri ele almanın yanı sıra, AI önemli olmayan uyarıları keser ve güvenlik ekiplerinin gerçek sorunlara odaklanmasına izin verir. AI ayrıca, kullanıcıların nasıl davrandığı konusunda bir saldırının devam ettiği anlamına gelebilecek küçük değişiklikler görüyor.

AppFire Ciso, “Yapay zeka gibi bir insan gibi davranmak, siber güvenlik liderlerinin işlediğini temelden değiştirecek perspektif bir değişimdir. Bu değişim, güvenlik ekiplerini AI’yı insan başarısızlıklarıyla ortak bir ortak olarak düşünmeye teşvik ediyor” dedi.

AI güdümlü kimlik avı tespit etmek için yapay zeka teknikleri

Makine öğrenimi Olağandışı konumlardan gelen girişler veya kullanıcının tipik olarak etkileşime girmediği sistemlere erişim gibi bir şey kapalı olduğunda tanımaya yardımcı olur. Bu modeller zaman içinde neyin normal olduğunu öğrenir ve yersiz görünen herhangi bir şeyi çağırır.

Doğal Dil İşleme (NLP) e -postaların nasıl yazıldığına dikkat eder. Garip istekler, zorunlu aciliyet veya resmi seslendirmeye çok zorlanan dil gibi bir şeyin doğru olmadığına dair işaretler yakalayabilir.

Derin öğrenme sahte ses, görüntüler veya video yakalamak için kullanılır. Dolandırıcılıklarda derin dişli veya klonlanmış sesler gibi şeyleri tespit eder, burada birinin başka biri gibi davranıyor.

AI savunma dağıtımındaki zorluklar

Tüm yeni teknolojilerin kusurları vardır ve yapay zeka bir istisna değildir. Dikkate almamız gereken dezavantajlar:

Yanlış pozitifler: İlk kez tamamen bir insan tarafından yazılan bir içerik parçası, AI tarafından üretilen bir AI aracı tarafından işaretlenmez. Aynı şey, AI, ne sebeple olursa olsun, onları tehlikeli olarak etiketliyorsa e -postalarda da olabilir. Bu yanlış alarmların çoğu siber güvenlik ekiplerini ezebilir ve gerçek tehditlere odaklanmalarını zorlaştırabilir.

Gizlilik Endişeleri: Kimlik avı tespit eden AI sistemleri genellikle e -postaları, mesajları, ekleri ve kullanıcı davranışlarını analiz eder. Bu, verilerin nasıl depolandığı, kullanıldığı ve korunduğu hakkında soruları gündeme getirir.

Model ayarlama: Tıpkı mobil uygulamalar gibi, bu modellerin yeni kimlik avı taktiklerine ayak uydurmak için sürekli olarak güncellenmesi gerekir. Aksi takdirde, zamanla doğrulukları azalabilir. Bu, yeni tehditlerin kaçırılmasına veya daha da yanlış pozitif üretmeye neden olabilir.

Beceri Boşlukları: AI Tech bu kadar hızlı geliştiği için, henüz bu sistemleri nasıl yöneteceğini bilen birçok uzman yok. Uygun eğitim olmadan, ekipler modelleri ayarlamak ve nasıl yaptıklarını izlemek için mücadele edebilirler.

Gelecek Görünüm

AI hem siber suçlular hem de güvenlik ekipleri için ilerlemeye devam edecek. Bu yarışta kimin üst elini kazanacağını söylemek zor. Ancak kendimizi AI’nın siber suçları kendi başına çözebileceğini düşünmeye kandırmamalıyız. İnsan gözetimi olmadan, AI’ya asla karar vermek için tam kontrol verilmemelidir.

Reaktr.ai başkanı Vineet Chaku, “AI güçlü bir araçtır, ancak insanların yerini alamaz. Bu, işlerimizi daha iyi yapmamıza yardımcı olmakla ilgilidir. En iyi siber güvenlik insanlar, kendi beceri ve bilgilerini artırmak için AI ile etkili bir şekilde çalışabilenler olacak,” dedi Reaktr.Ai başkanı Vineet Chaku.



Source link