ChatGPT gibi üretken yapay zeka teknolojileri, neredeyse bir gecede güvenlik ortamına kapsamlı değişiklikler getirdi. Üretken yapay zeka sohbet robotları, kullanıcılardan gelen kısa istemlere yanıt olarak net, iyi noktalanmış metinler, resimler ve diğer medyalar üretebilir. ChatGPT kısa sürede bu yeni yapay zeka dalgasının sembolü haline geldi ve bu teknolojinin ortaya çıkardığı güçlü güç siber suçluların üzerinde kaybolmadı.
Binlerce kötü amaçlı metin ve sesli mesaj, Web bağlantısı, ek ve video dosyası oluşturmak için üretici yapay zekadan yararlanan teknolojiler geliştirmek için yeni bir tür silahlanma yarışı sürüyor. Bilgisayar korsanları, sosyal mühendislik numaralarını genişleterek savunmasız hedeflerden yararlanmaya çalışıyor. ChatGPT, Google’ın Bard’ı ve Microsoft’un yapay zeka destekli Bing’i gibi araçların tümü, öğrenmeye erişimi katlanarak artırmak ve böylece bağlamsallaştırılmış bilgiye dayalı yeni içerik biçimleri oluşturmak için büyük dil modellerine güvenir.
Bu şekilde, üretken yapay zeka, tehdit aktörlerinin, başarı olasılıklarını artırmak için kötü amaçlı yazılımdaki kodu değiştirerek veya aynı sosyal mühendislik konuşmasının binlerce sürümünü oluşturarak saldırılarının hızını ve çeşitliliğini hızla artırmalarına olanak tanır. Makine öğrenimi teknolojileri geliştikçe, bu teknolojinin suç amaçları için kullanılabileceği yolların sayısı da artacaktır.
Tehdit araştırmacıları, üretken yapay zeka cininin artık şişeden çıktığını ve tehdit aktörlerinin başarı oranını artırmak için binlerce benzersiz şekilde uyarlanmış kimlik avı mesajını ve bu mesajların varyasyonlarını şimdiden otomatikleştirdiği konusunda uyarıyorlar. Klonlanmış e-postalar, orijinalleriyle benzer duyguları ve aciliyeti yansıtıyor, ancak otomatik botlardan gönderildiklerinin tespit edilmesini zorlaştıran biraz değiştirilmiş ifadelerle.
Yapay Zekaya “İnsani” Bir Yaklaşımla Karşı Koymak
Bugün insanlar, korku (“IRS vergi denetiminden kaçınmak için burayı tıklayın…”) veya açgözlülük (“Kimlik bilgilerinizi gönderin”) gibi insani duyguları harekete geçirmek için çok kanallı yükleri kullanan iş e-postası ele geçirme (BEC) saldırılarının en önemli hedeflerini oluşturuyor. kredi kartı indirimi talep etmek için…”). Kötü aktörler, kurumsal yazılım zayıflıklarından ve yapılandırma güvenlik açıklarından yararlanmaya çalışırken, bireylere doğrudan saldırmak için stratejilerini şimdiden yeniden donattı.
Üretken yapay zekaya dayalı siber suçlardaki hızlı artış, bu soruna karşı savunma yapmak için yeterli sayıda güvenlik araştırmacısı tutmayı giderek daha gerçekçi olmaktan çıkarıyor. Yapay zeka teknolojisi ve otomasyonu, siber tehditleri insanlardan çok daha hızlı ve doğru bir şekilde algılayabilir ve bunlara yanıt verebilir, bu da güvenlik ekiplerinin yapay zekanın şu anda ele alamadığı görevlere odaklanmasını sağlar. Üretken yapay zeka, her bir temel tehdidi değerlendirmek ve aynı temel tehdidin binlerce başka varyasyonunu ortaya çıkarmak için yapay zeka veri artırma ve klonlama teknikleri uygulayarak çok sayıda olası yapay zeka kaynaklı tehdidi tahmin etmek için kullanılabilir ve sistemin sayısız olası üzerinde kendini eğitmesine olanak tanır. varyasyonlar.
Kullanıcıları kötü niyetli bağlantılara tıklamaktan veya kötü ekleri açmaktan korumak için tüm bu öğeler gerçek zamanlı olarak bağlamsallaştırılmalıdır. Dil işlemcisi, aynı mesajın binlerce benzer versiyonunu üretebilen, ancak biraz farklı ifadeler ve ifadeler içeren bağlamsal bir çerçeve oluşturur. Bu yaklaşım, kullanıcıların mevcut tehditleri durdururken gelecekteki tehditlerin nasıl görünebileceğini tahmin etmelerini ve engellemelerini sağlar.
Gerçek Dünyada Toplum Mühendisliğine Karşı Koruma
Bir sosyal mühendislik saldırısının gerçek dünyada nasıl gerçekleşebileceğini inceleyelim. AWS’den vadesi geçmiş bir faturayla ilgili bir bildirim alan ve banka havalesiyle acil bir ödeme için acil bir talep alan bir çalışanın basit örneğini ele alalım.
Çalışan bu mesajın gerçek bir kişiden mi yoksa chatbottan mı geldiğini ayırt edemez. Şimdiye kadar, eski teknolojiler, orijinal e-posta saldırılarını tanımak için imzalar kullanıyordu, ancak şimdi saldırganlar, dili biraz değiştirmek ve yeni tespit edilmemiş saldırılar oluşturmak için üretici yapay zekayı kullanabilir. Çözüm, verileri analiz edebilen ve iki ayrı mesajın aynı anlamı ifade ettiği gerçeğiyle ilişkilendirebilen bir doğal dil işleme ve ilişki grafiği teknolojisi gerektirir.
Doğal dil işlemeye ek olarak, ilişki grafiği teknolojisinin kullanımı, AWS’den önceki mesajları veya faturaları belirlemek için çalışana gönderilen tüm e-postaların temel incelemesini gerçekleştirir. Böyle bir e-posta bulamazsa, çalışanı gelen BEC saldırılarından korumak için sistem uyarılır. Dikkati dağılmış çalışanlar, kişisel kimlik bilgilerinden vazgeçmenin veya potansiyel bir dolandırıcıya mali ödemeler yapmanın sonuçlarını düşünmeden hızlıca yanıt vermeleri için kandırılabilirler.
Açıkçası, bu yeni üretken AI dalgası, avantajı saldırganların lehine çevirdi. Sonuç olarak, ortaya çıkan bu savaşta en iyi savunma, bir sonraki hamlelerini tahmin ederek aynı AI silahlarını saldırganlara karşı kullanmak ve duyarlı çalışanları gelecekteki saldırılardan korumak için AI kullanmak olacaktır.
yazar hakkında
Patrick Harr, BEC, smishing, hesap ele geçirme, dolandırıcılık, kötü amaçlı yazılım ve istismarları bir ihlal haline gelmeden önce durdurmak için patentli HumanAI™ kullanan entegre bir bulut mesajlaşma güvenlik şirketi olan SlashNext’in CEO’sudur.