ChatGPT, Kasım ayının sonlarından bu yana dünyayı kasıp kavurdu. haklı endişeler uyandırmak siber tehdit ortamının ciddiyetini ve karmaşıklığını artırma potansiyeli hakkında. Üretken AI aracının hızlı yükselişi, hem saldırganların hem de savunucuların sürekli olarak rekabet avantajı sağlayabilecek bir sonraki çığır açan AI/ML teknolojilerini aradığı, iyi ve kötü arasında devam eden bir siber güvenlik silahlanma yarışındaki en son gelişmeye işaret ediyor.
Ancak bu sefer riskler arttı. ChatGPT’nin bir sonucu olarak, sosyal mühendislik artık resmi olarak demokratikleştirildi – bir tehdit aktörünün katı tespit önlemlerini atlama ve hibrit saldırı yüzeyinde daha geniş ağlar oluşturma yeteneğini artıran tehlikeli bir aracın kullanılabilirliğini genişletiyor.
Geniş Hücum Ağları Atma
İşte nedeni: Çoğu toplum mühendisliği kampanyaları güvenlik çözümlerinin tanımlayıp sonra engellemeye programlandığı ortak anahtar sözcükler ve metin dizileri içeren genelleştirilmiş şablonlara dayanır. E-posta veya Slack ve Microsoft Teams gibi işbirliği kanalları aracılığıyla yürütülen bu kampanyalar, genellikle püskürt ve dua et yaklaşımıyla düşük bir başarı oranıyla sonuçlanır.
Ancak ChatGPT gibi üretken yapay zekalarla, tehdit aktörleri teorik olarak sistemin Büyük Dil Modeli (LLM) evrensel biçimlerden uzaklaşmak yerine, bireysel hedefe göre uyarlanmış mükemmel dilbilgisi ve doğal konuşma kalıplarıyla tamamen benzersiz kimlik avı veya yanıltma amaçlı e-postaların oluşturulmasını otomatikleştirmek. Bu yüksek karmaşıklık düzeyi, e-posta kaynaklı herhangi bir ortalama saldırının çok daha güvenilir görünmesini sağlar ve alıcıların gizli bir kötü amaçlı yazılım bağlantısını tıklatmasını algılamayı ve engellemeyi çok daha zorlaştırır.
Ancak, net olalım ki ChatGPT yapmaz siber savunucular için bazılarının ortaya çıkardığı ölüm cezasını ifade ediyor. Bunun yerine, analiz edilebilen, ele alınabilen ve hafifletilebilen sürekli gelişen tehdit aktörü taktikleri, teknikleri ve prosedürleri (TTP’ler) döngüsündeki en son gelişmedir. Ne de olsa, üretici yapay zekaların kötü niyetle istismar edildiğini ilk kez görmüyoruz; ChatGPT’yi kendinden önceki teknolojilerden ayıran, kullanım kolaylığı ve ücretsiz erişimdir. OpenAI ile muhtemelen abonelik tabanlı modellere geçiş gelişmiş korumalarla birlikte kullanıcı kimlik doğrulaması gerektiren ChatGPT saldırılarına karşı savunma, nihayetinde tek bir temel değişkene inecektir: ateşe ateşle karşılık vermek.
ChatGPT’yi Kendi Oyununda Yenmek
Güvenlik operasyonu ekipleri, kendi yapay zeka destekli büyük dil modelleri (LLM’ler) ChatGPT sosyal mühendisliği ile mücadele etmek için. İlk olarak kabul et Ve Son savunma hattı, insan analistleri algılama verimliliğini artırma, iş akışlarını düzene sokma ve yanıt eylemlerini otomatikleştirme konusunda güçlendirir. Örneğin, doğru kurumsal güvenlik çözümüne entegre edilmiş bir LLM, ChatGPT tarafından oluşturulan oldukça gelişmiş sosyal mühendislik şablonlarını algılamak üzere programlanabilir. LLM’nin şüpheli bir kalıbı tanımlayıp kategorize etmesinden birkaç saniye sonra, çözüm bunu bir anormallik olarak işaretler, bir insan analisti öngörülen düzeltici eylemlerle bilgilendirir ve ardından bu tehdit istihbaratını kuruluşun güvenlik ekosisteminde gerçek zamanlı olarak paylaşır.
Faydaları, siber güvenlik genelinde AI/ML’nin benimsenme oranının son yıllarda hızlanmasının nedenidir. IBM’in 2022 “Veri İhlali Maliyeti” raporunda, yapay zeka odaklı bir güvenlik çözümünden yararlanan şirketler saldırıları 28 gün daha hızlı hafifletti, ortalama olarak ve mali zararları 3 milyon dolardan fazla azalttı. Bu arada, Mimecast’lerde ankete katılanların %92’si 2022 “E-posta Güvenliğinin Durumu” raporu, güvenlik mimarilerinde zaten yapay zekadan yararlandıklarını veya yakın gelecekte bunu yapmayı planladıklarını belirtti. ChatGPT saldırılarının hızına ayak uydurmanın tek yolu bu olduğundan, yapay zeka güdümlü LLM’lerden yararlanma konusunda daha güçlü bir kararlılıkla bu ilerlemeyi temel almak, ilerlemeye yönelik acil bir odak noktası olmalıdır.
Demir Demiri Biler
ChatGPT gibi yapay zeka güdümlü LLM’lerin uygulamalı kullanımı, tümü önemli miktarda zaman ve güvenlik gerektiren kara kutu, gri kutu ve beyaz kutu sızma testinin verimliliğini artırabilir. BT ekiplerini zorlayan insan gücü, yaygın işgücü kıtlığı nedeniyle yetersiz kalıyor. Zamanın çok önemli olduğunu göz önünde bulunduran LLM’ler, sızma testi süreçlerini düzene sokmak için etkili bir metodoloji sunar – tehdit ortamı geliştikçe genellikle güncelliğini yitiren önceki istismar modellerine güvenmeden en uygun saldırı vektörlerinin ve ağ boşluklarının tanımlanmasını otomatikleştirir.
Örneğin, simüle edilmiş bir ortamda “kötü” bir LLM, kuruluşun sosyal mühendislik savunmasını test etmek için özel e-posta metni oluşturabilir. Bu metin algılamayı atlar ve amaçlanan hedefine ulaşırsa, veriler başka bir “iyi” LLM’yi eğitmek için yeniden kullanılabilir. gerçek dünya ortamlarında benzer kalıpların nasıl belirleneceği. Bu, üretken yapay zeka ile ChatGPT ile mücadele etmenin incelikleri hakkında hem kırmızı hem de mavi ekipleri etkili bir şekilde bilgilendirmeye yardımcı olurken, aynı zamanda analistlerin güvenlik açığı boşluklarını rakipler bunlardan yararlanmadan önce kapatmasına olanak tanıyan kuruluşun güvenlik duruşunun doğru bir değerlendirmesini sağlar.
İnsan Hatası Etkisi
Yalnızca türünün en iyisi çözümlere yatırım yapmanın, kuruluşları karmaşık sosyal mühendislik saldırılarından korumak için sihirli bir değnek olmadığını unutmamak önemlidir. Bulut tabanlı hibrit çalışma yapılarının toplumsal olarak benimsenmesinin ortasında, insan riski kritik bir güvenlik açığı olarak ortaya çıktı modern girişimin. Güvenlik ihlallerinin %95’inden fazlası bugün, çoğunluğu sosyal mühendislik saldırılarının sonucu olan saldırılar, bir dereceye kadar insan hatası içeriyor. Ve birlikte ChatGPT’nin bu tür saldırıların hacmini ve hızını artırması bekleniyorhibrit çalışanların nerede çalıştıklarına bakılmaksızın güvenli uygulamaları takip etmelerini sağlamak tartışılmaz olarak değerlendirilmelidir.
Bu gerçeklik, güvenlik çerçevelerinin temel bir bileşeni olarak kullanıcı farkındalığı eğitim modüllerinin uygulanmasının önemini artırıyor; tutarlı kullanıcı farkındalığı eğitimi alan çalışanlar, beş kat daha olası kötü amaçlı bağlantıları belirlemek ve bunlardan kaçınmak için. Ancak, göre 2022 Forrester raporu, “Güvenlik Farkındalığı ve Eğitim Çözümleri,” birçok güvenlik lideri, bir güvenlik bilinci kültürü oluşturma ve etkileşimi ölçmek ve davranışı etkilemek için statik, herkese uyan tek beden çalışan eğitimine nasıl geri dönüleceğine dair kapsamlı bir anlayıştan yoksundur. Bu yaklaşım büyük ölçüde etkisizdir. Eğitim modüllerinin yankı uyandırması için, bunlar ölçeklenebilir ve kişiselleştirilmiş olmalıdır eğlenceli içerik ve sınavlar çalışanların ilgi alanlarına ve öğrenme tarzlarına uygun.
Üretken yapay zekayı iyi yürütülen kullanıcı farkındalığı eğitimiyle birleştirmek, kuruluşların ChatGPT’den korunarak çalışmasına olanak tanıyan sağlam bir güvenlik ittifakı oluşturur. Siber savunucuları merak etmeyin, gök çökmüyor. Umut ufukta kalır.