Siber Güvenlikte Hayatta Kalma: Düşman Yapay Zekadan Saklanın



Tehdit aktörlerinin yapay zekayı (AI) nasıl kullanabileceğiyle ilgili makaleler okuduysanız, muhtemelen bunların iki kategoriye ayrıldığını fark etmişsinizdir: aldatma yeteneklerini geliştirme ve kötü amaçlı kodlamayı otomatikleştirme.

İlk durum, büyük dil modellerini (LLM’ler) kullanan üretken yapay zekanın daha inandırıcı (kayıt gerekir) kimlik avı ve sahtekarlık tuzakları oluşturabileceğini savunur. Başarılı siber saldırıların %90’ının kimlik avı ile başladığı göz önüne alındığında, yapay zekanın aldatıcı tuzakları geliştirmesi büyük endişe kaynağıdır. İnsanları kendisi için Captcha zorluklarını çözmeleri için işe alan yeni GPT-4 modelinin yazabileceği ikna edici iletişimleri hayal edin.

İkinci konu, AI yazma kötü amaçlı yazılımı (ki yaptı), beni daha az rahatsız edici buluyor. Bu durumda uzmanlar, LLM’lerin polimorfik kötü amaçlı yazılım yazabileceğini veya daha az yetenekli rakiplerin kötü amaçlı kod oluşturmasını kolaylaştırabileceğini savunuyor. Ancak, her gün 450.000’den fazla yeni kötü amaçlı yazılım türünün ve potansiyel olarak istenmeyen uygulamaların (PUA’lar) kaydedildiği bir dünyada yaşıyoruz. Düşük vasıflı kullanıcıların bu sayıya eklenmesinin tehdit manzarasını nasıl önemli ölçüde değiştireceğini görmek zor. Basitçe daha fazla kötü amaçlı yazılım oluşturmak, kolayca otomatikleştirilmiş bir görevdir. AI, daha büyük bir tehdit oluşturmak için daha iyi kötü amaçlı yazılımlar oluşturmalıdır.

Düşman AI Tehdit Potansiyeli

Düşman yapay zekanın tehdit potansiyelinin, günümüzün çifte darbesinden çok daha büyük olduğunu düşünüyorum. daha iyi kimlik avı Ve daha fazla kötü amaçlı yazılım. Tehdit aktörü şapkanızı takmak için bir dakikanızı ayırın ve kötü niyetli yapay zekanın yakında neler başarabileceğini hayal edin. Rakipler genellikle hangi araçları kullanır ve iyi eğitilmiş yapay zeka bunların etkinliğini artırabilir mi?

Yapay Zekayı Hack Etmek İçin Eğitmek

Acunetix gibi güvenlik açığı tarama araçlarının veya Metasploit gibi istismar çerçevelerinin keşfedilmemiş AI eğitim potansiyelini göz önünde bulundurun. Bu araçlar, siber öldürme zincirinin keşif ve istismar aşamalarını otomatik hale getirir. Bugün, bu araçlar insan rehberliği ve yönlendirmesi gerektiriyor. Kuruluşları hedeflemek için bunları kullanan gelişmiş kalıcı tehditler (APT’ler), tek bir kurbanın ortamına odaklanır. Gereçlerin çoğunu araçlar yapar, ancak insanların sonuçları yorumlaması ve buna göre tepki vermesi gerekir. Ya bu programlar, bilgilerini yapay zekanın alması için daha büyük bir veri gölüne sağladıysa?

LLM’lerin etkili, üretken yapay zeka oluşturmak için büyük veri kümelerini nasıl kullandığını görebiliriz. GPT-3 modeli, hece ve kelime kombinasyonlarını tahmin edecek ve ardından sorgulara görünüşte akıllı yanıtlar oluşturacak kadar gelişmiştir. AI, basit bir istemle herhangi bir konuda bir makale, haiku yazabilir veya rapor yazabilir. Elbette, model aslında ne dediğini bilmiyor. Bir yanıtta hangi kelimenin gelmesi gerektiğini doğru bir şekilde tahmin edecek kadar uzun süre dil verileri üzerinde eğitildi.

LLM’lerin dil üzerinde eğittiği kadar derinlemesine güvenlik istismarı konusunda eğitim alan bir yapay zeka hayal edin. Temel veri setinin bir parçası olarak bilinen tüm CVE’ler, NIST Siber Güvenlik Çerçevesi ve OWASP İlk 10 hakkında bir AI eğitimi hayal edin. Bu yapay zekayı gerçekten tehlikeli hale getirmek için, popüler bilgisayar korsanlığı araçları tarafından oluşturulan veri göllerinde de eğitim alması gerekir. Örneğin, birkaç milyon ağ için Nmap kullanın ve yapay zekayı açık bağlantı noktaları, işletim sistemi sürümleri ve etki alanları arasındaki ilişkileri tanıması için eğitin. Nessus güvenlik açığı taramalarını binlerce ortamda çalıştırın ve kurumsal güvenlik açıklarının modellerini “öğrenmek” için sonuçları yapay zekaya gönderin. Bu yaklaşım, küçük çaplı bilgisayar korsanlarının erişiminin ötesinde olabilir, ancak kesinlikle devlet destekli tehdit gruplarının ve hükümetlerin kavrayışı dahilindedir.

Bu kötü niyetli yapay zeka iyi eğitildikten sonra, savunmasız yazılım ve donanım kombinasyonlarını ChatGPT’nin sözcükleri seçmesi kadar doğru bir şekilde tahmin edebilir. Bir ortamı tarayabilir, çeşitli sorunları algılayabilir ve olası kullanım tekniklerinin sıralanmış bir listesini döndürebilir. Veya ortamı tehlikeye atabilir, ardından erişimi tehdit aktörlerine devredebilir. Daha iyi kimlik avı ve daha fazla kötü amaçlı yazılım acil sorunlar oluştursa da, tamamen silah haline getirilmiş bir yapay zekanın potansiyel tehlikeleriyle karşılaştırıldığında bunlar önemsizdir.

Belirsizlik yoluyla güvenlik

Neyse ki kuruluşlar, iş altyapısını gizleyerek kötü niyetli yapay zekaların oluşturduğu tehdidin çoğunu azaltabilir. Gartner tarafından tanımlandığı gibi, sıfır güven ağ erişimi (ZTNA) çözümleri dayanıklı bir savunma sunar. Bulut tabanlı sıfır güven ortamını, kullanıcılar ve iş kaynakları arasında bir proxy olarak düşünün. Bu yapılandırma kullanılarak uygulamalar, veriler ve hizmetler, kullanıcılardan ayrı bir ağda barındırılır. İş kaynaklarına erişmek için, kullanıcıların kapsamlı kimlik analizi gerçekleştiren bir uygulama bağlayıcısından geçmesi gerekir. Bir kullanıcı, kimlik ve bağlam doğrulamalarını geçtikten sonra, proxy mimarisi onları doğrudan buluttaki kaynağa bağlar.

Kullanıcılara, uygulamaları, verileri ve hizmetleri barındıran ağa asla erişim izni verilmediğini unutmamak önemlidir. Yalnızca doğrulanmış işlemde istenen tek kaynağa bağlıdırlar. Bu yaklaşım, ağ altyapısının geri kalanını ve kullanılabilir kaynakları güvenli oturumdan gizler. Bir başlatıcının yanal hareket veya çevrede daha geniş keşif yapma fırsatı yoktur.

Bu yaklaşım, bir kurumsal ortamdaki güvenlik açıklarını keşfetmek için eğitilmiş rakip yapay zekayı engeller. Güvenli bir bulut proxy hizmetinin arkasına gizlenmiş iş altyapısıyla, yapay zeka ortamı göremez veya neyin kötüye kullanılabileceğini bilemez. Yapay zekanın istismar fırsatlarını bulma yeteneği, iş altyapısını çalıştıran donanım ve yazılıma ilişkin kapsamlı bir genel bakışa sahip olmasına bağlıdır.

Peki ya kullanıcılar? Rakip bir yapay zeka, dizüstü bilgisayar veya ev yönlendiricisi gibi ayrı bir uç noktayı kırabilir. Bununla birlikte, bu cihazları kontrol etmek, daha büyük iş ortamına yapay zeka erişimi sağlamak için çok az şey yapar. Güvenliği ihlal edilmiş cihazlar ve kimlikler, kaynaklara bağlanmadan önce yine de bağlam analizini geçmelidir. Garip bir zamanda gelirlerse veya başka şüpheli özellikler gösterirlerse erişim istekleri reddedilecektir. Yapay zeka, güvenliği ihlal edilmiş bir kimlikten gelen meşru bir talebi makul bir şekilde taklit edebiliyorsa, bu kullanıcının kullanabileceği bir avuç kaynağa erişimle sınırlıdır.

Erişime yönelik bu kimlik düzeyindeki ZTNA yaklaşımı, bir kuruluşun saldırı yüzeyinin çoğunu ortadan kaldırır ve geriye kalan tehlikeyi en aza indirir; kurumsal altyapıyı bulut tabanlı sıfır güven alışverişinin arkasına taşımak, rakip yapay zekayı tahmine dayalı ve bilgiye dayalı avantajından arındırır. Kuruluşlar, kötü niyetli yapay zekanın nasıl yararlanacağını bildiği her şeyi gizleyerek belirsizliği kullanarak güvenliğe ulaşabilir.



Source link