Yeni bir tür AI kaos için cisos brace


SANS Enstitüsü’ne göre, AI iş süreçlerine güvence altına alındığından daha hızlı ekleniyor ve saldırganların zaten sömürdüğü geniş bir boşluk yaratıyor.

AI güvenlik planı

Sorunun ölçeği

Saldırganlar AI kullanıyor, insanların eşleşemeyeceği hızlarda çalışmak için. Kimlik avı mesajları daha ikna edicidir, ayrıcalık artışı daha hızlı olur ve otomatik komut dosyaları tespiti önlemek için orta saldırı ayarlayabilir. Rapor, AI odaklı saldırıların geleneksel yöntemlerden 40 kat daha hızlı hareket edebileceğini gösteren araştırmaları vurgulamaktadır. Bu, bir savunucunun ilk uyarıyı görmeden önce bir ihlalin olabileceği anlamına gelir.

Birçok güvenlik operasyonu merkezine, AI plansız ekleniyor. Ankete katılan SOC’lerin yüzde iki tane, özel kurallar veya entegrasyonlar olmadan AI ve makine öğrenme araçlarını kutunun dışında kullandıklarını söyledi. Çok azının hızlı enjeksiyon veya model zehirlenmesi gibi AI’ya özgü tehditler için oyun kitapları vardır. Birçok takım ayrıca AI sistemlerinin nasıl davrandığına dair görünürlükten yoksundur, bu da saldırganların sömürebileceği kör noktalar yaratır.

Bu hazırlık eksikliği, sınırlı personel ile çalışan daha küçük SOC’ler için özellikle zordur. SANS Institute Araştırma Şefi ve Başkan AI Memuru Rob T. Lee, Yardım Net Güvenliğine, kaynakların sıkı olduğunda, CISOS’un hem güvenlik hem de operasyonel verimlilik sağlayan bir yatırıma odaklanması gerektiğini söyledi.

Lee, “Bu yıl boyunca C seviyesi yöneticileri için en önemli AI güvenlik yatırımı, benimsenen bir kontrol düzlemi olmalı” dedi. “Bu, çalışanların erişim kontrolü, veri koruması, model izleme ve izleme için temel güvenlik önlemlerini içeren korunan bir ortam aracılığıyla onaylanmış AI araçlarına erişmelerini sağlar. Kullanıcıların, güvenlik ekipleri tüm veri alanlarında AI operasyonlarına görünürlüğü korurken, kullanıcıların AI aracılığıyla çalışma görevlerini gerçekleştirmelerine olanak tanır.”

Lee, CISOS’un bu yaklaşımın başarısını soyut kriterlerden ziyade somut sonuçlarla ölçmesi gerektiğini de sözlerine ekledi.

“Başarı soyut puanlarda değil, netlik ve kontrol ile ölçüldü” diye açıkladı. “Sistem, azaltılmış, yetkisiz AI aracı kullanımı yoluyla başarı gösterir ve resmi kanallar aracılığıyla proje akışını artırır, yetkili platformların benimsenmesini artırır. Belirli sonuçların birleşimi, sistemin AI olaylarını azaltırken ve çalışanların yerleşik sınırlar içinde yeni çözümler oluşturmasını sağlayarak kuruluş içindeki verileri nasıl koruduğunu gösterir.”

Güvenli AI için bir çerçeve

Kuruluşların bu boşlukları kapatmasına yardımcı olmak için rapor, üç bölümlük bir çerçeveyi özetlemektedir: AI’yı koruyun, AI kullanın ve AI’yı yönetin.

Koruyucu AI, modelleri, verileri ve altyapıyı güvenli tutmak için gereken teknik çalışmaları kapsar. Buna erişim kontrolleri, şifreleme, test ve sürekli izleme dahildir. Ayrıca, eğitim verilerinin tahrif edildiği model zehirlenmesi ve sistem sistemlerini hassas verileri sızdırmaya veya zararlı komutlar yürütmeye yönlendiren hızlı enjeksiyon saldırılarına odaklanır.

AI, savunucuların kendi operasyonlarını güçlendirmek için yapay zeka kullanmalarına yardımcı olmaya odaklanır. Rapor, AI güdümlü saldırılara ayak uydurmak istiyorlarsa, SOC’lerin AI’yi tespit ve yanıta entegre etmeleri gerektiğini vurgulamaktadır. Otomasyon, analist iş yükünü azaltmaya ve karar almayı hızlandırmaya yardımcı olabilir, ancak yalnızca dikkatli bir şekilde uygulanır ve yakından izlenirse.

Lee, otomasyonun AI odaklı kimlik avı ve sesli kimliğe bürünme saldırılarına karşı savunmada da önemli bir rol oynaması gerektiğini vurguladı.

Lee, “Küçük güvenlik ekiplerinin korunması, AI tabanlı kimlik avı ve sesli kimliğe bürünme saldırılarıyla mücadele etmek için erken algılama sistemlerini gerektiriyor” dedi. “Savunma için ilk adım, Soar/XDR oyun kitapları analistlere sadece önemli tehditleri göstermek için düşük gıymetli uyarıları otomatik olarak reddetmelidir.

Ayrıca kimlik korumasını kritik bir savunma katmanı olarak vurguladı.

Lee, “FIDO2/WebAuthn Passkeys’in şifre ve eski MFA değiştirmeleri olarak uygulanarak, tüm hassas isteklerin ikincil bir kanal aracılığıyla doğrulamaya ihtiyacı var” dedi. “Eğitim programı, Finans, İK ve hasta hizmetlerinde çalışan cephe personeli üzerinde yoğunlaşmalıdır, çünkü AI tarafından üretilen aldatıcı içerik alma riskiyle karşı karşıya kalırlar.”

Düzenleyicilerden Baskı

AI düzenlemesi hızla gelişiyor. AB AI Yasası, NIST AI risk yönetimi çerçevesi ve çeşitli ulusal politikalar şeffaflık ve hesap verebilirlik için yeni beklentiler yaratıyor. Ayağa kalkmamak pahalı olabilir. Yakın tarihli bir durumda, bir Avrupa şirketi, bir olaydan sonra AI sistemlerinin ve veri kaynaklarının kaydını sağlayamadığı için milyonlarca para cezasına çarptırıldı.

Web Semineri: AI ve SaaS neden artık aynı saldırı yüzeyi



Source link