

Bir “AI saldırısının” neye benzediğine dair algı hala gelişiyor. “Saldırı” olarak nitelendirilen şey, kim olduğunuza ve en çok endişe duyduğunuza bağlı olabilir. Bazı kuruluşlar öncelikle saldırı yeteneklerini geliştirmek için AI araçları kullanan saldırganlarla ilgilenmektedir. Diğerleri, AI hizmetlerinden yararlanan ve bunları ek riske maruz bırakan dahili kullanıcılardan endişe duyuyor. Yine de diğerleri, saldırganlar tarafından hassas iç kaynaklara ulaşmak için kullanılan kamuya açık bir chatbot gibi bir AI aracı için endişelenebilir. Saldırganların hem kendi yararları için AI araçlarından yararlanabilmeleri hem de işletmelerin zaten kullandığı çözümlerin yeteneğinden yararlanabilmelerinin çok çeşitli yolları vardır.
Bu, bugünün kuruluşlarının kendi AI tabanlı araçlarını kullanarak saldırganlara karşı savunurken kendi AI sistemlerini koruma ikili zorluklarıyla karşı karşıya olduğu anlamına geliyor. Her ne kadar AI önemli zorluklar getirse de, kuruluşların bunları ele almak için atabileceği birçok adım vardır ve tutarlı test ve doğrulama uygulamaları yoluyla güvenlik temellerini desteklemekle başlar.
Trendleri kovalamayın – Temellere odaklanın
Kilit zorluklardan biri, AI’nın önemli miktarda altyapı içermesi ve altyapının korunması gerektiğidir. Bu, AI çözümlerinin sömürüden korunmasının her zaman çözümlerin kendilerini korumaya başlamadığı değil, onları destekleyen altta yatan BT altyapısı ile başlamadığı anlamına gelir. Bu şekilde bakın: AI çözümünün, bir saldırganın sistemi varlıklarının yetkilendirildiğini düşünmek için kandırmak için uzlaşmış bir kimlik kullanabileceği ne kadar iyi korunmuş bir çözümdür. Benzer şekilde, saldırganlar henüz “yeni” saldırı taktikleri geliştirmek için AI kullanmıyorlar – mevcut taktiklerini geliştirmek ve daha etkili hale getirmek için kullanıyorlar.
Bu, kendi AI çözümlerinizi korumak ve kendi AI araçlarını kullanarak saldırganlara karşı savunmak, kuruluşların tekerleği yeniden icat etmelerini gerektirmez. Aslında, kuruluşlar her iki sorunu da yeni, yapay zekaya özgü güvenlik çözümleri uygulamak için yarışarak değil, mevcut çözümlerinin amaçlandığı gibi çalışmasını sağlayarak temelleri ikiye katlayarak ele alabilirler. AI çok fazla kredi alma eğilimindedir: genel olarak konuşursak, bir saldırganın bir maruziyetten yararlanmak için AI’ya ihtiyacı yoktur, sadece saldırılarını daha etkili hale getirir. AI araçları kimlik avı e -postalarını daha ikna edici hale getiriyor, ancak kimlik avı hala kimlik avı. AI kimlik bilgisi doldurma saldırılarını hızlandırıyor, ancak taktik hala aynı. Organizasyonlar, bir sonraki adımın ne olabileceği konusunda endişelenmek yerine, şu anda olanları durdurmaya odaklanmalıdır.
CTEM uygulamalarının ortaya çıkışı
Yeni AI çözümlerini benimseme yarışı, güvenliğin genellikle sonradan düşünülmüş olduğu anlamına gelir. Son Deepseek sürümü arasında neler olduğuna bakın: Yeni AI modelini uygulayan kuruluşlar, aracı benzersiz bir şekilde savunmasız hale getiren bir dizi güvenlik sorunu buldular. Bu, AI çözümlerinin saldırganlar için neden bu kadar çekici bir hedef olduğuna önemli bir katkıda bulunur – organizasyonlar rakipleri tarafından geride kalma riskiyle karşı karşıya kalmaz, bu da onları güvenliğe yeterince dikkat etmeden acele etmelerini sağlar. Deepseek’i hedeflemek için kullanılan taktik saldırganlar, diğer sistemleri hedeflemek için kullandıkları saldırılardan temel olarak farklı değildi – ancak Deepseek onlara karşı savunmak için donanımlı değildi.
Yapay zeka korumak, saldırganların hassas verilere ellerini alamayacağından emin olmakla başlar. Bu, AI modelinin eğitildiği veri kümelerini veya AI çözümlerine verilen hassas verileri içerebilir. Etkili olabilmek için AI çözümleri çok fazla veriye erişim gerektirir ve bu verilerin bazıları kaçınılmaz olarak hassas olacaktır. AI’nın verilerinizi yapmaması gereken biriyle paylaşmayacağından nasıl emin olabilirsiniz? AI aracınızın, yapmaması gereken bir şey yapmak için kandırmak isteyen saldırganlar tarafından kullanılamayacağından nasıl emin olabilirsiniz? Cevap şaşırtıcı derecede açık: Test ediyorsunuz! Kuruluşların sürekli tehdit maruziyet yönetimi (CTEM) uygulamalarını artan bir oranda benimsemesinin bir nedeni var – AI çözümleri veya başka bir sistemle uğraşıyor olun, mevcut korumaların çalışıp çalışmadığını bilmeniz gerekir.
Doğrulama ve pozlama yönetiminden yararlanma
Birincisi, güçlü pozlama yönetimi, dijital ortamlarınızda daha eksiksiz bir görünürlük kazanmanıza yardımcı olabilir ve saldırganların yararlanabileceği potansiyel maruziyetleri belirler. Burada CTEM’deki C’nin “sürekli” anlamına geldiğini hatırlamak önemlidir ve bu özellikle yapay zekayı koruma söz konusu olduğunda önemlidir. Yapay zeka pazarı şaşırtıcı bir hızda gelişiyor, yani kuruluşlar son çeyrekten itibaren verileri test etmeye güvenemeyecekler – şimdi hangi maruziyetlerin var olduğunu bilmeleri gerekiyor. Tüm sistemlerde gerçek zamanlı görünürlük, kuruluşların saldırganların nerede bir saldırı denemeyeceğini belirlemelerine yardımcı olabilir.
Tabii ki, maruziyetlerin mevcut olduğunu bilmek yeterli değildir – hangilerinin gerçekten tehlikeli olduğunu bilmeniz gerekir. Bir güvenlik boşluğunun olması, otomatik olarak saldırganların bir AI aracını tehlikeye atmak için yararlanabileceği anlamına gelmez. Çoğu zaman, ilk olarak tehlikeli bir güvenlik açığı gibi görünenleri ele almak için telafi edici kontroller vardır. Güvenlik doğrulaması CTEM’in önemli bir parçasıdır ve kuruluşların hangi maruziyetlerin gerçekte tehlikeli olduğunu doğrulamasına ve buna göre önceliklendirmesine olanak tanır. Bugünün kuruluşları genellikle on binlerce güvenlik uyarısı alırlar, bu nedenle bunları gerçek tehdit seviyelerine göre önceliklendirme yeteneği, güvenlik ekiplerine saldırganlara karşı önemli bir bacak verir. Saldırganlar, maruziyetleri her zamankinden daha hızlı tespit etmek ve kullanmak için kendi yapay zeka araçlarını kullanan doğrulama kritiktir.
Doğrulama olmadan, AI tehlikeli bir şekilde savunmasızdır
Kuruluşlar, kuruluşlarının güçlü kalmasını sağlayabilir. Unutmayın, çoğu saldırgan uzun, uzun ve pahalı bir katılımla uğraşmak istemez – mümkün olduğunca çok veri ile mümkün olduğunca çabuk içeri ve dışarı çıkmak istiyorlar. Organizasyonlar kolay bir hedef olmaktan kaçınabilirler. Bu genellikle saldırganların daha yeşil meralara geçmesini istemek için yeterlidir.
Reklam
LinkedIn Group Bilgi Güvenlik Topluluğumuza katılın!