Üretken Yapay Zeka: Görünmeyen İçeriden Gelen Tehdit


Yazan: Steve Povolny, Direktör, Exabeam Güvenlik Araştırması

Yapay zeka veya yaygın olarak bilinen adıyla AI, bugünlerde çok moda. ChatGPT gibi ücretsiz üretken yapay zeka araçlarının yaygın olarak bulunması, teknolojinin ortalama bir kişi tarafından e-postalara yanıt vermekten özgeçmişi güncellemeye, kod yazmaya ve hatta film senaryoları geliştirmeye kadar birçok amaç için benimsenmesine olanak tanıdı. Bazılarına yeni gelse de yapay zeka aslında 1950’lerin ortalarından beri ortalıkta dolaşıyor. O zamandan bu yana geçen yaklaşık 70 yılda, yapay zeka artık dünyayı hızla dönüştürüyor ve güvenlik sektörü de bir istisna değil.

Bu siber güvenlik evriminin başında üretken yapay zeka ve doğal dil işleme (NLP) geliyor. SOC’deki güvenlik profesyonelleri için üretken yapay zeka, sonuç odaklı ve eyleme dönüştürülebilir güvenlik içeriği sonuçları oluşturabilir. NLP, kendi adına, arama, kontrol paneli oluşturma, olay korelasyonu ve daha fazlası için kullanıcı deneyimini büyük ölçüde geliştirebilir. SOC içindeki çeşitli rollere fayda sağlayan yapay zeka özellikleri mevcut ve kuruluş genelinde güvenliği artırmak için insan yeteneklerinin modernleştirilmesi veya artırılması ihtimali heyecan verici.

Ancak bu yeniliğin karanlık bir tarafı da var. Üretken AI arama motorlarının bu kadar erişilebilir olması, çalışanlarınızın ve müşterilerinizin çoğunun hassas verileri bu işlevlerle paylaşabileceği anlamına gelir. Pek çok kişinin dikkate almadığı şey, diğer yazılımlar gibi AI arama motorlarının da tehlikeye girebileceğidir. Bu gerçekleşirse, riskteki artış nedeniyle kuruluşunuz için büyük bir baş ağrısına yol açabilir ve bu durum içeriden gelen tehditlerle daha da hızlanabilir. Bu makalede, üretken yapay zekanın içeriden gelen tehditlerdeki rolünün yanı sıra kuruluşların tehlikelere karşı korunmak için neler yapabileceğini de inceleyeceğiz.

Aynı sorunlar, gelişen uygulamalar

Kimlik avı saldırıları, siber suçluların, kullanıcıları kötü niyetli bağlantılara tıklamaları ve hesaplara hassas bilgiler veya kimlik bilgileri sağlamaları için kandırmak amacıyla e-posta kullanma tekniği etrafında daha organize hale geldiği ilk yıllardan bu yana kuruluşların başına bela olmuştur. Ne yazık ki, üretken yapay zeka, ikna edici mesajlar üreterek, bunları sahtekarlık olarak neredeyse algılanamaz hale getirerek ve suçluların başarı oranlarını önemli ölçüde artırmalarına olanak tanıyarak, rutin olarak başarılı olan bu siber saldırıyı daha da etkili hale getirebilir.

Elbette üretken yapay zekayı sosyal mühendislik saldırılarında kullanmanın da büyük bir ironisi var. Tipik olarak sosyal mühendislik, gerçekleştirilecek insan etkileşimine dayanır, ancak üretken yapay zeka, insanı döngünün dışına çıkarabilir ve şüphelenmeyen kurbanların, güvenilebilecek meşru bir kullanıcıyla karşı karşıya olup olmadıklarını belirlemelerini zorlaştırır. Üretken yapay zeka halihazırda yaygın yanlış bilgilendirmeye ve sosyal medyada sahte profillerin oluşturulmasına yol açtı. Özellikle, güvenilir bir kişinin kimliğine bürünerek gerçekçi görüntüler, videolar veya ses içeriği üreten deepfake teknolojisi, diğer kullanıcıları kolayca manipüle edebilir ve bu da bilgilere yetkisiz erişime veya hırsızlığa veya gasplara yol açacak şekilde hassas bilgilerin aktarılmasına neden olabilir.

Tehdit aktörlerinin beklemediğini deneyimlerimizden biliyoruz; yapay zeka kullanarak insanları tehlikeye atmanın yeni planlarını ve yeni yollarını bulmak için hızla çalışıyorlar. En iyi savunma bilgidir. Personelinizi, kuruluşunuzun kritik bir savunma katmanı olma konusunda eğitin. Tam olarak eğitilene ve işyerinde yapay zekanın doğru kullanımına ilişkin politikaların farkına varıncaya kadar tüm yeni çalışanları güvenlik açığı olarak değerlendirin. Onlara, derin sahtecilik veya kimlik avı şüphelerini derhal güvenlik ekiplerine bildirmeyi ve siber suçluların personelin kimliğine bürünmesini zorlaştırmak için daha güçlü kimlik doğrulama yöntemleri kullanmayı öğretin. Cihazlar ve sistemler konusunda hızlı ve etkili bir yama politikası ve envanter yönetimi sistemlerinin uygulanması, modern tehditlerle başa çıkmak için gereken farkındalığı ve yanıt verme yeteneğini sağlayabilir.

Oyuncudan nefret etmeyin. Oyundan nefret ediyorum.

Üretken yapay zekayla ilgili dikkate almamız gereken bir diğer konu, üretilen yapay verileri kullanarak bilgi işlem sistemlerini tehlikeye atma yeteneğidir. “Düşmanca” oluşturulan içerik, sistem davranışını manipüle etmek, gelişmiş sınıflandırma sistemlerini yanıltmak veya sistemlere saldırılar başlatmak için silah haline getirilerek bir kuruluşu ihlale, veri sızıntısına ve diğer zararlı güvenlik risklerine karşı savunmasız bırakabilir.

Mesela sahte kimliklerle birleştiğinde bu durumun ne kadar etkili olduğunu düşünün. Resim, video veya sosyal medya hesabı gibi oluşturulan sahte bir kimlik, hassas bilgilere erişmek ve kimliğe dayalı güvenlik önlemlerini atlatmak için kullanılabilir.

Bunu bir adım daha ileri götürerek makine öğrenimi, güvenlik sistemlerinden aşamalı olarak kaçınmak için kullanılabilir ve özellikle yapay zeka destekli kötü amaçlı yazılımların başlatılması söz konusu olduğunda önemli bir tehdit oluşturabilir. Yapay zeka tarafından oluşturulan kötü amaçlı yazılımlar, bir hedefe veya ortama bağlı olarak hızlı bir şekilde değişebilir; bu da tam olarak onun tespit edilmesini ve ona karşı savunulmasını çok daha zorlaştırır.

Yapay zekanın silah haline getirilmesi her iki yönde de işe yarar

İyi haber şu ki, suçlular yapay zekayı benimsediği gibi savunucular da öyle. Güvenlik mühendisleri, SOC analistleri ve hatta CISO dahil olmak üzere bir kuruluştaki her rol için yapay zeka kullanmanın birçok faydası vardır. Bu avantajlardan biri, güvenlik ekiplerini özgürleştirerek güçlendiren ve böylece yeni güvenlik önlemleri tasarlamak ve uygulamak gibi daha karmaşık görevlere odaklanabilmelerini sağlayan otomasyondur.

Yapay zeka ayrıca güvenlik olaylarını daha hızlı ve doğru bir şekilde tanımlayabilir ve yanlış pozitiflerle ilişkili gürültünün bir kısmını ortadan kaldırarak güvenlik analistinin işini kolaylaştırır. Bu nedenle bir analist olaylara daha etkili bir şekilde yanıt verebilir ve başarılı saldırı riskini azaltabilir.

Tehdit avcıları, daha yüksek doğrulukta tespitler elde etmek, arama yeteneklerini ve deneyimini geliştirmek için yapay zeka çıktılarını kullanabilir ve doğal dil işleme (NLP), karmaşık tehditlerin açıklamasını basitleştirerek avlanma yeteneklerini geliştirebilir. SOC yöneticileri tehditleri daha kolay anlayacak ve arama yapmak, taktik kitapları geliştirmek ve kontrol panelleri oluşturup yorumlamak için doğal dili kullanacak.

Son olarak yapay zekadan yararlanan CISO’lar, kuruluşlarının güvenlik duruşunu daha iyi anlayabilir ve güvenlik olaylarını ve güvenlik açıklarını ele almak için kaynakların nerede gerekli olduğu konusunda daha bilinçli kararlar alabilir.

Siber güvenlik alanında çalışanlar için, üretken yapay zeka kullanılarak yapılan saldırıların artması yeni bir şey olabilir; ancak sürekli gelişen bir tehdit ortamında koruma yöntemlerimizi sürekli olarak ayarlama ihtiyacı yeni bir şey değil. En yeni tehditlerden korunmak için yaklaşımımızı uyarlamaya, teknolojileri geliştirmeye ve savunmamızı geliştirmeye alışkınız. Artan yapay zeka odaklı saldırı tehditlerine karşı koymak için şimdi yapmamız gereken şey bu. Araştırmaya yatırım yapmalı, politika yapıcılar ve diğer siber güvenlik uzmanlarıyla işbirliği yapmalı ve yapay zekanın kötü amaçlı kullanımlarını etkisiz hale getiren yeni araçlar geliştirmeliyiz.

Reklam



Source link