Siber güvenlik yapay zeka ile gelişmeye devam ettikçe, giderek artan sayıda BT ve güvenlik uzmanı, yapay zeka kaynaklı tehditlere karşı savunma yeteneklerine güvendiklerini ifade ediyor. Fakat, son anket sonuçları HackerOne’dan gelen veriler endişe verici bir gerçeği ortaya koyuyor: BT ve güvenlik profesyonellerinin %95’i bu tür tehditlere karşı savunma konusunda güvenlerini ifade etmelerine rağmen, kuruluşların üçte biri geçtiğimiz yıl yapay zeka ile ilgili güvenlik olaylarıyla karşı karşıya kaldı. Bu tutarsızlık, kurumsal güven ile yapay zeka teknolojisindeki ilerlemelerin ortaya çıkardığı artan riskler arasındaki boşluğu ortaya koyuyor.
HackerOne’ın araştırmasının bulguları yalnızca bu eşitsizliğe ışık tutmakla kalmıyor, aynı zamanda ortaya çıkan bu zorluklara da ışık tutuyor. Yapay zeka kaynaklı tehditler karşısında siber güvenliğe hazır olma durumunun mevcut durumuna bir bakış sunan rapordaki bazı önemli bulgular şunlardır.
Kuruluşlar bu yıl bütçelerinde yapay zeka güvenliğine önemli miktarda pay ayırıyor.
Ankete katılanların neredeyse dörtte üçü, güvenlik bütçesinin %20 veya daha fazlasını yapay zeka güvenlik risklerini ele almaya ayırdı. Güvenlik bütçesini düzenli olarak yeniden değerlendirmek ve gelişen risklere göre potansiyel olarak artırmak, potansiyel tehditlerin önünde kalmak için çok önemlidir.
Düzenleme ivmesi ve GenAI araçlarının benimsenmesi, yapay zeka güvenlik yatırımını artırıyor.
Yapay zekanın çeşitli yeteneklerini anlamak, yatırımın arkasındaki itici güçleri ve bütçenin etkili bir şekilde nasıl tahsis edileceğini belirlemeyi zorlaştırabilir. Katılımcılar, yapay zeka odaklı düzenlemeleri (%65), GenAI araçlarının çalışanlar tarafından şirket içinde benimsenmesini (%63) ve yapay zekanın neden olduğu güvenlik olaylarını (%33) yapay zeka güvenlik yatırımını artırmanın temel etkenleri olarak gösterdi.
Güvenlik ekipleri yapay zeka riskini azaltmak için yapay zeka kırmızı takımını kullanıyor.
Güvenlik ekipleri, yapay zeka ile ilgili riskleri azaltmak için giderek daha fazla yapay zeka kırmızı ekip oluşturmayı ve yapay zeka sistemlerinin çekişmeli testlerini kullanıyor. Ankete göre katılımcıların %37’si, kuruluşlarının yapay zeka sistemlerini kötü niyetli saldırılara karşı güçlendirmek için yapay zeka kırmızı ekip oluşturma girişimlerini uyguladığını söylüyor. Bu proaktif yaklaşım, ortaya çıkan tehditlere karşı koruma sağlamada yapay zeka güvenlik önlemlerinin giderek daha fazla kabul edildiğini vurguluyor. Gerçek dünyadaki tehdit senaryolarını teşvik ederek kuruluşlar güvenlik duruşlarını daha iyi anlayabilir ve siber güvenlik stratejilerini buna göre geliştirebilirler.
Savunmalarımıza olan güvenin temelinde anlayış yatmalıdır, ancak kuruluşlar için yapay zekayla ilgili risklerin tam kapsamı hala belirsizliğini koruyor. Ancak yapay zekanın kırmızı ekip oluşturması gibi proaktif önlemlerin öneminin anlaşılması çok önemlidir. Bu, kuruluşların en son güvenlik ve güvenlik risklerini hızlı bir şekilde tespit edip tanımlayarak siber suçluların önünde kalmasını sağlar.
Yapay zeka gelişmeye devam ettikçe, kuruluşların hızla değişen ortama etkili bir şekilde uyum sağlamasını sağlamak için güvenin, güvenlik çözümlerinin sürekli olarak yeniden değerlendirilmesi ve değerlendirilmesiyle birlikte sağlanması gerektiğini hatırlamak önemlidir.
Reklam