Yapay zeka güvenlik kusurları kuruluşların yarısını etkiliyor


Bu ses otomatik olarak oluşturulmuştur. Geri bildiriminiz varsa lütfen bize bildirin.

Dalış Özeti:

  • Tüm kuruluşların yarısı yapay zeka sistemlerindeki güvenlik açıklarından “olumsuz şekilde etkilendi” EY’den son veriler.
  • CEO’ların yalnızca %14’ü yapay zeka sistemlerinin hassas verileri yeterince koruduğuna inanıyor.
  • EY, kuruluşların ortalama 47 güvenlik aracı kullanması nedeniyle yapay zekanın yeni risklerinin, ağların güvenliğini sağlamanın zorluğunu siber güvenlik savunmalarından oluşan bir yama çalışmasıyla bir araya getirdiğini tespit etti.

Dalış Bilgisi:

EY’nin yeni raporu, saldırı ortamındaki rolünden kurumsal ortamlara entegrasyonuna kadar yapay zeka hakkında çeşitli bilgileri bir araya getiriyor. Danışmanlık firması, yapay zeka destekli otomasyonun bilgisayar korsanlarının potansiyel olarak maliyetli izinsiz girişler gerçekleştirmesini kolaylaştırdığı konusunda diğer uzmanların uyarısını yineledi.

EY’nin Birleşik Krallık ve İrlanda’daki siber güvenlik lideri Rick Hemsley raporda “Yapay zeka, siber suçluların karmaşık saldırılar gerçekleştirmesi için gereken çıtayı düşürüyor” dedi. “Eskiden geliştirilmesi zaman ve deneyim gerektiren siber saldırı becerilerine artık çok daha fazla sayıda siber suçlu için ücretsiz olarak daha kolay erişilebiliyor.”

Sosyal mühendislik son derece fayda sağladı AI’dan. EY, sesli kimlik avı veya vishing saldırılarının 2024’ün ikinci yarısında %442 oranında hızla arttığını gösteren son CrowdStrike verilerine dikkat çekti. CrowdStrike verilerine göre, siber suçluların kaçış süresi – davetsiz misafirlerin ilk erişimi elde ettikten sonra yana doğru hareket etmeye başlamalarının ne kadar zaman aldığını gösteren ölçü – 2023’te yaklaşık bir saatten 2024’te 48 dakikaya düştü. Güvenlik firması ReliaQuest yakın zamanda şunu buldu: düşmüştü 2025’in ortasında sadece 18 dakikaya indi.

EY, bu rakamların savunmacıları alarma geçirmesi gerektiğini söyledi. “Hızlanan kaçış süreleri tehlikelidir. Saldırganlar bir ağda yerleşik hale geldiklerinde daha derin bir kontrol elde edebilirler ve çıkarılmaları daha zor olur.”

EY, şirketlerin ağlarına yeni riskler getiren yapay zeka modelleriyle kuruluşların maliyetli hatalardan kaçınmak için çalışanlarını eğitmeye odaklanması gerektiğini söyledi. Şirket yakın zamanda kuruluşların %68’inin çalışanların üst düzey onay olmadan AI aracıları geliştirmesine veya dağıtmasına izin verdiğini ve kuruluşların yalnızca %60’ının bu iş için rehberlik yayınladığını tespit etti.

EY, verilerin hem geleneksel iş fonksiyonları hem de yapay zeka modeli eğitimi açısından önemi göz önüne alındığında, şirketlerin verilerinin bütünlüğünü korumak için de adımlar atması gerektiğini söyledi. Raporda, hassas bilgileri sızdıran modeller ve kazara modellerin kişisel olarak tanımlanabilir bilgiler üzerinde eğitilmesine izin veren şirketler de dahil olmak üzere yapay zeka ile ilgili çok sayıda veri riskine dikkat çekildi.

EY’nin raporundaki diğer öneriler arasında yapay zeka araçlarının tedarik zincirinde bütünlüğün korunması, güvenlik hususlarının yapay zeka geliştirme sürecinin her aşamasına dahil edilmesi ve yapay zeka araçlarının olası kötüye kullanımlarını daha hızlı tespit edip engellemek için tehdit tespit programlarının yeniden tasarlanması yer alıyor.

EY, CISO’ların güvenlik yatırımlarını “açık değer yaratan alanlara” odaklamaları gerektiğini söyledi.



Source link