Bu ses otomatik olarak oluşturulur. Geri bildiriminiz varsa lütfen bize bildirin.
Dalış Kılavuzu:
- Konulanmamış yapay zeka araçları, veri ihlallerini daha pahalıya dönüştürüyor. IBM’den yeni bir rapor.
- Ankete katılan her beş kuruluştan biri, “gölge AI” ile olan güvenlik sorunları nedeniyle bir siber saldırı yaşadıklarını ve bu saldırıların, gölge AI’sı olan veya hiç olmayan firmalarda ortalama 670.000 dolara mal olduğunu söyledi. Yıllık veri ihlali raporu raporu.
- Rapora göre, kuruluşların sadece% 13’ü AI araçlarını içeren ihlaller bildirirken, bu kuruluşların% 97’sinde “uygun AI erişim kontrollerinden yoksun”.
Dalış içgörü:
Güvenlik liderleri, şirketlerinin yeni AI platformlarını nasıl denetleyecekleri ile uğraştıkça, IBM’in raporu AI güvenliğini yeterince ciddiye almamanın potansiyel sonuçlarını göstermektedir.
En önemli bulgulardan biri, işletmelerin AI platformlarının hack’lerinde bir faktör olarak zayıf kimlik doğrulama kontrollerinin yaygınlığı ile ilgilidir. IBM’e göre, bu saldırılar için en yaygın başlangıç noktası bir tedarik zinciri saldırısı oldu, bilgisayar korsanları AI aracına “tehlikeye atılmış uygulamalar, API’lar veya eklentiler” aracılığıyla erişiyor. Bulgu, ağ segmentasyonu gibi sıfır tröst ilkeleri de dahil olmak üzere AI araçları ve diğer iş platformları için temel güvenlik korumalarının önemini vurgulamaktadır.
Bilgisayar korsanları bir şirketin AI platformuna nüfuz ettikten sonra, sık sık diğer veri depolarını tehlikeye attılar (vakaların% 60’ında olduğu gibi) ve zaman zaman önemli altyapıya (vakaların% 31’i) operasyonel kesintilere neden oldular.
Yapay zeka araçlarının güvenliğine sıkı sıkıya verdikleri açık kanıtlara rağmen maliyetli ihlalleri önleyebileceğine rağmen, işletmeler yönetişim programlarını uygulamak için acele etmiyor. İhlal yaşayan şirketlerin yüzde altmış üçü, bazıları bu tür politikaları geliştirse de, AI yönetişim politikalarının olmadığı belirtildi. Politikaları olan şirketler bile sıklıkla kusurlu olan şirketler vardı – IBM, bu tür kuruluşların yarısından daha azının “AI dağıtımları için bir onay sürecine sahip olduğunu” ve bunların% 62’sinin AI araçları üzerinde güçlü erişim kontrolleri uygulayamadığını buldu.
AI yönetişim politikaları olan kuruluşların sadece% 34’ü rapora göre, ağlarını yaptırım araçları için düzenli olarak kontrol ediyor – “Gölge AI” nın yaygınlığını sıklıkla artan ihlal maliyetleriyle ilişkilendirmeye yardımcı olan bir bulgu.
Bu arada, bilgisayar korsanları saldırı başlatmak için üretken yapay zeka bulmaya devam ediyor. IBM, “Ortalama olarak, veri ihlallerinin%16’sı AI kullanan saldırganları, çoğunlukla AI tarafından üretilen kimlik avı (%37) ve derinlik taklit saldırıları (%35) içeriyordu” dedi. Şirket daha önce bildirildi Bu üretken AI, ikna edici bir kimlik avı e -postasını 16 saatten beş dakikaya yazmak için gereken süreyi azalttı.
IBM, raporunun “Mart 2024 ile Şubat 2025 arasında veri ihlali geçiren 600 kuruluşta bireyler” ile 470 röportaja dayandığını söyledi.