Yapay zekanın dengeleyici eylemi: Potansiyelin kilidini açma, güvenlik sorunlarıyla ve karmaşıklıkla başa çıkma


AI ve GenAI teknolojilerinin hızlı entegrasyonu, kuruluşlar için karmaşık bir zorluk ve fırsat karışımı yaratıyor. Potansiyel faydalar açık olsa da, birçok şirket AI okuryazarlığı, dikkatli benimseme ve olgunlaşmamış uygulama riskleriyle mücadele ediyor. Bu, özellikle veri tehditlerinin, deepfake’lerin ve AI kötüye kullanımının arttığı güvenlik alanında kesintilere yol açtı.

GenAI güvenlik riskleri

Kuruluşların %16’sı yetersiz yapay zeka olgunluğundan dolayı kesintiler yaşıyor

Action1 | 2024 AI’nın Sistem Yöneticileri Üzerindeki Etkisi: Anket Raporu | Temmuz 2024

  • Sistem yöneticileri yapay zekanın potansiyelini kabul etse de eğitimdeki önemli boşluklar, kurumların dikkatli benimsemesi ve yapay zekanın yeterince olgunlaşamaması yaygın uygulamayı engelliyor ve kuruluşların %16’sında karışık sonuçlara ve kesintilere yol açıyor.
  • Geçtiğimiz yıl %73 oranında düşüş gösteren sistem yöneticilerinin %60’ı, yapay zekayı pratik olarak kullanma konusunda bilgi eksikliği olduğunu kabul ediyor ve bu durum yapay zeka okuryazarlığında kalıcı bir açığın göstergesi.

GenAI kullanıcıları için en acil güvenlik risklerinin hepsi veriyle ilgilidir

Netskope | Bulut ve Tehdit Raporu: İşletmelerdeki AI Uygulamaları | Temmuz 2024

  • Kullanımın artmasıyla birlikte, işletmeler GenAI uygulamaları içinde tescilli kaynak kodu paylaşımında artış yaşadı ve bu, belgelenen tüm veri politikası ihlallerinin %46’sını oluşturdu.

GenAI güvenlik riskleri

İş güvenliği konusunda endişe duyan siber ekipler güvenlik olaylarını gizliyor

VikingCloud | 2024 Siber Tehdit Manzarası Raporu: Siber Riskler, Fırsatlar ve Dayanıklılık | Mayıs 2024

  • En endişe verici yapay zeka tehditleri arasında GenAI model istemi korsanlığı (%46), Büyük Dil Modeli (LLM) veri zehirlenmesi (%38), Hizmet Olarak Fidye Yazılımı (%37), GenAI işlem çipi saldırıları (%26), Uygulama Programlama Arayüzü (API) ihlalleri (%24) ve GenAI kimlik avı (%23) yer alıyor.
  • %41’i GenAI’nın siber uyarı yorgunluğunu gidermede en büyük potansiyele sahip olduğunu söylüyor.

Yapay zekanın hızlı büyümesi, CISO’ların yeni güvenlik risklerine uyum sağlaması yönünde baskı yaratıyor

Trellix | CISO’nun Zihni: GenAI Etkisinin Kodunu Çözmek | Mayıs 2024

  • Ankete katılanların %62’si, GenAI kullanan siber saldırıları başarıyla tespit edebilecek kadar kuruluşlarının iş gücüne güvenmediklerini kabul ediyor.
  • CISO’ların %92’si, Yapay Zeka ve GenAI’nin kendilerini rollerindeki gelecekleri konusunda düşünmeye sevk ettiğini ifade ederek, CISO’nun rolünü güçlendirmek ve kuruluşların sistemlerini etkili bir şekilde güvence altına almalarını sağlamak için politika ve düzenlemelerin nasıl uyarlanması gerektiği konusunda ciddi soru işaretleri yarattı.

GenAI güvenlik riskleri

Çalışanların %22’si GenAI ile şirket kurallarını ihlal ettiğini kabul ediyor

1Password | Dengeleme eylemi: Yapay zeka çağında güvenlik ve üretkenlik | Nisan 2024

  • Güvenlik uzmanlarının %92’si, üretken yapay zeka konusunda güvenlik endişeleri yaşıyor; bunların arasında çalışanların hassas şirket verilerini bir yapay zeka aracına girmesi (%48), yanlış veya kötü amaçlı verilerle eğitilmiş yapay zeka sistemlerini kullanması (%44) ve yapay zeka destekli kimlik avı girişimlerine kanması (%42) yer alıyor.
  • Ve nispeten küçük ama önemli bir çalışan grubu (%22), üretken yapay zekanın kullanımıyla ilgili şirket kurallarını bilerek ihlal ettiğini kabul ediyor.

Güvenlik uzmanları yapay zeka konusunda ihtiyatlı bir iyimserliğe sahip

Cloud Security Alliance ve Google Cloud | Yapay Zeka ve Güvenlik Anketi Raporu Durumu | Nisan 2024

  • Ankete katılanların %25’i yapay zekanın kötü niyetli taraflar için daha avantajlı olabileceği konusunda endişe duyduğunu belirtti.

GenAI güvenlik riskleri

Yapay zeka araçları şirketleri veri sızdırma riskine sokuyor

Code42 | Veri Maruziyeti Raporu 2024 | Mart 2024

  • Günümüzde riskler giderek daha fazla Yapay Zeka ve GenAI, çalışanların çalışma biçimleri ve bulut uygulamalarının yaygınlaşması tarafından yönlendirildiğinden, katılımcılar depolarına gönderilen kaynak koduna (%88), kişisel bulut hesaplarına gönderilen dosyalara (%87) ve müşteri ilişkileri yönetimi (CRM) sistemi veri indirmelerine (%90) ilişkin daha fazla görünürlüğe ihtiyaç duyduklarını belirtiyor.
  • %87’si, çalışanlarının hassas verileri GenAI’ye girerek istemeden rakiplerle paylaşabileceğinden endişe ediyor.
  • %87’si çalışanlarının GenAI politikalarını takip etmediğinden endişe ediyor.

İşletmeler gizlilik riskleri nedeniyle GenAI kullanımını yasaklıyor veya sınırlandırıyor

Cisco | 2024 Veri Gizliliği Karşılaştırma Çalışması | Şubat

  • Katılımcıların %90’dan fazlası, yapay zekanın veri ve riski yönetmek için yeni teknikler gerektirdiğine inanıyor.
  • İşletmeler, en çok endişe duydukları konular arasında, bir kuruluşun yasal ve Fikri Mülkiyet haklarına yönelik tehditleri (%69) ve bilgilerin kamuoyuna veya rakiplere ifşa edilmesi riskini (%68) sıraladı.
  • Çoğu kuruluş bu risklerin farkında ve maruziyeti sınırlamak için kontroller uyguluyor: %63’ü hangi verilerin girilebileceği konusunda sınırlamalar getirdi, %61’i çalışanların GenAI araçlarını kullanabileceği konusunda sınırlamalar getirdi ve %27’si kuruluşlarının GenAI uygulamalarını şimdilik tamamen yasakladığını söyledi.

GenAI güvenlik riskleri



Source link