Yapay zeka siber suçluların tercih ettiği silah haline geliyor


Yapay zeka, kuruluşların siber güvenliğe bakış açısını değiştiriyor
GenAI verimlilik vaat ederken güvenlikten ödün veriyor

Bu makale, yapay zeka ve GenAI teknolojilerine ilişkin 2024 raporlarından elde edilen önemli bulguları vurgulayarak bunların potansiyellerine ve başlıca zorluklarına odaklanıyor.

Yapay zeka teknolojileri 2024'e meydan okuyor

Yazılım geliştirmek için GenAI’ya aşırı güvenmek güvenliği tehlikeye atıyor

Güvenlik ve yazılım geliştirme profesyonellerinin %96’sı, şirketlerinin uygulama oluşturmak veya sunmak için GenAI tabanlı çözümler kullandığını bildiriyor. Bu yanıt verenlerin %79’u, geliştirme ekiplerinin tamamının veya çoğunun düzenli olarak GenAI kullandığını bildiriyor. Güvenlik profesyonellerinden daha fazla geliştirici, geliştirmede yapay zeka kullanımı nedeniyle eleştirel düşünme kaybı konusunda endişe duyduğunu bildiriyor (%8’e karşı %3).

Yapay zeka öğrenme mekanizmaları kod tabanı sızıntılarında artışa yol açabilir

Kod tabanlarında artan sızıntı potansiyelinden endişe duyan katılımcıların %43’ü, yapay zekanın öğrenme ve hassas bilgiler içeren kalıpları yeniden üretme riskini vurguladı. Ek olarak, %32’si sabit kodlanmış sırların kullanımını yazılım tedarik zincirlerinde önemli bir risk noktası olarak tanımladı.

Güçlü gizlilik yasaları, yapay zeka ile bilgi paylaşımına olan güveni artırıyor

Anket, katılımcıların %63’ünün yapay zekanın yaşamlarını iyileştirmede faydalı olabileceğine inandığını ortaya koyuyor. GenAI kullanımı neredeyse iki katına çıktı; katılımcıların %23’ü düzenli olarak kullanıyor; bu oran geçen yılki %12’den daha yüksek. Gizliliğe odaklanan GenAI kullanıcılarının %30’u, finansal ve sağlık bilgileri de dahil olmak üzere kişisel veya gizli bilgileri GenAI araçlarına girdiklerini söylüyor. Bu, katılımcıların %84’ünün bu verilerin kamuya açıklanmasından endişe duymasına rağmen gerçekleşti.

Bilgisayar korsanları yapay zekadan yararlanmanın yeni yollarını buluyor

Bilgisayar korsanlarının yalnızca %21’i yapay zeka teknolojilerinin 2023’te bilgisayar korsanlığının değerini artırdığına inanırken, %71’i bunun 2024’te bir değere sahip olacağını bildirdi. Ayrıca bilgisayar korsanları giderek daha fazla GenAI çözümlerini kullanıyor ve %77’si artık bu tür araçların benimsendiğini bildiriyor; 2023’e göre % artış.

Ofis çalışanlarının %15’i onaylanmamış GenAI araçlarını kullanıyor

Ivanti’nin araştırması, ofis çalışanlarının %81’inin GenAI konusunda eğitim almadıklarını ve %15’inin onaylanmamış araçlar kullandığını bildirdiğini gösteriyor. Güvenlik ve BT profesyonellerinin %32’sinin GenAI risklerini ele alacak belgelenmiş bir stratejisi yok. Onaylanmamış GenAI araçları, diğer tüm gölge BT araçları gibi, kuruluşun saldırı yüzeyini güvenlik gözetimi olmadan genişleterek risk oluşturur ve potansiyel olarak bir kuruluşun güvenlik duruşunu tehlikeye atan bilinmeyen güvenlik açıkları ortaya çıkarır.

Güvenlik liderleri, güvenlik riskleri nedeniyle yapay zeka kodlamasını yasaklamayı düşünüyor

Güvenlik liderlerinin %92’si, yapay zeka tarafından oluşturulan kodun kendi kuruluşlarında kullanılması konusunda endişe duyuyor. Ankete katılanların %66’sı güvenlik ekiplerinin yapay zeka destekli geliştiricilere ayak uyduramadığını belirtiyor. Sonuç olarak, güvenlik liderleri kontrolü kaybettiklerini ve işletmelerin riske atıldığını düşünüyor; %78’i yapay zeka tarafından geliştirilen kodun güvenlikle ilgili bir hesaplaşmaya yol açacağına inanıyor ve %59’u yapay zekanın güvenlik etkileri konusunda uykusuz kalıyor.

Üst düzey yöneticiler arasında GenAI vızıltısı azalıyor

GenAI’nın benimsenmesi kritik bir aşamaya ulaştı; katılımcıların %67’si, kuruluşlarının bugüne kadarki güçlü değeri nedeniyle GenAI’ya yatırımını artırdığını bildirdi. Hedef, değer yaratma potansiyeli en yüksek olan GenAI projelerini seçmek ve hızlı bir şekilde ölçeklendirmek olsa da, birçok GenAI çalışması hala pilot veya kavram kanıtlama aşamasındadır; %68’i, kuruluşlarının GenAI’larının %30 veya daha azını taşıdığını belirtmektedir. tamamen üretime yönelik deneyler.

GenAI modellerinden kolayca ödün verilebilir

Siber güvenlik uzmanlarının %95’i GenAI güvenlik önlemlerine güvenlerinin düşük olduğunu ifade ederken, kırmızı takım verileri herkesin GenAI modellerini kolayca hackleyebileceğini gösteriyor. Yanıt verenlerin %35’i LLM’nin güvenilirliği ve doğruluğundan korkuyor, %34’ü ise veri gizliliği ve güvenliği konusunda endişeli. Nitelikli personel eksikliği endişelerin %28’ini oluşturmaktadır.

GenAI kullanıcıları için en acil güvenlik risklerinin tamamı verilerle ilgilidir

Küresel veri kümelerini kullanan araştırmacılar, işletmelerin %96’sının artık GenAI kullandığını ve bu sayının son 12 ayda üç katına çıktığını buldu. Ortalama olarak, kuruluşlar artık neredeyse 10 GenAI uygulaması kullanıyor; bu sayı geçen yıl üç iken, ilk %1’lik dilimdeki uygulamalar artık ortalama 80 uygulama kullanıyor; bu sayı 14’e göre önemli bir artış.

C-Suite yöneticilerinin GenAI çözümlerini uygulamasına yönelik baskı artıyor

C-Suite yöneticilerinin %87’si GenAI çözümlerini hızlı ve geniş ölçekte uygulama konusunda baskı altında hissediyor. Yöneticilerin %43’ü GenAI’nın rekabet avantajlarını korumak için kritik öneme sahip olduğuna inanırken, %68’i günümüzün gürültülü yapay zeka pazarında gerçek yenilikçileri belirlemenin zor olduğunu kabul ediyor.

Kuruluşlar yapay zeka kullanmanın risklerini ve ödüllerini tartıyor

Kuruluşların üçte ikisi, mevcut dahili süreçleri (%65) ve/veya profesyonel kuruluşların rehberliğini ve en iyi uygulamalarını (%63) kullanarak yapay zeka risk değerlendirmesine öncelik veriyor. Diğer %55’lik kesim ise riski önceliklendirmek için mevcut ve beklemede olan yasa/düzenlemeleri kullandıklarını söylüyor. Katılımcıların neredeyse yarısı yapay zekaya yönelik risk toleranslarını çok yüksek (%17) veya yüksek (%29) olarak tanımlarken yalnızca %12’si düşük (%9) veya çok düşük (%3) yapay zeka risk toleransını bildiriyor.

GenAI, siber güvenlik uzmanlarını yüksek düzeyde tetikte tutuyor

GenAI teknolojisinin genel siber güvenlik ortamı için ne kadar bir tehdit olduğu sorulduğunda, tüm yanıt verenlerin %96’sı bunun bir tehdit olduğunu kabul etti ve %36’dan fazlası bu teknolojinin manipülasyon veya aldatıcı içerik (deepfake) oluşturmak için kullanılmasının önemli bir tehdit olduğunu belirtti. tehdit.

Siber güvenlik uzmanları yapay zeka destekli tehditlerle mücadele etmek için stratejilerini değiştiriyor

Güvenlik profesyonellerinin %75’i yapay zeka destekli siber tehditlerdeki artış nedeniyle geçen yıl siber güvenlik stratejilerini değiştirmek zorunda kaldı ve %73’ü önleme yeteneklerine daha fazla odaklandığını ifade etti. Rakip yapay zekanın yükselişi siber güvenlik profesyonellerini de olumsuz etkiliyor; %66’sı stres düzeylerinin geçen yıla göre daha kötü olduğunu kabul ediyor ve %66’sı yapay zekanın tükenmişlik ve stresin doğrudan nedeni olduğunu söylüyor.

Kuruluşlar güvenlik risklerine rağmen yapay zekayla ilerlemeye devam ediyor

Immuta’ya göre yapay zekanın benimsenmesi hala çok yüksek; veri uzmanlarının %54’ü kuruluşlarının halihazırda en az dört yapay zeka sistemi veya uygulamasından yararlandığını söylüyor. %79’u ayrıca son 12 ayda yapay zeka sistemlerine, uygulamalarına ve geliştirmeye ayırdıkları bütçenin arttığını bildiriyor.

Yapay zeka yeni nesil siber saldırılar yaratıyor

Çoğu işletme, saldırgan yapay zekanın siber suçlular için hızla standart bir araç haline geldiğini düşünüyor ve güvenlik liderlerinin %93’ü günlük yapay zeka odaklı saldırılarla karşılaşmayı bekliyor. Yapay zeka yalnızca siber saldırıları geliştirmek için bir araç olarak değil, aynı zamanda siber savunmada da kullanılacak. Ulusal İstatistik Ofisi’nin bir raporu, işletmelerin %83’ünün yapay zekayı benimseme planının olmadığını bildirse de, siber güvenliğe bakıldığında bu durum doğrulanmıyor.

Güvenlik profesyonelleri yapay zeka konusunda ihtiyatlı bir iyimserliğe sahip

Yapay zekanın siber güvenliğe entegrasyonu yalnızca bir kavram değil, aynı zamanda birçokları için pratik bir gerçeklik; katılımcıların %67’si yapay zekayı özellikle güvenlik amacıyla test ettiklerini belirtiyor. Yapay zekadan yararlanma becerisine gelince, profesyonellerin %48’i kuruluşlarının güvenlikte yapay zekadan yararlanmaya yönelik bir strateji uygulama becerisine güvendiğini ifade etti; %28’i makul düzeyde kendinden emin ve %20’si kendinden çok emin.

Çalışanların %22’si GenAI ile şirket kurallarını ihlal ettiğini itiraf ediyor

Güvenlik profesyonellerinin %92’si üretken yapay zeka konusunda güvenlik endişeleri taşıyor; çalışanların hassas şirket verilerini bir yapay zeka aracına girmeleri (%48), yanlış veya kötü amaçlı verilerle eğitilmiş yapay zeka sistemlerini kullanmaları (%44) ve yapay zeka ile geliştirilmiş tuzağa düşmeleri gibi belirli endişeler var Kimlik avı girişimleri (%42).

Yapay zeka araçları şirketleri veri hırsızlığı riskiyle karşı karşıya bırakıyor

Günümüzün riskleri giderek daha fazla yapay zeka ve GenAI, çalışanların çalışma şekli ve bulut uygulamalarının yaygınlaşmasından kaynaklandığından, katılımcılar depolara gönderilen kaynak koduna (%88) ve kişisel bulut hesaplarına gönderilen dosyalara (%87) ilişkin daha fazla görünürlüğe ihtiyaç duyduklarını belirtiyor. ve müşteri ilişkileri yönetimi (CRM) sistemi veri indirmeleri (%90).

Gizlilik riskleri nedeniyle GenAI kullanımını yasaklayan veya sınırlayan işletmeler

Çoğu kuruluş maruz kalmayı sınırlamak için kontroller uyguluyor: %63’ü hangi verilerin girilebileceği konusunda sınırlamalar belirledi, %61’i çalışanların GenAI araçlarını kullanabileceği konusunda sınırlamalar getirdi ve %27’si kuruluşlarının GenAI uygulamalarını şimdilik tamamen yasakladığını söyledi. . Tüketiciler günümüzde verilerini içeren yapay zeka kullanımından endişe duyuyor. Ancak kuruluşların %91’i, müşterilerine verilerinin yapay zekada yalnızca amaçlanan ve meşru amaçlarla kullanıldığına dair güvence vermek için daha fazlasını yapmaları gerektiğinin farkında.



Source link