Bugün, ISACA tarafından yapılan yeni bir araştırma, Avrupalı kuruluşların yaklaşık dörtte üçünün (%73) çalışanlarının işyerinde yapay zeka kullandığını bildirmesine rağmen, yalnızca %30’unun teknolojiyle ilgili pozisyonlardaki çalışanlara sınırlı eğitim verdiğini, %40’ının ise hiç eğitim vermediğini ortaya çıkardı. hiç de.
Ancak yapay zekayla ilgili sorunlar işyerinde eğitim eksikliğiyle sınırlı değil. Yapay zekanın nasıl kullanılması ve kullanılmaması gerektiğine ilişkin politika da eksik; kuruluşların yalnızca %17’si resmi, kapsamlı bir yapay zeka politikasına sahip.
Eğitim ve politika eksikliğinin yanı sıra, iş dünyası ve BT profesyonelleri yapay zeka konusunda eğitimde bir boşluk olduğunu bildiriyor. Yanıt verenlerin yapay zekaya ne kadar aşina oldukları sorulduğunda neredeyse dörtte üçü (%74) ya biraz aşinaydı ya da hiç aşina değildi. Yapay zeka kullanımına ilişkin endişeler burada bitmiyor: Üretken yapay zekanın kötü aktörler tarafından istismar edilmesi sorulduğunda yanıt verenlerin %61’i bunun olabileceğinden son derece veya çok endişeliydi. Buna ek olarak, bu yılın başlarında Keeper Security tarafından yapılan bir araştırma, yapay zeka destekli saldırıların kuruluşların şahit olduğu en yaygın saldırı vektörü olduğunu ve iş liderlerinin %50’sinden fazlasının bu tür saldırıların yayılması ve etkisi konusunda endişe duyduğunu ortaya çıkardı.
Yapay zeka, siber güvenlik için iki ucu keskin bir kılıç sunuyor. Tehditlere karşı verileri daha hızlı analiz etmek için kullanılabilse de siber güvenlik uzmanları çeşitli güvenlik endişelerini özetledi. Endişelerden biri yapay zeka saldırganlarıdır. Kötü niyetli aktörler yapay zekayı mevcut güvenliği aşan kötü amaçlı yazılımlar üretmesi için eğitebilir. Yapay zeka ayrıca, saldırganların kararlarını manipüle etmek için kötü verilerle beslediği “veri zehirlenmesine” de açıktır. Örneğin, finansal işlemleri filtreleyen bir yapay zeka, hileli işlemleri onaylayacak şekilde kandırılabilir.
Yapay zekanın büyük veri kümelerine bağımlılığı gizlilik sorunlarını artırıyor. Bu verilerin ihlali hassas bilgilerin açığa çıkmasına neden olabilir. Bu riskleri azaltmak, güvenli veri depolama ve güçlü yapay zeka geliştirme uygulamaları gerektirir. Yapay zekanın etik ve etkili bir şekilde kullanılmasını sağlamak için insan gözetimi hayati önem taşıyor.
ISACA Küresel Strateji Direktörü Chris Dimitriadis şunları söyledi: “Yapay zeka ön plana çıkmaya devam edecek ve BT ve siber güvenlik sektörlerinin dönüşüm ve yenilik yapma biçimini şekillendirmeye yardımcı olacak. Yapay zeka iki yönlü kullanılıyor; kötü aktörler onu daha karmaşık siber saldırılar geliştirmek için silah haline getiriyor ve buna karşılık siber profesyoneller tarafından bu tehditleri daha iyi tespit edip yanıt vermek için kullanılıyor. İşletmelerin yapay zeka kullanmanın faydalarını görmesi gerekiyorsa, yeni tehdit modellerini, riskleri ve kontrolleri tanımlayabilmek için doğru becerilere sahip olmaları gerekiyor.”
Beceri geliştirme ve eğitim yüksek talep görüyor; yanıt verenlerin %34’ü önümüzdeki altı ay içinde AI becerilerini ve bilgilerini artırmaları gerektiğine inanıyor ve dörtte birinden biraz fazlası (%27) bunu önümüzdeki altı ayda yapmaları gerektiğini belirtiyor işlerini korumak veya kariyerlerini ilerletmek için yedi aydan bir yıla kadar. Toplamda ankete katılanların %86’sı bu eğitimin önümüzdeki iki yıl içinde gerekli olacağını düşünüyor.
Dimitriadis ekliyor: “Siber suçlular giderek daha karmaşık ve hedefe yönelik saldırılar gerçekleştirmek için yapay zekayı kullanırken, siber profesyonellerin yapay zeka konusunda resmi eğitime sahip olmaları ve takip edecekleri net şirket politikaları her zamankinden daha önemli. İşletmeler ekiplerinin becerilerini geliştirebilir ve yapay zekanın yükselişinin oluşturduğu gelişen tehdide ayak uydurabilir, itibarlarını koruyabilir ve müşteri güvenini güçlendirebilir.”