Güvenlik Uzmanları GenAI Riskini Yönetmenin Yollarıyla Boğuşuyor


Güvenlik profesyonelleri genel olarak üretken yapay zekanın kuruluşlarındaki potansiyel rolü konusunda hevesli olsa da, aynı zamanda bu yeni araçların kendi ortamlarında yaratabileceği etki konusunda da endişeliler. Dark Reading’in üretken yapay zekanın işletmede kullanımına ilişkin araştırması, bu teknolojiye her şeyin dahil edilmesinin potansiyel tuzakları konusunda yüksek derecede farkındalık ve endişeyi ortaya koyuyor.

Ankete katılanların neredeyse dörtte üçü ChatGPT ve diğer üretken yapay zeka teknolojilerinin oluşturduğu güvenlik ve emniyet riskleri konusunda bazı endişelerini dile getiriyor. Yaklaşık aynı sayıda çalışan, tam yetkili olmasalar bile, çalışanların kamusal üretken yapay zeka teknolojilerini iş amacıyla kullandığına inanıyor.

Katılımcıların çoğunluğu (%86) kurumun teknolojiye olan güveni sürdürmek için uygun risk yönetimi araçlarına sahip olması gerektiğini söylüyor. Bununla birlikte, riski azaltmak için hangi stratejilerin kullanılacağı konusunda bazı sorular mevcut; bunlar arasında yapay zeka yönetişimi (%43), veri yönergelerini ve politikasını tanımlamak (%42), istenmeyen sonuçları belirlemek için üretken yapay zeka tarafından döndürülen yanıtları gözden geçirmek (%42) ve Yapay zeka uygulama güvenliği programı kurmak (%40). Küçük bir çoğunluk (%57) sorumlu yapay zeka uygulamalarına odaklanan farkındalık eğitimi verilmesi gerektiğini söylüyor.

Ankete katılanlardan biri şunu söylüyor: “Keşke bu kafası karışan gençlerin riski anlayabilseydi!”

Katılımcıların %30’u üretken yapay zeka araçlarının dağıtılması ve yönetilmesi sorumluluğunun kuruluşlarında BT kapsamına girdiğini söylerken, %17’si bunun siber güvenliğin bir parçası olduğunu ve %25’i özel bir yapay zeka grubuna sahip olduğunu söylüyor. Öyle olsa bile, üretken yapay zeka için güvenlik ve risk yönetiminin nihai sorumluluğu, ankete katılanların %27’si için siber güvenliğin, %21’i ise özel yapay zeka grubunun sorumluluğundadır.

Kuruluşun üretken yapay zeka güvenliği ve risk yönetimi konusunda karşılaştığı en büyük zorluklar sorulduğunda net bir çoğunluk olmasa da ilk dört yanıt şunlar oldu: düzenleyici uyumluluğun üretken yapay zeka için nasıl uygulandığına ilişkin belirsizlik (%47), üçüncü olarak şeffaflığın olmaması. parti üretken yapay zeka araçları (%46), üretken yapay zeka yönergeleri ve politikaları konusunda fikir birliği yok (%43) ve veri yönetişimi (%39).

Dark Reading okuyucularının ne düşündüğü hakkında daha fazla bilgi edinin kuruluşta üretken yapay zeka.





Source link