Şirketler Üretken Yapay Zeka Araçlarını Korumak İçin Birden Fazla Yönteme Güveniyor



Daha fazla kuruluş, sunum hazırlamak, hibe başvurularını tamamlamak ve ortak kod yazmak için üretken yapay zeka teknolojilerini benimsedikçe, güvenlik ekipleri yeni bir soruyu ele alma ihtiyacının farkına varıyor: Yapay zeka araçlarını nasıl güvence altına alırsınız?

Gartner tarafından yakın zamanda yapılan bir ankette yanıt verenlerin üçte biri, kuruluşlarında üretken yapay zeka kullanımının yarattığı riskleri ele almak için yapay zeka tabanlı uygulama güvenliği araçlarını kullandıklarını veya uyguladıklarını bildirdi.

Gizliliği artıran teknolojiler (PET’ler), ankete katılanların %7’si ile mevcut en büyük kullanımı gösterdi; şirketlerin %19’u bu teknolojiyi uyguluyor; bu kategori, homomorfik şifreleme, yapay zeka tarafından oluşturulan sentetik veriler, güvenli çok taraflı hesaplama, birleştirilmiş öğrenme ve farklı gizlilik gibi kişisel verileri korumanın yollarını içerir. Ancak %17’lik bir kesimin PET’leri çevrelerine yayma planı yok.

Yalnızca %19’u model açıklanabilirliğine yönelik araçları kullanıyor veya uyguluyor, ancak katılımcılar arasında üretken yapay zeka riskini ele almak için bu araçları keşfetmeye ve anlamaya önemli bir ilgi (%56) var. Gartner’a göre açıklanabilirlik, model izleme ve yapay zeka uygulama güvenliği araçlarının tümü, kurumsal kullanıcıların ihtiyaç duyduğu güvenilirliği ve güvenilirliği sağlamak için açık kaynak veya özel modellerde kullanılabilir.

Ankete katılanların en çok endişe duyduğu riskler arasında yanlış veya önyargılı çıktılar (%58) ve yapay zeka tarafından oluşturulan koddaki güvenlik açıkları veya sızdırılmış sırlar (%57) yer alıyor. Önemli ölçüde, %43’ü yapay zeka tarafından oluşturulan içerikten kaynaklanan potansiyel telif hakkı veya lisans sorunlarının kuruluşları için en büyük riskler olduğunu belirtti.

Bir üst düzey yönetici, Gartner anketine yanıt olarak şöyle yazdı: “Üzerinde eğitim verilen veri modelleri hakkında hâlâ şeffaflık yok; bu nedenle önyargı ve mahremiyetle ilişkili riskin anlaşılması ve tahmin edilmesi çok zor.”

Haziran ayında Ulusal Standartlar ve Teknoloji Enstitüsü (NIST), Ocak ayından itibaren Yapay Zeka Risk Yönetimi Çerçevesini temel alarak bu sorunun yanıtlanmasına yardımcı olmak için bir kamu çalışma grubu başlattı. Gartner verilerinin de gösterdiği gibi şirketler NIST direktiflerini beklemiyor.



Source link