GenAI modelleri kolayca tehlikeye atılabilir


Lakera’ya göre siber güvenlik uzmanlarının %95’i GenAI güvenlik önlemlerine düşük güven duyuyor; kırmızı takım verileri ise herkesin GenAI modellerini kolayca hackleyebileceğini gösteriyor.

GenAI güvenlik önlemleri

GenAI’ye özgü saldırı yöntemleri veya istemli saldırılar, uygulamaları manipüle etmek, yetkisiz erişim elde etmek, gizli verileri çalmak ve yetkisiz eylemlerde bulunmak için herkes tarafından kolayca kullanılabilir. Bunu fark eden ankete katılan 1.000 siber güvenlik uzmanının yalnızca %5’i, %90’ı aktif olarak GenAI kullanıyor veya araştırıyor olsa da, GenAI uygulamalarını koruyan güvenlik önlemlerine güveniyor.

Lakera CEO’su David Haber, “Sadece birkaç iyi hazırlanmış kelimeyle, bir acemi bile AI sistemlerini manipüle edebilir ve bu da istenmeyen eylemlere ve veri ihlallerine yol açabilir,” dedi. “İşletmeler inovasyonu hızlandırmak ve hassas görevleri yönetmek için giderek daha fazla GenAI’ye güvendikçe, farkında olmadan kendilerini geleneksel siber güvenlik önlemlerinin ele almadığı yeni güvenlik açıklarına maruz bırakıyorlar. Yüksek benimseme ve düşük hazırlık kombinasyonu, ortaya çıkan bir alanda o kadar şaşırtıcı olmayabilir, ancak riskler hiç bu kadar yüksek olmamıştı.”

GenAI ile herkes potansiyel bir hacker

Lakera tarafından yaratılan bir AI eğitim oyunu olan Gandalf, savunmalarını aşmaya çalışan siber güvenlik uzmanları da dahil olmak üzere bir milyondan fazla oyuncuyu cezbetti. Şaşırtıcı bir şekilde, bu oyuncuların 200.000’i oyunun yedi seviyesini başarıyla tamamlayarak GenAI modellerini istenmeyen eylemlerde bulunmaya yönlendirme yeteneklerini gösterdi.

Bu, sorunun büyüklüğü için inanılmaz derecede değerli bir referans noktası sağlar. Komutları kendi ana dillerini kullanarak girmek ve biraz yaratıcılık, bu oyuncuların Gandalf’ın yedinci seviyesini ortalama sadece 45 dakikada kandırmalarına olanak sağladı. Bu çarpıcı örnek, rahatsız edici bir gerçeğin altını çiziyor: artık herkes potansiyel bir hacker ve işletmeler GenAI için güvenliğe yönelik yeni bir yaklaşıma ihtiyaç duyuyor.

“C-suite talepleriyle körüklenen GenAI’yi benimseme yarışı, güvenlik hazırlığını teknolojinin evrimindeki herhangi bir kritik andan daha hayati hale getiriyor. GenAI, ömür boyu bir kez yaşanacak bir kesintidir,” diyor Cloudflare, Uber ve Meta’nın (Facebook) eski CSO’su ve Lakera danışmanı Joe Sullivan. “Ancak, potansiyelini kullanmak için, işletmeler zorluklarını göz önünde bulundurmalı ve bu, tartışmasız bir şekilde güvenlik riskidir. Hazırlıklı olmak ve bu riski azaltmak, benimsemeye öncülük eden şirketler için bir numaralı iştir.”

LLM güvenilirliği ve doğruluğu, benimsenmenin önündeki 1 numaralı engeldir

Katılımcıların %35’i LLM güvenilirliği ve doğruluğundan endişe ederken, %34’ü veri gizliliği ve güvenliğinden endişe duyuyor. Nitelikli personel eksikliği endişelerin %28’ini oluşturuyor.

Katılımcıların %45’i GenAI kullanım durumlarını araştırıyor; %42’si GenAI’yi aktif olarak kullanıyor ve uyguluyor. Katılımcıların yalnızca %9’u LLM’leri benimsemek için şu anda hiçbir planları olmadığını bildirdi.

Katılımcıların yalnızca %22’si GenAI’ye özgü tehditlere hazırlanmak için AI’ya özgü tehdit modellemesini benimsedi.

Hazırlık düzeyi ve güvenlik önlemlerinin benimsenmesi sektörler arasında önemli ölçüde farklılık göstermektedir. Örneğin, katılımcıların %8’ini oluşturan finans sektörü, sıkı güvenlik uygulamalarına daha yüksek bir eğilim göstermektedir; kuruluşların %20’si özel AI güvenlik ekiplerine sahiptir ve %27’si hazırlıklarını en yüksek seviyelerde (5 üzerinden 4 veya 5) derecelendirmektedir.

Buna karşılık, katılımcıların %12’sini temsil eden eğitim sektöründe, özel AI güvenlik ekiplerine sahip kuruluşların yalnızca %9’u ve hazırlıklarını en yüksek seviyelerde değerlendirenlerin yalnızca %15’i bulunmaktadır. Bu karşıtlıklar, farklı sektörlerin karşılaştığı çeşitli aciliyet seviyelerini ve düzenleyici baskıları vurgulamaktadır.



Source link