Satın Almak mı, İnşa Etmek mi, Yoksa Kırmak mı?


Saldırıları kolaylaştırmak ve savunmalardan kaçınmak için büyük dil modellerini (LLM'ler) kullanmanın yollarını arayan siber saldırganlar üç seçenekle karşı karşıyadır: ChatGPT gibi büyük yapay zeka modellerinin yapımcıları tarafından yerleştirilen korkuluklardan kaçmak için bir kedi-fare oyunu oynamak; kendi yapay zeka modelini eğitmek için zaman ve çaba harcamak; veya sansürsüz bir açık kaynak modelini veya Dark Web'den bir şeyi emirlerini yerine getirmek için görevlendirin.

Geçtiğimiz ay, yer altı geliştiricileri ilk yaklaşımı benimsemiş gibi görünüyordu; yapay zeka destekli kötü amaçlı bir ön uç hizmeti olan Dark Gemini'yi piyasaya sürdüler; bu hizmet, kötü amaçlı programlar yazma ve fotoğraflardaki kişilerin coğrafi konumlarını belirleme konusundaki kısıtlamaları kırmak için muhtemelen meşru LLM'lere gönderilen istemleri değiştirdi. Birçok güvenlik uzmanı hizmetin gösterdiği yeteneklerden etkilenmese de, chatbot gösterdi az çabayla neler başarılabilir.

Dark Gemini çok fazla bir sıçrama yapmamış olsa da, yasal LLM'leri kısıtlayan korkulukları atlamak için bir ön uç oluşturmaya yönelik sistematik yaklaşım, minimalist bir yaklaşımın, mevcut saldırıları gerçekleştirmek için metin sentezi ve çeviri gibi önemli yapay zeka yetenekleri sunabileceğini gösteriyor. Kimlik avı olarak daha etkilidir.

Saldırgan Yapay Zeka: Yıkmak mı, Satın Almak mı, İnşa Etmek mi?

Dark Gemini, “doğuştan iyi” yapay zekaları kirli işleri yapmaları için kandırmanın yollarını bulmanın en son örneğidir. Şubat ayında Microsoft ve Open AI ulus devlet tehdit aktörlerini uyardı Çin, İran, Kuzey Kore ve Rusya'dan gelenler de dahil olmak üzere, tehdit gruplarının operasyonlarını artırmak için firmaların Yüksek Lisans'larını kullanıyorlardı. Bu ayın başlarında, AI güvenlik firması HiddenLayer'daki araştırmacılar, Google'ın Gemini'sinden gelen güvenli olmayan yanıtları sınırlamak için kurulan korkulukların, kolayca bypass edilebilir.

Tehdit istihbaratı firması Cybersixgill'in güvenlik araştırma lideri Dov Lerner, ancak bir saldırının daha karmaşık bileşenleri için (örneğin karmaşık kötü amaçlı yazılım oluşturmak gibi) yapay zekayı kullanmanın, mevcut korkulukların yarattığı engeller nedeniyle muhtemelen yeterince zor olacağını söylüyor.

“Gerçekten etkili olmak için, [any malware] kaçamak olması gerekiyor, mevcut her türlü savunmayı atlatması gerekiyor ve kesinlikle, eğer kurumsal bir sisteme kötü amaçlı yazılım dağıtılıyorsa, o zaman [it] çok karmaşık olması gerekiyor” diyor. “Bu yüzden yapay zekanın yazabileceğini düşünmüyorum [malware] Şu anda programlar.”

Dark Web'de satışa sunulan “doğuştan kötü niyetli” seçenekleri girin. Zaten Dark Web'den gelen içerikle eğitilen yapay zeka sohbet robotları hızla çoğaldı. FraudGPT, WormGPT ve DarkBART dahil. Llama2'yi ve hibrit Wizard-Vicuna yaklaşımlarını temel alan sansürsüz yapay zeka modelleri, depolardan önceden eğitilmiş indirmeler halinde de mevcuttur.

Ancak diğer yaklaşımlar muhtemelen daha ciddi tehditlere yol açacaktır. Erişimi olan siber suçlular HuggingFace aracılığıyla sınırsız yapay zeka modelleri Recorded Future's Insikt Group'tan tehdit istihbaratı analisti Dylan Davis, ve diğer yapay zeka modeli depolarının belirli yeteneklere sahip kendi platformlarını oluşturabileceğini söylüyor.

“Sınırsız modellerin tehdit ortamı üzerindeki etkisinin” önemli olacağını söylüyor. “Bu modellere kolayca erişilebilir…, ayağa kalkması kolaydır, [and] sürekli gelişiyorlar – çoğundan çok daha iyi [Dark Web] modeller — ve daha verimli hale geliyor.”

LastPass'ın tehdit istihbarat ekibi direktörü Alex Cox, “Bu, sürekli tekrarlanan siber güvenlik silahlanma yarışının tipik bir örneği” diyor. “Yapay zeka gibi yıkıcı bir teknolojinin hem iyi hem de kötü adamlar tarafından hızla benimsendiğini, savunma mekanizmalarının ve süreçlerin iyi adamlar tarafından devreye sokulduğunu görüyorsunuz.”

Yapay Zeka Silahlanma Yarışı ve Savunma Stratejileri

Saldırganlar yapay zekayı kullanmanın yollarını aramaya devam ettikçe savunmacılar da bunu sürdürmekte zorlanacak Hızlı enjeksiyon gibi saldırılara karşı yapay zeka korumalarıRecorded Future'dan Davis diyor. Baypas edilmesi zor savunmalar oluşturmak için şirketlerin derinlemesine rakip testler yapması, hem girdileri hem de çıktıları filtrelemek veya sansürlemek için tasarlanmış kurallar oluşturması gerektiğini söylüyor – pahalı bir teklif, diyor.

“Çekişmeli eğitim şu anda en sağlam yollardan biri. [create] Esnek bir model, ancak burada güvenlik ile model yeteneği arasında çok büyük bir denge var” diyor Davis. “Ne kadar çekişmeli eğitim olursa, modeller o kadar az 'yararlı' hale gelir, bu nedenle çoğu model yaratıcısı, aklı başında herhangi biri gibi kullanılabilirlik açısından çekingen olacaktır. iş olur.”

Yeraltı geliştiricilerinin kendi modellerini oluşturmasına veya önceden eğitilmiş açık kaynak modellerini beklenmedik şekillerde kullanmasına karşı savunma yapmak neredeyse imkansızdır. LastPass'tan Cox, bu gibi durumlarda, savunmacıların bu tür araçları siber güvenlik silahlanma yarışının bir parçası olarak ele alması ve saldırganların yeni yetenekler kazanmasına uyum sağlaması gerektiğini söylüyor.

“Korkuluklar ve üretken yapay zeka güvenliği, diğer girdi doğrulama süreçleri gibi görülmelidir ve yetenekler geliştikçe ve güvenlik açıkları keşfedildikçe korumaların düzenli aralıklarla değerlendirilmesi, yeniden değerlendirilmesi ve yeniden gruplandırılması gerekir” diyor. “Bu anlamda, güvenlik açığı değerlendirme dünyasında yönetilmesi gereken başka bir teknoloji.”





Source link