Calypsoai Güvenlik Liderlik Binbaşı Genai modellerinin güvenlik sıralamasını sunar


Calypsoai, güvenlik performanslarına göre tüm büyük AI modellerinin bir endeksi olan Calypsoai Güvenlik Lider tablosunu başlattı.

Calypsoai Güvenlik Lider tablosu, gelişmiş güvenlik saldırılarına dayanma yetenekleri üzerindeki tüm önemli modelleri sıralar ve risk-performans (RTP) oranının yanı sıra değerli bir güvenlik maliyeti (COS) metriğini sunar. Calypsoai, ajan savaşını otomatik saldırılarla birleştiren yeni çıkarım kırmızı takım çözümü ile stres testinden sonra strese testinden sonra liderlik tablosunu derledi.

Calypsoai CEO’su Donnchadh Casey, “Çıkarım kırmızı takım ürünümüz, bugün var olan tüm dünya standartlarında Genai modellerini başarıyla kırdı” dedi. “Birçok kuruluş, işleri ve müşterileri için riskleri anlamadan AI’yi benimsiyor; İleride, Calypsoai Güvenlik Lider Tahtası, iş ve teknoloji liderlerinin AI’yı güvenli ve ölçeklendirmeleri için bir ölçüt sağlar. ”

Calypsoai Kırmızı Team, güvenlik açıklarını proaktif olarak tanımlamak ve bir Calypsoai Güvenlik Dizin Sınıfı (CASI) AI envanteri oluşturmak için gerçek dünya saldırıları yürüten otomatik, ölçeklenebilir değerlendirmeler sunar. Ajan savaşını sürekli olarak güncellenmiş kapsamlı imza saldırıları ve operasyonel test kütüphanesiyle birleştirerek, Kırmızı Takım kuruluşları yönetişimi geliştirmek, uygunluğu sağlamak ve proaktif, güvenli ve esnek AI sistemlerini korumak için güçlendirir.

CYE VP Güvenlik Mimarisi ve CISO Amit Levinstein, “Genai iş dönüşümü için benzersiz fırsatlar sunuyor, ancak güvenlik, yönetişim ve uyum riskleri benimsenmede önemli engeller olmaya devam ediyor” dedi. “Calypsoai’nin çığır açan kırmızı takımlama çözümü, AI güvenliğinde kuantum bir sıçramadır ve AI uygulamalarını güvenli bir şekilde dağıtmak için zor kanıt yöneticilerinin ihtiyaç duydukları ve istedikleri güveni sağlar.”

Mühendislik ekibi arasında 70 yılı aşkın bir güvenlik ve yapay zeka deneyimi ile Calypsoai, güvenlik ekiplerinin AI sistemlerini güçlendirmelerini ve en son tehditlerin önünde kalmasını sağlamak için güvenlik açıklarını belirleyen açık, eyleme geçirilebilir raporlara olan bu ihtiyacı fark etti.

Calypsoai Başkanı ve CTO’su James White, “Calypsoai Kırmızı Takım, Calypsoai Başkanı ve CTO’su James White,“ Calypsoai Kırmızı Team, Centic Warfare’i Genai modellerinde güvenlik boşlukları bulmanın en son yöntemi olarak sunuyor ”dedi. “Halen en büyük AI model geliştiricileri tarafından bile kullanılan verimsiz ve tutarsız manuel kırmızı takımın sona erdiğini ve Calypsoai Güvenlik Lider tablosu ile model güvenliği ile ilgili halka açık bilgilerde önemli bir boşluğu kapatıyor.”

Yapay zeka tehdidi manzarası sürekli gelişmektedir ve çoğu şirket AI sistemlerini saldırganların yapacağı şekilde test etmek için donanımlı değildir; Ajan savaş kabiliyeti ile Calypsoai çıkarım Kırmızı takım, AI destekli rakiplerden dinamik olarak etkileşime girerek statik testlerin kaçırdığı gizli zayıflıkları ortaya çıkarır. Bu çözümün aracı doğası, ekiplerin uygulamaları dağıtmadan önce en güvenli modelleri güvenle seçebilmesini ve kullanım durumları geliştikçe.

“Calypsoai Red Team, AI’da liderlik eden ve hatta denemeler yapan işletmeler için bir oyun değiştiricidir” dedi. “Birçok girişimde, üretken yapay zekayı yerleştirerek yenilik yapmak için büyük fırsatlar gördük; Ancak sürekli güvenlik riski ile mücadele ettik. En zorlu olan bilinmeyen bilinmeyenlerdi. Calypso çıkarım Kırmızı takım gerçekten bu riski ele alıyor, bu nedenle AI güdümlü teknolojiyi entegre eden şirketlerin artık güvenlik ve yenilik arasında seçim yapmasına gerek yok. ”

Calypsoai Güvenlik Endeksi (CASI)

CASI, herhangi bir modelin ne kadar güvenli olduğuna dair karmaşık soruyu cevaplamak için geliştirilen bir metriktir. Daha yüksek bir CASI puanı daha güvenli bir model veya uygulamayı gösterir. Birçok çalışma saldırı başarı oranına (ASR) dayansa da, bu geleneksel metrik genellikle gerçeği basitleştirir ve tüm saldırıları eşit olarak ele alır.

Örneğin, bir bisiklet kilidini atlayan bir saldırı, nükleer fırlatma kodlarını tehlikeye atan bir saldırı ile eşittir. Benzer şekilde, AI’da, küçük, teminatsız bir model, hassas bilgi için basit bir istekle kolayca tehlikeye atılabilirken, daha büyük bir model hizalamasını kırmak için ajan savaşı gibi sofistike teknikler gerektirebilir.

Calypsoai, bu sorunları sorumlu bir şekilde ifşa etmek ve çözmek için yeni güvenlik açıkları geliştirmeye ve model sağlayıcılarla çalışmaya devam edecektir. Sonuç olarak, model CASI puanları üç ayda bir güncellenir.



Source link