Armilla AI, kuruluşların üretken yapay zeka modellerini güvenli bir şekilde dağıtmasına ve hem kullanıcıları hem de kuruluşları olası zararlardan korumasına yardımcı olmak için akıllı bir güvenlik duvarı olan AutoGuard’ı başlattı.
Üretken yapay zekanın yetenekleri dikkat çekici ancak eksiklikleri işletmeler için önemli riskler taşıyor. Önyargıyı ortadan kaldırmak ve halüsinasyonları azaltmaktan güvenliği artırmaya ve gizlilik sorunlarını ortadan kaldırmaya kadar AutoGuard, güvenli ve sorumlu kurumsal düzeyde üretken yapay zeka çözümlerinin dağıtımı için eksiksiz bir çözümdür.
AutoGuard, AutoAlign üretken yapay zeka platformunun ikinci ürünü olarak AutoTune’a katılıyor. Her ikisi de otomatik geri bildirim ince ayarını içeren aynı AutoAlign çerçevesini kullanır ve gizlilik koruması, gizli bilgi sızıntısına karşı koruma, cinsiyet varsayımı, jailbreak koruması ve ırksal önyargı tespiti gibi kullanıma hazır kontrollerden oluşan bir kitaplıkla birlikte gelir veya özelleştirilebilir özel hizalama kontrolleriyle. Bu, müşterilerin doğal dil anlatımlarında ifade edilen yapay zeka modellerinin nasıl davranacağını uygulayabileceği anlamına gelir.
“Sektörde, üretken yapay zeka ölçeklendirmeleri olarak, bu modellerin güvenli bir şekilde performans göstermesini sağlamak için çalışma zamanında koruma sağlamamız gerektiğine dair büyüyen bir çağrı var. Kendi testlerimize, müşterilerimizden ve sektör uzmanlarımızdan aldığımız geri bildirimlere dayanarak, işletmelerin bu korkulukların Kanada’nın üretken yapay zekaya yönelik yeni gönüllü davranış kuralları gibi girişimlerle uyumlu olması gerekiyor” diyor Armilla CTO’su Rahm Hafiz. “Yaklaşımımız, sözdizimi tabanlı korkuluklardan veya tek başına geleneksel ince ayardan daha güçlüdür ve kuruluşlar modellerini pazara sunarken güvenli, güvenilir dağıtımları ölçeklendirmek için kritik öneme sahiptir.”
Armilla’nın AutoGuard çözümü kendi verilerini üretebiliyor ve kurumun yapay zeka modelinin nasıl davranmasını istediğine bağlı olarak otomatik geri bildirim kullanarak müşterinin korkuluklarına ince ayar yapabiliyor. Süreç boyunca Armilla’nın kendi yapay zekası, AutoGuard’ı bir dizi adımla hizalar: hedef modelin hedeflerini anlamak, modelin davranışının sınırlarını yakalamak için veri oluşturmak, yinelemeli olarak test etmek, zayıf noktaları keşfetmek ve son olarak kendi korkuluk modelini güçlendirmek.
Sonuç, üretken yapay zekayı konuşlandırıldığında daha güvenli, güvenilir ve etik hale getiren kullanıcı dostu bir platformdur. AutoGuard şu anda aşağıdakiler de dahil olmak üzere seçilmiş bir istemci grubu tarafından kullanılıyor:
- İK yazılım şirketleri, üretken yapay zekayı İK süreçlerine uyguluyor ancak çözümlerinde adaletin yer almasını gerektiriyor
- Sorumlu, üretken yapay zeka çözümleri geliştirmek isteyen finans kurumları
- Gizli ve hassas verilerle ilgilenen danışmanlık firmaları