Günümüzde yapay zeka, finans, üretim, reklamcılık ve sağlık hizmetleri gibi çeşitli segmentleri dönüştürüyor. IDC Yapay zekaya yapılan küresel harcamanın 2026 yılına kadar 300 milyar doları aşacağını öngörüyor. Şirketler, paha biçilemez fikri mülkiyet olarak kabul edilen yapay zeka modelleri oluşturmak için milyonlarca dolar harcıyor ve parametreler ve model ağırlıkları yakından korunan sırlar. Bir rakibin modelindeki bazı parametreleri bilmek bile değerli bir istihbarattır.
Bu modelleri eğitmek için kullanılan veri kümeleri de oldukça gizlidir ve rekabet avantajı yaratabilir. Sonuç olarak, veri ve model sahipleri bu varlıkları hırsızlık veya uyumluluk ihlallerinden korumanın yollarını arıyor. Gizliliği ve bütünlüğü sağlamaları gerekir.
Bu bizi yeni gizli yapay zeka alanına getiriyor. Gizli yapay zekanın amacı, model oluşturma, eğitim, ön işleme ve eğitim verilerinin iyileştirilmesinin (ve model ile verilerin yaşam döngüleri boyunca yürütülmesinin) beklemedeyken tehlikeye, kurcalamaya ve açığa çıkmaya karşı korunmasını sağlamaktır. , transit halinde ve kullanımda. Kimden korunuyor? Altyapı sağlayıcılarından, hileli sistem yöneticilerinden, model sahiplerinden, veri sahiplerinden ve modelin veya verilerin kritik öğelerini çalabilecek veya değiştirebilecek diğer aktörlerden. Gizli yapay zeka, güçlü politika uygulamalarını vurgular ve sıfır güven ilkeleri.
Gizli Yapay Zeka için Kullanım Örnekleri
Gizli yapay zeka, bazıları yeni, bazıları mevcut donanım ve yazılımların uzantıları olmak üzere çeşitli teknolojiler ve yetenekler gerektirir. Bu içerir gizli bilgi işlem gibi teknolojiler güvenilir yürütme ortamları (TEE’ler) Yalnızca CPU’larda değil, GPU’lar gibi diğer platform bileşenlerinde de kullanım sırasında verilerin güvende tutulmasına yardımcı olmak ve CPU ve GPU TEE’ler için güven kanıtını doğrulamak ve sağlamak için kullanılan doğrulama ve politika hizmetleri. Aynı zamanda doğru veri kümelerinin kaynaklanmasını, önceden işlenmesini, temizlenmesini ve etiketlenmesini sağlayan hizmetleri de içerir. Ve son olarak, anahtar yönetimi, anahtar komisyonculuğu ve dağıtım hizmetleri, modellerin, verilerin, istemlerin ve bağlamın bir TEE içinden erişilmeden veya yürütülmek üzere teslim edilmeden önce şifrelenmesini sağlar.
En önemli gizli yapay zeka senaryolarından dördüne bakalım.
1. Gizli Çıkarım
Bu, gizli yapay zekanın en tipik kullanım durumudur. Bir model eğitilir ve dağıtılır. Tüketiciler veya müşteriler bir sonucu tahmin etmek, çıktı üretmek, içgörü elde etmek ve daha fazlasını yapmak için modelle etkileşime girer.
Model sahipleri ve geliştiriciler, model IP’lerini modelin dağıtıldığı altyapıdan (bulut sağlayıcılardan, hizmet sağlayıcılardan ve hatta kendi yöneticilerinden) korumak ister. Bu, modelin ve verilerin her zaman ilgili sahipleri tarafından kontrol edilen anahtarlarla şifrelenmesini ve kullanım sonrasında bir doğrulama hizmetine tabi tutulmasını gerektirir. Gerçek şifre çözme anahtarlarının barındırıldığı bir anahtar komisyoncu hizmeti, şifre çözme anahtarlarını güvenli bir kanal üzerinden TEE’lere bırakmadan önce doğrulama sonuçlarını doğrulamalıdır. Daha sonra, çıkarım gerçekleşmeden önce modellerin ve verilerin şifresi TEE’lerin içinde çözülür.
Bu kullanım durumunun birden fazla varyasyonu mümkündür. Örneğin, çıkarım verileri şifrelenerek gerçek zamanlı veriler doğrudan TEE’ye aktarılabilir. Veya üretken yapay zeka için, kullanıcıdan gelen istemler ve bağlam yalnızca modeller üzerinde çalışırken TEE’nin içinde görünür olacaktır. Son olarak, çıkarımın çıktısı, şifreleme gerektirebilen veya gerektirmeyen özetlenmiş bilgiler olabilir. Çıktı ayrıca bir görselleştirme veya izleme ortamına akış yönünde de beslenebilir.
2. Gizli Eğitim
Çıkarım için herhangi bir modelin kullanıma sunulmasından önce, bunların oluşturulması ve daha sonra önemli miktarda veri üzerinde eğitilmesi gerekir. Çoğu senaryoda model eğitimi büyük miktarda bilgi işlem gücü, bellek ve depolama gerektirir. Bulut altyapısı bunun için çok uygundur ancak atıl durumdaki, aktarım halindeki ve kullanımdaki veriler için güçlü güvenlik garantileri gerektirir. Gizli çıkarım için sunulan gereksinimler, model oluşturucuya ve veri sahibine modelin (parametreler, ağırlıklar, kontrol noktası verileri vb. dahil) ve eğitim verilerinin TEE’lerin dışında görünmediğine dair kanıt sağlamak amacıyla gizli eğitim için de geçerlidir. .
Gizli yapay zeka ile ilgili sıklıkla dile getirilen gereksinimlerden biri şudur: “Modeli bulutta eğitmek istiyorum ancak aynı güvenlik düzeyiyle uç noktaya dağıtmak istiyorum. Model sahibinden başka hiç kimse modeli görmemelidir.” Gizli eğitim ve gizli çıkarım için sunulan yaklaşım, bunu başarmak için birlikte çalışır. Eğitim tamamlandıktan sonra güncellenen model, TEE içinde, eğitim sürecinden önce şifresini çözmek için kullanılan, model sahibinin anahtarıyla aynı anahtarla şifrelenir.
Bu şifrelenmiş model daha sonra yapay zeka çıkarım uygulamasıyla birlikte uç altyapıya bir TEE’ye dağıtılır. Gerçekçi olmak gerekirse, buluttan model sahibine indirilir ve ardından AI Inferencing uygulamasıyla uç noktaya dağıtılır. Gizli çıkarımla aynı iş akışını takip eder ve şifre çözme anahtarı, uç TEE’lerin doğrulama raporları doğrulandıktan sonra model sahibindeki anahtar komisyoncu hizmeti tarafından TEE’lere iletilir.
3. Birleştirici Öğrenme
Bu teknik, verilerin güvenlik ve gizlilik endişeleri, veri yerleşimi gereksinimleri, boyut ve hacim zorlukları ve daha fazlası nedeniyle kaynaklarından taşınmadığı ve toplanmadığı merkezi eğitim mimarisine bir alternatif sağlar. Bunun yerine model, dağıtılmış eğitim için önceden onaylanmış ve kabul edilmiş bir süreci takip ettiği verilere taşınır. Veriler müşterinin altyapısında barındırılır ve model, eğitim için tüm müşterilere taşınır; merkezi bir yönetici/toplayıcı (model sahibi tarafından barındırılır), her bir müşteriden model değişikliklerini toplar, bunları bir araya getirir ve yeni, güncellenmiş bir model sürümü oluşturur.
Model sahibi için buradaki en büyük endişe, modelin eğitildiği istemci altyapısında model IP’sinin potansiyel olarak tehlikeye atılmasıdır. Benzer şekilde, veri sahibi sıklıkla model degrade güncellemelerinin model oluşturucu/sahibi tarafından görülebilmesi konusunda endişelenir. Birleşik öğrenme ile gizli bilgi işlemin birleştirilmesi, daha güçlü güvenlik ve gizlilik garantileri sağlar ve sıfır güven mimarisine olanak tanır.
Bunu yapmak, ML modellerinin merkezi yöneticiden çeşitli istemcilere güvenli bir şekilde dağıtılmasını gerektirir. Bu, modelin eğitim için veri kümelerine daha yakın olduğu, altyapıya güvenilmediği ve modellerin veri gizliliğini sağlamaya ve IP’yi korumaya yardımcı olmak için TEE’de eğitildiği anlamına gelir. Daha sonra, her müşterinin altyapısının TEE güvenilirliğini doğrulayan ve modelin eğitildiği TEE ortamlarına güvenilebileceğini doğrulayan bir doğrulama hizmeti katmanlanır. Son olarak, eğitilen modeller farklı müşterilerden toplayıcıya veya düzenleyiciye geri gönderilir. Model birleştirme TEE’lerin içinde gerçekleşir, model güncellenir ve stabil olana kadar tekrarlanarak işlenir ve ardından nihai model çıkarım için kullanılır.
4. Gizli Ayarlama
Yapay zeka için ortaya çıkan bir senaryo, şirketlerin genel yapay zeka modellerini alıp bunları genellikle kuruluşa özel olan iş alanına özgü verileri kullanarak ayarlamayı istemesidir. Temel mantık, bir dizi alana özgü görev için modelin hassasiyetini ayarlamak ve geliştirmektir. Örneğin, bir BT destek ve hizmet yönetimi şirketi mevcut bir LLM’yi alıp onu BT desteği ve yardım masasına özgü verilerle eğitmek isteyebilir veya bir finans şirketi, özel mali verileri kullanarak temel bir LLM’ye ince ayar yapabilir.
Bilgi işlem, bellek ve depolama konusundaki büyük talepler göz önüne alındığında, bu ince ayar büyük olasılıkla harici bir bulut altyapısı gerektirecektir. Gizli bir eğitim mimarisi, kuruluşun gizli ve özel verilerinin yanı sıra bu özel verilerle ayarlanan modelin korunmasına yardımcı olabilir.