Makine öğrenimine yönelik gizliliği koruyan bir yaklaşımın ortaya çıkarılması


Veriye dayalı karar verme çağında işletmeler, değerli içgörülerin kilidini açmak, operasyonel verimlilik elde etmek ve rekabet avantajını sağlamlaştırmak için makine öğreniminin (ML) gücünden yararlanıyor.

Makine öğrenimi modelleri

Üretken yapay zekadaki (AI) son gelişmeler, AI/ML’nin gücü konusunda benzeri görülmemiş bir farkındalık yaratmış olsa da, aynı zamanda gizlilik ve güvenliğe yönelik temel ihtiyacı da aydınlattı. IAPP, Brookings ve Gartner’ın yeni AI TRiSM çerçevesi gibi gruplar, risk profillerini artırmadan yapay zeka yoluyla benzersiz bir şekilde elde edilebilen iş sonuçlarına ulaşmak isteyen kuruluşlar için önemli hususların ana hatlarını çizdi.

Bu zorunlulukların başında ML modelinin güvenliği geliyor. Bu önemli alana doğrudan hitap eden gizliliği koruyan makine öğrenimi, giderek önemi artan bu alanda kullanıcıların makine öğrenimi uygulamalarının tüm potansiyelinden faydalanmalarını sağlayacak bir yol olarak ortaya çıktı.

İçgörü oluşturmak için makine öğrenimini kullanma

Makine öğrenimi modelleri, anlamlı içgörüler oluşturmak ve kritik iş kararlarını bilgilendirmek için verileri işleyen algoritmalardır. ML’yi dikkat çekici kılan şey, sürekli öğrenme ve gelişme yeteneğidir. Bir model yeni ve farklı veri kümeleri üzerinde eğitildiğinde, zamanla daha akıllı hale gelir ve daha önce erişilemeyen, giderek daha doğru ve değerli bilgiler elde edilir. Bu modeller daha sonra model değerlendirmesi veya çıkarımı olarak adlandırılan verilerden içgörüler oluşturmak için kullanılabilir.

En iyi sonuçları elde etmek için modellerin öğrenmesi ve/veya çeşitli zengin veri kaynaklarından yararlanılması gerekir. Bu veri kaynakları hassas veya özel bilgiler içerdiğinde, bunların makine öğrenimi modeli eğitimi veya değerlendirmesi/çıkarımı için kullanılması, önemli gizlilik ve güvenlik endişelerini doğurur. Modelin herhangi bir güvenlik açığı, onu kullanan kuruluş için bir sorumluluk haline gelir; bu da, işi geliştiren, eyleme geçirilebilir bilgiler sunmayı vaat eden bu yeteneğin artık kuruluşun risk profilini artırdığı anlamına gelir.

Bu sorun, günümüzde makine öğreniminin daha geniş çapta kullanılmasını engelleyen ana engellerden biridir. İşletmeler, makine öğreniminin faydalarını kendi çıkarlarını koruma ve sürekli gelişen gizlilik ve düzenleme gerekliliklerine uyma ihtiyacıyla dengeleme konusunda zorluk yaşıyor.

ML modellerindeki güvenlik açıkları

ML modellerindeki güvenlik açıkları genellikle iki makro saldırı vektörü kategorisine yol açar: modelin tersine çevrilmesi ve model sahtekarlığı.

Modeli tersine çevirme saldırıları, modelin kendisini hedef alarak üzerinde eğitim aldığı verilere (büyük ihtimalle hassas ve dolayısıyla saldırgan için değerli olan verilere) tersine mühendislik yapmayı içerir. Bu, kişisel olarak tanımlanabilir bilgileri (PII), fikri mülkiyeti (IP) ve ifşa edilmesi durumunda kuruluşa zarar verebilecek diğer hassas veya düzenlenmiş bilgileri içerebilir.

Öte yandan, model sahtekarlığı, bir saldırganın, giriş verilerini, modelin saldırganın niyetlerine uygun olarak yanlış kararlar almasını sağlayacak şekilde manipüle ederek modeli aldatmaya çalıştığı bir rakip makine öğrenimi biçimini temsil eder. Bu süreç, modelin davranışını dikkatlice gözlemlemeyi veya “öğrenmeyi” ve ardından modeli hedeflerine avantajlı kararlar alması için kandırmak amacıyla girdi verilerini (çoğunlukla algılanamayacak bir şekilde) değiştirmeyi içerir. Bu saldırıların her ikisi de, makine öğrenimi modelinin önemli bir parçası olan model ağırlıklarıyla ilgili güvenlik açıklarını hedef alıyor. Bu nedenle, Beyaz Saray’ın yakın zamanda toplanan yapay zeka riskine ilişkin tartışmasında model ağırlık korumasına öncelik vermenin kritik ihtiyacı vurgulandı.

Gizliliği artıran teknolojilerin kullanılması

Gizliliği koruyan makine öğrenimi, bu güvenlik açıklarını doğrudan ele almak için gizliliği artıran teknolojilerdeki (PET’ler) ilerlemelerden yararlanır. PET’ler, verilerin gizliliğini ve güvenliğini işleme yaşam döngüsü boyunca koruyan ve geliştiren, güvenli ve özel veri kullanımına benzersiz bir şekilde olanak tanıyan bir teknoloji ailesidir. Bu güçlü teknolojiler, işletmelerin hassas makine öğrenimi modellerini şifrelemesine, çalıştırmasına ve/veya eğitmesine ve açığa çıkma riskini ortadan kaldırırken değerli bilgiler elde etmesine olanak tanır. İşletmeler, rekabet çıkarları söz konusu olduğunda bile kurumsal sınırlar ve güvenlik alanları dahil olmak üzere farklı veri kaynaklarından güvenli bir şekilde yararlanabilir.

PET ailesinin güvenli ve özel ML’yi mümkün kılan iki önemli direği, homomorfik şifreleme ve güvenli çok partili hesaplamadır (SMPC).

Homomorfik şifreleme, işletmelerin veriler üzerinde şifreli hesaplamalar yapmasına olanak tanıyan ve böylece arama veya analiz içeriğinin gizliliğini koruyan bir teknolojidir. ML modellerini homomorfik olarak şifreleyerek kuruluşlar, temeldeki model verilerini açığa çıkarmadan bunları hassas veri kaynakları üzerinde çalıştırabilir veya değerlendirebilir; böylece hassas veriler üzerinde eğitilen modellerin, güvenilir ortamlarının sınırları dışında da kullanılmasına olanak sağlanır.

Kuruluşlar, SMPC’yi kullanarak model geliştirme sürecini, eğitim için kullanılan verileri ve ilgili tarafların çıkarlarını ve niyetlerini koruyarak modelleri şifrelenmiş bir kapasitede eğitebilir. Modeller, açığa çıkma riski olmadan hassas veriler üzerinde işbirliği içinde eğitilebilir. Eğitim modellerine yönelik bu yaklaşım, makine öğrenimi modellerinin doğruluğunu ve etkinliğini artırmak için çeşitli veri kümelerinin kolektif gücünden yararlanırken gizliliği, güvenliği ve mahremiyeti sağlar.

Çözüm

İş faaliyetlerini geliştirmek için makine öğrenimine olan bağımlılığın artması geçici bir trend değil ve makine öğrenimi modelleriyle ilişkili önemli riskler de öyle. AI/ML’nin kuruluşa sunabileceği temel değer oluşturulduktan sonra güvenlik, risk ve yönetişimin oluşturulması ve enstrümantasyonu benimseme yolundaki bir sonraki adımdır.

PET’lerdeki gelişmeler ileriye dönük umut verici bir yol sağlıyor. Gizliliği koruyan makine öğrenimi, kuruluşların gizliliği korurken, düzenleyici direktiflere uyarken ve hassas verileri korurken makine öğreniminin tüm potansiyelini güvenli bir şekilde ortaya çıkarmasına benzersiz bir şekilde olanak tanır. Kuruluşlar, bu ileriye dönük güvenlik yaklaşımını benimseyerek veri odaklı ortamda güvenle gezinebilir, müşterilerin ve paydaşların güvenini korurken değerli içgörülerden yararlanabilir.



Source link