AI ile AI ile Savaşın



Çarşamba günü, danışmanlık devinin inkübatörü KPMG Studios, yapay zeka uygulamalarını ve modellerini güvence altına almak için bir girişim olan Cranium’u piyasaya sürdü. Cranium’un “uçtan uca yapay zeka güvenlik ve güven platformu”, MLOps (makine öğrenimi operasyonları) ve siber güvenlik olmak üzere iki alanı birleştirir ve yapay zeka güvenliği ve tedarik zinciri risklerine görünürlük sağlar.

Eski KPMG ortağı ve Cranium’un kurucusu ve CEO’su Jonathan Dambrot, “Temel olarak, veri bilimcileri yapay zekanın siber güvenlik risklerini anlamıyor ve siber profesyoneller de veri bilimini teknolojideki diğer konuları anladıkları şekilde anlamıyor” diyor. Geliştirme ekipleri ile siber güvenlik personeli arasında sıklıkla var olan boşluğa benzer şekilde, veri bilimcileri ve siber güvenlik uzmanları arasında geniş bir anlayış uçurumu olduğunu söylüyor.

Şirket, Cranium ile önemli AI yaşam döngüsü paydaşlarının görünürlüğü ve işbirliğini geliştirmek için ekipler arasında ortak bir çalışma resmine sahip olacağını söylüyor. Platform, yapay zeka yaşam döngüsü boyunca yer alan ilişkili varlıklar da dahil olmak üzere hem geliştirme aşamasındaki hem de dağıtılan yapay zeka ardışık düzenlerini yakalar. Cranium, kuruluşun yapay zeka güvenlik riskini ölçer ve sürekli izleme sağlar. Müşteriler, veri bilimi ve güvenlik ekiplerine proaktif ve bütünsel bir yapay zeka güvenlik programı oluşturmak için bir temel sağlayan bir yapay zeka güvenlik çerçevesi oluşturabilecek.

Cranium, verileri ve sistemleri güvende tutmak için yapay zeka boru hatlarını eşler, güvenliklerini doğrular ve rakip tehditleri izler. Şirket, teknolojinin mevcut ortamlarla bütünleşerek kuruluşların yapay zeka modellerini iş akışını değiştirmeden test etmesine, eğitmesine ve dağıtmasına olanak tanıyor. Ek olarak, güvenlik ekipleri, AI sistemlerini korumak ve mevcut ABD ve AB düzenleyici standartlarına uymak için yazılımın yanı sıra Cranium’un oyun kitabını da kullanabilir.

Cranium’un piyasaya sürülmesiyle KPMG, rakip yapay zeka hakkında artan endişelerden yararlanıyor. Düşmanca yapay zeka, yanlış veya zararlı sonuçlar üretmek için kasıtlı olarak manipüle edilmiş veya saldırıya uğramış yapay zeka sistemlerini değiştirme pratiğini ifade eder. Örneğin, manipüle edilmiş otonom bir araç ciddi bir kazaya neden olabilir veya saldırıya uğrayan bir yüz tanıma sistemi, kişileri yanlış tanıyarak yanlış tutuklamalara yol açabilir. Bu saldırılar, kötü niyetli aktörler, güvenlik açıkları veya hatalar dahil olmak üzere çeşitli kaynaklardan gelebilir ve dezenformasyon yaymak, siber saldırılar gerçekleştirmek veya başka türde suçlar işlemek için kullanılabilir.

Yapay zeka uygulamalarını düşmanca yapay zeka saldırılarından korumaya çalışan tek şirket Cranium değil. HiddenLayer ve Picus gibi rakipler, halihazırda yapay zeka saldırılarını tespit edecek ve önleyecek araçlar üzerinde çalışıyor.

İnovasyon Fırsatları

Rakip yapay zeka risklerinin önümüzdeki yıllarda artması muhtemel olduğundan, bu alandaki girişimcilik fırsatları önemlidir. Yapay zeka alanındaki büyük oyuncuların (OpenAI, Google, Microsoft ve muhtemelen IBM) ürettikleri yapay zeka modellerini ve platformlarını korumaya odaklanmaları için de teşvik var.

İşletmeler yapay zeka çabalarını algılama ve önleme, çekişmeli eğitim, açıklanabilirlik ve şeffaflık veya saldırı sonrası kurtarma konularına odaklayabilir. Yazılım şirketleri, bir yapay zeka sistemini yanıltmak için kasıtlı olarak değiştirilmiş görüntüler veya metinler gibi rakip girdileri tespit etmek ve engellemek için araçlar ve teknikler geliştirebilir. Şirketler ayrıca bir yapay zeka sisteminin ne zaman anormal veya beklenmedik şekilde davrandığını tespit edecek teknikler geliştirebilir, bu bir saldırı belirtisi olabilir.

Rakip yapay zekaya karşı korunmaya yönelik başka bir yaklaşım, yapay zeka sistemlerini saldırılara karşı dirençli olacak şekilde “eğitmek”tir. Geliştiriciler, eğitim sürecinde bir AI sistemini rakip örneklere maruz bırakarak, sistemin gelecekte benzer saldırıları tanımayı ve bunlara karşı savunmayı öğrenmesine yardımcı olabilir. Yazılım şirketleri, rakip eğitim için yeni algoritmalar ve teknikler ve bu tekniklerin etkinliğini değerlendirecek araçlar geliştirebilir.

Yapay zeka ile bir sistemin kararlarını nasıl verdiğini anlamak zor olabilir. Bu şeffaflık eksikliği, düşman saldırılarını tespit etmeyi ve bunlara karşı savunmayı zorlaştırabilir. Yazılım şirketleri, AI sistemlerini daha açıklanabilir ve şeffaf hale getirmek için araçlar ve teknikler geliştirebilir, böylece geliştiriciler ve kullanıcılar sistemin kararlarını nasıl aldığını daha iyi anlayabilir ve olası güvenlik açıklarını belirleyebilir.

En iyi önleme teknikleri yürürlükte olsa bile, bir yapay zeka sisteminin hala ihlal edilmesi mümkündür. Bu durumlarda, saldırıdan kurtulmak ve sistemi güvenli ve işlevsel bir duruma geri yüklemek için araçlara ve tekniklere sahip olmak önemlidir. Yazılım şirketleri, sistemi “temiz” bir duruma geri yüklemek için tekniklerin yanı sıra, herhangi bir kötü amaçlı kodu veya girdiyi belirlemeye ve kaldırmaya yardımcı olacak araçlar geliştirebilir.

Ancak yapay zeka modellerini korumak zor olabilir. Saldırganlar sürekli olarak tekniklerini uyarlayıp geliştirebildikleri için yapay zeka güvenlik çözümlerinin etkinliğini test etmek ve doğrulamak zor olabilir. Yapay zeka güvenlik çözümlerinin kendilerinin yeni güvenlik açıkları ortaya çıkarabileceği istenmeyen sonuçların ortaya çıkma riski de vardır.

Genel olarak, rakip yapay zekanın riskleri önemlidir, ancak yazılım şirketlerinin bu alanda yenilik yapması için girişimcilik fırsatları da önemlidir. Yapay zeka sistemlerinin güvenliğini ve güvenilirliğini artırmanın yanı sıra, rakip yapay zekaya karşı koruma, kullanıcılar ve paydaşlar arasında yapay zekaya güven ve itimat oluşturmaya yardımcı olabilir. Bu da, sahada benimsenmeyi ve yeniliği teşvik etmeye yardımcı olabilir.



Source link