Yapay Zeka Risk Politikası Belirlemenin Zor Gerçekleri



BLACK HAT USA – Las Vegas – 10 Ağustos Perşembe – İşte yapay zeka risk yönetimi için bazı iyi haberler: Siber güvenlik, veri bilimi ve makine öğrenimi (ML) savunucularının yıllarca süren uyarılarından sonra, CISO’lar nihayet dikkate alıyor. Bu, siber güvenlik uzmanlarının yapay zekayı çevreleyen çok katmanlı risklere uyandığı yıl.

Şimdi zor kısım, sırada ne olduğunu bulmak. CISO’ların, yöneticilerin, yönetim kurulunun ve AI/ML geliştiricilerinin makul risk yönetimi politikaları belirlemek ve uygulamak için atması gereken önemli adımlar nelerdir?

Black Hat USA’daki pek çok katılımcının sorduğu büyük soru bu ve bu yılki konferansta bir dizi brifing ve açılış konuşmasında yolunu buldu.

ortak yazarı olarak Bir Hatayla Değil, Bir Etiketle: Makine Öğrenimi Sistemlerine Yapılan Saldırılar ve Bunlara Karşı Yapılması Gerekenler — diğer ortak yazar Ram Shankar Siva Kumar — Hyrum Anderson, üretken bir yapay zeka güvenlik araştırmacısı ve yapay zeka riski ve dirençlilik sorunlarına ilişkin farkındalığı artırma konusunda sözlü bir savunucudur. Black Hat’ta podyumda ve koridorlarda yapılan tartışmaların, yılın başlarında RSA Konferansı’nda gördüklerinin bir devamı olduğuna inanıyor. Bu sorunlar henüz çözülmeye yakın olmasa bile, bu konuşmaların sonunda gerçekleştiği için mutlu.

Anderson, “Bir yıl önce, Ram ve ben CISO’lara yapay zeka riskleri hakkında bizi dinlemeleri için bağırıyorduk. İnsanlar bize bunun bilim kurgu olduğunu ve yazılım tedarik zinciri, SolarWinds ve diğer her şey hakkında daha çok endişe duyduklarını söylerdi” diyor. Robust Intelligence’ta seçkin bir makine öğrenimi mühendisi. “Şimdi, işler büyük ölçüde değişti. [RSAC] AI güvenliği gelmiş gibi hissettirdi. Ve Black Hat’a geldiğimizde konuyla ilgili çok fazla heyecan var.”

Konferans, Black Hat ve DEF CON’nin kurucusu Jeff Moss ile Azeria Labs’tan Maria Markstedter’in ana notları ve yorumlarıyla başladı. Bu yılki şovda, üretken yapay zekadaki onları uzlaşmaya ve manipülasyona eğilimli hale getiren kusurlar, yapay zeka ile geliştirilmiş sosyal mühendislik saldırıları ve yapay zeka eğitim verilerinin ne kadar kolay olduğu dahil olmak üzere yapay zeka sistemlerinin kullanımından kaynaklanan yeni tehditleri ortaya çıkaran araştırmalar hakkında önemli brifingler yer alıyor. kendisine bağlı olan makine öğrenimi modellerinin güvenilirliğini etkilemek için zehirlenebilir. İkincisi, bugün Nvidia’nın AI kırmızı takım lideri Will Pearce tarafından sunulan, Anderson’ın işbirlikçi olduğu araştırmayı içeriyor. Çalışmanın, eğitim verilerinin çoğunun manipüle edilmesi kolay çevrimiçi kaynaklardan alındığını gösterdiğini söylüyor.

“Önemli nokta, 60 $ karşılığında herhangi bir sonuç modelini zehirlemeye yetecek kadar veriyi kontrol edebilmemizdir” diyor.

Anderson ise, Black Hat’ta yapay zeka sistemlerindeki güvenlik açıklarından kaynaklanan risklerin keşfedilmesi ve ölçülmesiyle ilgili en zorlu teknik zorluklardan bazılarının üstesinden geliyor. Bu hafta, Black Hat Arsenal’deki zamanını MITRE ve Indiana Üniversitesi’nden işbirlikçilerle yeni açık kaynaklı AI Risk Veritabanını açıklayarak geçiriyor.

Peki yapay zeka risk politikasıyla ilgili kilit sorulardan ne haber?

Bu, Anderson’ın kitabının ortak yazarı, Harvard Üniversitesi Berkman Klein İnternet ve Toplum Merkezi’nin üyesi ve UC Berkeley’de Tech Policy Fellow olan Siva Kumar’ın yetkisinde. Dün, York Üniversitesi Osgoode Hall Hukuk Fakültesi’nde doçent olan Jonathon Penney ile “Risks of AI Risk Policy: Five Lessons” oturumunda podyuma çıktı. NIST AI RMF ve AB AI Yasası taslağı gibi kamu-özel standartları ortaya çıktıkça Siva Kumar, işletmelerin belirli standartlara nasıl ve neden uydukları konusunda zorlu seçimlerle karşı karşıya kalacaklarını söyledi. Tüm standartların, çok karmaşık, hızla değişen bir yapay zeka ortamı için erken yönergelerle yolu açmak için ellerinden gelenin en iyisini yapan “çok akıllı insanlar” tarafından oluşturulduğunu vurguladı. Onun ve Penney’nin konuşmasının özü, bugün yapay zeka risk yönetimi politikasına bağlılığın beş ana gerçeği etrafında dönüyordu.

1.Yapay Zeka Sistemleri Riskin Tek, Birleştirilmiş Bir Standart Tarafından Yönetilemeyecek Kadar Karmaşıktır

Siva Kumar, “Hyrum ile kitabın ana hatlarını çizdiğim gibi, ‘Hey, hadi bir standart çıkaralım ve herkesin ona uymasını sağlayalım,’ kadar basit değil,” dedi Siva Kumar, bir Underwriter Labs’ın yapay zeka eşdeğerini bulduğunu açıklayarak ( Elektronik için kullanılan UL) güvenlik derecesinin geliştirilmesi, örneğin bir tost makinesi için olduğu kadar kolay değildir. “Anlaşılması gereken ilk şey, bu AI sistemlerinin teknik gerçekliğinin, yalnızca bir standarda bağlı kalamayacak kadar karmaşık olmalarıdır.”

2. Yapay Zeka Standartlarını Mühendislerin Ayrıştırması Zor

CISO’ların akılda tutması gereken ikinci şey, bu politikaların teknik açıdan hala çok belirsiz olduğu, bu nedenle bunları uygulamak, metni mühendislik ekibine teslim edip bir listeyi takip etmelerini beklemek meselesi olmayacak. İlk günlerde PCI uyumluluğunun zor olduğunu düşündüyseniz, bu konuda hiçbir anlamı yok.

“Mühendisler, bu AI standartlarını ayrıştırmayı oldukça zor buluyor” dedi.

3. Yapay Zeka Risk Politikalarını Belirlerken Büyük Teknik Dengeler Bekleyin

Odadaki tüm bu akıllı insanların anlamaya çalıştığı yapay zeka politikası geliştirmenin zor kısımlarından biri – ve muhtemelen bu nedenle kılavuzlarda hala teknik belirsizlik var – söz konusu olduğunda bir ton çok dramatik teknik değiş tokuşun olması. AI’da güvenlik ve dayanıklılık önlemlerinin oluşturulması.

Siva Kumar, “Günün sonunda bedava öğle yemeği yok,” dedi ve mevcut rakip makine öğrenimi araştırmasının, sağlamlık ve önyargı gibi iki temel faktörün bile bir sallanmanın iki ucunda oturabileceğini gösterdiğine dikkat çekti. Bir sistemdeki sağlamlığı artırırsanız sistemin yapay zeka yanlılığını potansiyel olarak etkileyebilirsiniz — hatta bazı araştırmalar, sağlamlığı artırmaya yönelik bazı önlemlerin tüm veri sınıflarına aynı güvenlik oranında kolayca uygulanamayabileceğini bile gösterir. “Güvenlik ile yapay zekanın diğer istenen özellikleri arasında gerçekten bir gerilim var.”

4. “İyi” Yapay Zeka Risk Yönetimine Ulaşmada Çıkarlar Çatışacak

Kuruluşlar, yapay zeka hedefleri ve onlar için en önemli riskler konusunda sağlam bir liderliğe ve güçlü bir kuzey yıldızına ihtiyaç duyacak çünkü teknik takaslar nedeniyle, “yapay zeka risk yönetimi çözümlerinin nasıl çerçevelendirildiğini çarpıtan” birçok rekabet eden çıkar olacak. satıldı ve geliştirildi,” dedi Siva Kumar.

5. Yapay Zeka Risk Politikasını Uygulamada Kuruluş Kültürü Anahtardır

Güvenlik liderlerinin ve daha geniş yönetici grubunun akılda tutması gereken en önemli şeylerden biri, yapay zeka risk yönetiminin bir uyum çalışması olmayacağıdır. Bu politikaların hiçbiri sihirli bir değnek değildir ve günün sonunda kurumsal kültür, yapay zeka risk kararlarını nasıl aldıkları konusunda daha işbirlikçi ve kararlı hale gelmek zorunda kalacak.

“Bütün bu yaptırımlara, bu Yasalara ve düzenlemelere sahip olabilirsiniz, ancak organizasyon kültürü gerçekten değişmez veya uyum sağlamazsa ve yaptıklarını yapmaya devam ederlerse, tüm bunlar evrak işlerinde harika bir alıştırma olacak” dedi. .



Source link