Sıfır Güven, Sistemleri Üretken Yapay Zeka Temsilcilerine Karşı Nasıl Koruyabilir?



Panelistler geçen hafta bir teknoloji konferansında, üretken AI araçlarının sistemlere sızmak için zaten kullanıldığını ve hasarın daha da kötüleşeceğini söyledi. Ancak standart sıfır güven uygulamalarıyla geliştirilmiş aynı araçlar, bu tür saldırılara karşı koyabilir.

“Üretken yapay zekanın, farkında olmadan bir ortağın bir bağlantıya tıklama olasılığını artıracak içerik üretmek için kullanıldığını kesinlikle görüyoruz… [and] DARPA’nın Bilgi İnovasyon Ofisi direktörü Kathleen Fisher, bu ayın başlarında Nvidia’nın GPU Teknoloji Konferansı’ndaki ara oturumunda, sisteme erişim vermek zorunda kalmamaları gereken bir şey yapıyorlar” dedi.

AI altyapısının büyük bir kısmı Nvidia’nın GPU’ları üzerine inşa edildi, bu nedenle şirketin sanal geliştirici konferansı, AI geliştirme ve tekniklerini tartışmak için bir su birikintisi haline geldi. Şovun odak noktası, AI taleplerine hızlı ve etik yanıtlar sağlamaktır.

Nvidia CEO’su Jensen Huang, ChatGPT’nin Kasım 2022’deki tanıtımının AI için “iPhone anı” olduğunu ilan etti. Bununla birlikte, üretici yapay zekanın kötü amaçlı yazılım yazmak, ikna edici iş e-postası gizliliği (BEC) mesajları oluşturmak ve derin sahte video ve ses oluşturmak için kullanılmasıyla ilgili endişeler de var.

“Bence bu tür saldırıların buzdağının sadece görünen kısmını görüyoruz. Ancak bu yeteneğin kullanımının ne kadar kolay olduğu ve bugünlerde yalnızca bir hizmet olarak sunulduğu göz önüne alındığında, gelecekte bundan çok daha fazlasını göreceğiz. dedi Fischer.

Yapay Zeka Sıfır Güveni Hak Ediyor

Belki de en iyi bilinen üretken AI sistemi, OpenAI’nin kullanıcı sorgularına tutarlı yanıtlar üretmek için AI kullanan bir OpenAI sohbet robotu olan ChatGPT’dir. Rapor yazabilir ve kod üretebilir. Diğer öne çıkan çabalar arasında Microsoft’un BingGPT’si (ChatGPT’ye dayalıdır) ve Google’ın Bard’ı bulunmaktadır.

Deloitte Ulusal Güvenlik ve Savunma için Yapay Zeka İnovasyonu genel müdürü Kim Crider, kuruluşların ChatGPT’yi ve rakiplerini denemeye istekli olduğunu, ancak yapay zekanın genel saldırı yüzeylerini ve bilgisayar korsanlarının içeri girme fırsatlarını genişlettiği için siber güvenlik ekiplerinin kayıtsız kalmaması gerektiğini söyledi. panel sırasında.

“Yapay zekamıza ‘savunmasız, zaten bize karşı sömürülme potansiyeli var’ perspektifinden yaklaşmalıyız” dedi.

Şirketlerin yapay zeka modellerine ve modelleri eğitmek için kullanılan verilere sıfır güven yaklaşımı benimsemesi gerekir. Crider, kötü verilerin bir AI modeline beslenebileceği ve bunun da bir sistemin güvenilmez bir şekilde çalışmasına yol açabileceği, model kayması adı verilen bir kavramdan bahsetti.

Crider, sıfır güven yaklaşımının, yapay zeka modellerinin kullanıma alınmadan önce ve sonra sürekli olarak doğrulanması ve doğrulanması için yatırımların, sistemlerin ve personelin devreye alınmasına yardımcı olacağını söyledi.

Savunma Bakanlığı’nın AI Savunmaları

DARPA, dijital savunmasını geliştirmek için yapay zeka siber aracılarını test ediyor. Güvenlik Testi ve Öğrenme Ortamları için Siber Ajanlar (CASTLE) programı, sistemleri kötü niyetli bir “kırmızı” ajana karşı korumak için “mavi” bir savunma ajanını simüle eder. Mavi aracı, bir saldırı düzenlemek için kullanılan etki alanı cephesiyle ilişkili bir İnternet adresi gibi belirli bir kaynaktan erişimi kapatmak gibi eylemler gerçekleştirir.

Fisher, “Teknoloji takviyeli öğrenmeyi kullanıyor, bu nedenle sistemi nasıl koruyacağını öğrenen mavi bir aracınız var ve bunun ödülü, sistemin göreve hazır olma durumunu sürdürmektir” dedi.

Başka bir savunma programı olan Cyber-Hunting at Scale (CHASE), DoD’nin BT altyapısındaki güvenlik açıklarını izlemeye yardımcı olmak için telemetri, veri günlükleri ve diğer kaynaklardan gelen bilgileri analiz etmek için makine öğrenimini kullanır. Geriye dönük bir deneyde CHASE, standart teknikten yaklaşık 21 gün önce 13 güvenlik olayı buldu.

Fisher, “Daha sonra tehditleri gerçekten çok daha hızlı bir şekilde tanımlayabilen diğer makine öğrenimi algoritmalarına beslediği veri yönetimi konusunda çok akıllıydı” dedi.

Son olarak Fisher, yapay zeka sistemlerinin etkinliğini potansiyel olarak etkileyebilecek veri zehirlenmesini önlemek için makine öğrenimini kullanan Aldatmaya Karşı Yapay Zeka Sağlamlığını Garanti Etme (GUARD) hakkında konuştu.

Yapay Zeka Tabanlı Siber Güvenliğin Sivil Kullanımı

Panelistler ayrıca, sistemlerin güvenli olduğundan emin olmak için kimlik avını en aza indirmek için güvenlik tatbikatları yapmak gibi standart güvenlik yaklaşımlarını birden çok güvenlik katmanıyla tamamlamayı önerdiler.

Bazı AI tabanlı savunma araçları ticari pazara giriyor. Microsoft, güvenlik ekiplerinin dahili ağları aktif bir şekilde izleyerek ve Microsoft’un mevcut güvenlik bilgi tabanıyla karşılaştırarak tehditleri öncelik sırasına koymasına yardımcı olabilecek bir yapay zeka asistanı olan Security Copilot’u tanıttı.

Microsoft, tüm AI işlemlerini Nvidia’nın GPU’larında yürütür. Bu kısmen, sistem günlüklerini ve kullanıcı oturum açma modellerini analiz ederek tehditleri ve anormal etkinlikleri teşhis edebilen Nvidia’nın yapay zeka tabanlı güvenlik algoritması Morpheus’tan yararlanmak içindir.

AI birçok fayda sağlar, ancak güvenlik için direksiyonda bir insan olması gerekir, dedi Fisher, bir arabanın AI sisteminde bir şeyler ters giderse bir insanın devralmaya hazır olduğu otonom bir araba örneğini vererek.

Fisher, “Bir bakıma, siber silahlara karşı insanlardan daha hızlı savunma yapabilen bu daha gelişmiş ajanları beklerken siber sistemi iyileştirmek için şu anda neler yapabileceğimiz açısından bu, insanların psikolojisini ciddiye alıyor” dedi. klavyelerde olabilir.

Deloitte’den Crider, “2023’ün üretken AI alanında önemli bir dönüm noktası olacağını düşünüyorum” dedi. “Beni çok korkutuyor.”



Source link