Etkili AI Korkulukları Uygulama: Bir Siber Güvenlik Çerçevesi


Kuruluşlar AI çözümleri uygulamak için yarıştıkça, güvenlik liderleri hassas verileri korurken ilerlemeyi sağlama zorluğuyla karşı karşıyadır. 22 üniversite ortağına hizmet veren Grand Canyon Education (GCE), yakın zamanda binlerce öğrenci ve personel için bir AI Chatbot platformu kurarken bu ikilemle yüzleşti.

Bu uygulamadan öğrenilen dersler ve benzer yaklaşımların sektörlerdeki kuruluşlara nasıl fayda sağlayabileceği hakkında 25 yılı aşkın deneyime ve 260’tan fazla yayınlanmış patent olan bir siber güvenlik gazisi olan Sourabh Satish ile konuştuk. GCE’nin deneyiminden ve güvenlik mimarisindeki kapsamlı geçmişinden yararlanan Sourabh, büyümeyi boğmadan AI’yi güvence altına almak için bir çerçeve paylaşıyor.

Yapay zeka uygularken kuruluşların karşılaştığı benzersiz zorluklar nelerdir?

Özellikle eğitim, sağlık ve finans alanları kuruluşlar temel bir güvenlik paradoksuyla karşı karşıyadır. Ferpa, Hipaa ve diğerleri tarafından korunan kayıtlar da dahil olmak üzere, son derece hassas verileri aynı anda korurken yeniliği teşvik edecek kadar açık olmaları gerekir.

Kuruluşlar AI çözümleri uyguladıklarında, aslında geleneksel güvenlik modellerinde açıklanmayan yeni veri yolları oluştururlar. GCE, üniversite öğrencileri ve öğretim üyeleri için AI Chatbot platformlarını uygularken ilk elden karşılaştı. Güvenlik ekibleri, kullanıcıların potansiyel olarak arka uç sistemlerinde saklanabilecek veya gelecekteki modelleri eğitmek için kullanılabilecek kişisel olarak tanımlanabilir bilgileri veya hassas sağlık verilerini paylaşabileceğini fark etti.

Zorluk daha da karmaşık hale geliyor, çünkü bu kurumlar genellikle sınırlı güvenlik kaynaklarıyla çalışır, ancak sofistike tehditlerle karşı karşıyadır. Kullanıcı deneyimini veya teknolojik ilerlemeyi engellemeden binlerce kullanıcıyı ölçeklendirebilen güvenlik çözümlerine ihtiyaç duyarlar.

AI dağıtırken eğitim ve diğer hassas endüstrilerdeki hangi güvenlik riskleri en çok endişe duymalıdır?

Birincil endişe, “kasıtsız veri sızıntısı” dediğim şeydir – kullanıcılar aşağı akış sonuçlarını fark etmeden hassas bilgileri bir AI sistemiyle paylaştıklarında. Veri yollarının iyi tanımlandığı geleneksel uygulamaların aksine, AI sistemleri, bilgileri hemen şeffaf olmayan şekilde yutan, işleyen ve potansiyel olarak depolayan kara kutular olabilir.

Ayrıca, kötü niyetli aktörlerin AI sistemlerini erişmemeleri gereken bilgileri ortaya çıkarmaya çalıştırmaya çalışabileceği hızlı enjeksiyon saldırıları riski de vardır. Ve AI sistemlerinin uygun şekilde güvence altına alınmadığı takdirde zararlı veya yanıltıcı içerik üretme olasılığını unutamayız.

Kuruluşlar, hem bu AI sistemlerine girdiyi – kullanıcıların paylaştıkları – hem de çıktı – yanıt olarak ne ürettiğini düşünmelidir.

Kurumlar, teknolojinin benimsenmesi ve erişilebilirliği ihtiyacı ile güvenliği nasıl dengeleyebilir?

Dönüşlü bir güvenlik yanıtı her şeyi kilitlemek olabilir, ancak bu yaklaşım işe yaramaz. Güvenlik çok kısıtlayıcı hale gelirse, kullanıcılar geçici çözümler bulacaklar – bunun yerine onaylanmamış tüketici AI araçlarını kullanacaklar ve daha da büyük bir gölge BT sorunu oluşturacaklar.

Anahtar, “sürtünmesiz güvenlik” dediğim şeyi uygulamak – kullanıcılar orada olduklarını bile bilmeden arka planda çalışan koruma mekanizmaları. Bunu, harici AI modellerine ulaşmadan önce hassas verileri yakalayan ancak meşru kullanımları engellemeyen görünmez bir güvenlik ağı olarak düşünün.

API odaklı güvenlik yaklaşımları burada özellikle iyi çalışıyor. Kuruluşlar, AI benimsemesini kısıtlamak yerine, kullanıcı istemlerinden ve yüklenen dosyaları harici AI modellerine ulaşmadan önce gerçek zamanlı olarak otomatik olarak düzelten güvenlik çözümleri uygulayabilir. Mike Manrod, GCE’de Ciso’nun açıkladığı gibi: “Pangea’nın yapmamıza izin verdiği şey, bu istemlere müdahale etmek ve mantığı uygulamaktır. İstem, Openai veya antropik gibi bir API’ye gitmek istemediğimiz bir şey için bir veri kuralını ihlal ederse, herhangi bir kullanıcı etkisi veya kullanıcı deneyimi değişimi olmadan makine hızında redaksiyon uygularız.”

Riske dayalı bir yaklaşım benimsemek de çok önemlidir. Tüm AI etkileşimleri aynı risk seviyesini taşımaz. Kafeterya saatlerini soran bir öğrencinin, araştırma verilerini yükleyen bir öğretim üyesiyle aynı güvenlik kontrollerine ihtiyaç duymaz.

AI uygulamalarını güvence altına alırken güvenlik ekipleri hangi teknik özellikleri aramalıdır?

Güvenlik ekiplerinin AI güvenlik korkulukları uygularken birkaç önemli özelliğe ihtiyacı vardır.

İçerik redaksiyonu gerçek zamanlı olarak temeldir-teknoloji, harici AI modellerine ulaşmadan önce hassas bilgileri istemlerden tanımlamalı ve kaldırmalıdır. Etkili bir çözüm, belirgin gecikmeler getirmeden öğrenci kimlikleri, sağlık bilgileri, finansal detaylar ve diğer PII gibi çeşitli veri türlerini tanımalıdır.

Ayrıca, daha fazla AI sistemleri belge yüklemelerini kabul ettiği için dosya dezenfekârlık yetenekleri gerekli hale gelir. Güvenlik katmanı, işlenmeden önce hassas meta veri ve içerik belgelerini taramalı ve temizlemeli ve ekli dosyalar aracılığıyla veri sızıntısını önlemelidir. GCE, güvenlik yaklaşımlarını bu prensip etrafında oluşturdu ve hem konuşma metnini hem de yüklemeleri AI platformlarına yöneltebilecek korkuluklar aradı.

Özelleştirilebilir ilke kontrolleri, güvenlik ekiplerinin hassas bilgileri belirli bağlamlarında neyin oluşturduğunu tanımlamasına olanak tanır. Bu çok önemlidir, çünkü kuruluşlar genellikle jenerik çözümlerin kaçırabileceği benzersiz tanımlayıcılara ve veri yapılarına sahiptir.

Performans tehlikeye giremez – herhangi bir güvenlik katmanı, kesintisiz bir kullanıcı deneyimini sürdürmek için minimal gecikme eklemelidir. Güvenlik göze çarpan gecikmeler getirdiğinde, kullanıcının benimsenmesi kaçınılmaz olarak acı çeker ve geçici çözümler için teşvikler yaratır. GCE için, bu performans gereksinimi, öğrenci ve fakülte deneyimlerini etkileyebilecek gecikme getirmeden hızlı bir şekilde konuşlandırılmaları gerektiğinden gerekliydi.

Kapsamlı günlüğü ve görünürlük bu gereksinimleri tamamlayarak uyumluluk için gereken denetim yollarını sağlar. Güvenlik ekipleri, hassas verilerin kendisi mutlaka ortaya çıkarmadan, ne tür hassas bilgilerin yakalandığına ve düzeltildiğine dair açık bilgiler gerektirir.

Güvenli bir AI çerçevesinin temelleri nelerdir?

Dört aşamalı bir yaklaşım öneriyorum:

Değerlendirme: Gölge IT dahil olmak üzere AI sistemlerinin zaten kullanımda olan kataloglayarak başlayın. Bu sistemlerden hangi verilerin aktığını ve hassas bilgilerin nerede olduğunu anlayın.

Politika geliştirme: Ne tür bilgilerin asla AI sistemleriyle paylaşılmaması ve hangi önlemlerin yerinde olması gerektiği konusunda net politikalar oluşturun. Akademik, idari ve yönetici paydaşlarından satın alın.

Teknik uygulama: Riske dayalı uygun güvenlik kontrollerini dağıtın. Bu, API tabanlı redaksiyon hizmetleri, kimlik doğrulama mekanizmaları ve izleme araçlarını içerebilir. GCE güvenlik ekibi başlangıçta kendi redaksiyon çözümünü oluşturmayı düşündü, ancak bunun AI girişimlerini önemli ölçüde geciktireceğini fark etti. Bunun yerine, güvenlik gereksinimlerini karşılarken hızlı bir şekilde uygulanabilecek API tabanlı bir çözüm belirlediler.

Eğitim ve farkındalık: Belki de en önemlisi, kullanıcıları AI güvenliği konusunda eğitin. Hangi bilgilerin paylaşılması uygun olduğunu ve AI sistemlerinin nasıl güvenli bir şekilde kullanılacağını anlamalarına yardımcı olun.

Yüksek riskli kullanım durumları-belki de hassas kayıtları veya araştırma verilerini ele alan-ve oradan genişleyen durumlarla başlayın. Bunun yinelemeli bir süreç olduğunu unutmayın; Yapay zeka yetenekleri geliştikçe, güvenlik önlemleri de gelişmelidir. En başarılı uygulamalar, istenen sonuçları elde etmek için birlikte çalışabilen güvenlik ekipleri, geliştiriciler ve paydaşlar arasındaki yakın işbirliğinden gelir.

İleriye baktığımızda, kuruluşlar hangi ortaya çıkan AI güvenlik zorluklarına hazırlanmalı?

AI’nın neredeyse her süreçte giderek daha fazla gömüldüğü büyüleyici bir döneme giriyoruz. Birkaç zorluk ortaya çıkıyor:

Birincisi, üretken AI ve geleneksel uygulamalar arasındaki çizgi bulanıklaşıyor. AI özellikleri bilgi sistemlerinden öğrenme yönetim platformlarına kadar her şeye entegre edilmektedir. Bu, güvenliğin sonradan düşünülmüş olarak cıvatalanamayacağı anlamına gelir – bu uygulamaların dokusuna dokunması gerekir.

İkincisi, görüntü, ses ve video işleyen multimodal AI yeni güvenlik boyutları oluşturur. Kuruluşların hassas bilgilerin bu formatlarda nasıl korunacağını düşünmeleri gerekecektir.

Üçüncüsü, AI çevresindeki düzenleyici manzara hızla gelişmektedir. Kuruluşlar, özellikle AI kullanımını ve veri korumasını ele alan yeni uyumluluk gereksinimlerine hazırlanmalıdır.

Son olarak, AI hizalamasının zorluğu var – AI sistemlerinin örgütsel değerlere ve hedeflere uygun hareket etmesini sağlamak. Bu geleneksel güvenliğin ötesine geçer, ancak güveni korumak için eşit derecede önemlidir.

GCE’nin uygulaması, API odaklı SaaS Microservice Mimarisinin, AI platformları geliştikçe zaman içinde güvenlik politikalarını nasıl uyarlama esnekliği sağladığını göstermektedir. Ekipleri, bu yaklaşımla, redaksiyon politikası değişikliklerinin geliştirici sprint döngülerini gerektirmediğini takdir etti – güvenlik ekipleri politikaları doğrudan bir yönetim konsolu aracılığıyla güncelleyebilir ve güvenlik değişikliklerini uygulamak için gereken süreyi önemli ölçüde azaltabilir.

Bu yeni manzarada gelişecek kuruluşlar, AI güvenliğini ilerlemeye engel olarak değil, bir kolaylaştırıcı olarak gören kuruluşlardır – AI’yi güvenle ve sorumlu bir şekilde dağıtmalarına izin veren bir temel.

Yazar hakkında

Etkili AI Korkulukları Uygulama: Bir Siber Güvenlik ÇerçevesiSourabh Satish, 260’dan fazla patent ve ek patent beklemede olan 260’dan fazla patent ve ek patent ile 25+ yıllık çığır açan güvenlik ürünleri ve teknolojileri tasarlama ve inşa etme sicili ile Pangea’nın CTO ve kurucu ortağıdır. Sourabh en son 2018’de Splunk tarafından satın alınan Phantom Cyber’in CTO’su olarak kuruldu ve görev yaptı ve daha önce Symantec’te seçkin bir mühendis olarak görev yaptı.

Grand Canyon Education ile tüm vaka çalışmasını buradan okuyun: https://pagea.cloud/case-studies/grand-canyan-emucation/

Sourabh’a LinkedIn’de ve https://pangea.cloud/ adresinden ulaşılabilir.



Source link