İki aydan kısa bir sürede 100 milyon kullanıcı kazanan ChatGPT’nin kamuoyuna tanıtılmasının üzerinden 18 aydan az bir süre geçti. Bu kadar ilgiye bakınca, işletmelerin üretken AI’yı benimsemesinin önemli olmasını beklerdiniz, ancak birçok kişinin beklediğinden daha yavaş oldu. Telstra ve MIT Review tarafından yakın zamanda yapılan bir anket, işletmelerin %75’inin geçen yıl GenAI’yı test ettiğini, ancak yalnızca %9’unun bunu yaygın olarak kullandığını gösterdi. Birincil engel? Veri gizliliği ve uyumluluk.
Bu doğru geliyor; 2024’ün ilk yarısında 100’e yakın kurumsal CISO ile görüştüm ve temel endişeleri, çalışanların yapay zeka kullanımına ilişkin görünürlüğün nasıl sağlanacağı, kabul edilebilir yapay zeka kullanımıyla ilgili kurumsal politikaların nasıl uygulanacağı ve müşteri verilerinin, fikri mülkiyetin ve diğer gizli bilgilerin kaybının nasıl önleneceğiydi.
Modellerin kendilerini korumak için çok fazla çaba sarf edildi, bu çözülmesi gereken gerçek bir sorun. Ancak modellerin etrafındaki ve arasındaki kullanıcı etkinliğini koruma sorunu, gizlilik ve uyumluluk için potansiyel olarak daha büyük bir sorun teşkil ediyor. Model güvenliği önyargıyı, model kaymasını, zehirlenmeyi vb. önlemeye odaklanırken, modellerin kullanıcı etkinliğini korumak görünürlük ve kontrolün yanı sıra veri ve kullanıcı korumasına odaklanır.
Modeller arasında kullanıcı etkinliğini koruma
Peki, görünürlük ve kontrol elde etmek için neye ihtiyacınız var? Dahili modeller etrafındaki kullanıcı etkinliğinin görünürlüğü yönetilebilir bir sorundur. Günümüzde, çoğu kuruluş çok az LLM kurmuştur ve çalışanların bunlara erişimi sınırlıdır. Harici olarak barındırılan AI ve AI destekli hedeflere görünürlük elde etmek çok daha zordur.
Hem dahili hem de harici kullanıcı etkinliğinin tam görünürlüğünü elde etmek için şunları yapmalısınız:
a) Tüm giden erişimi yakalayın
b) Bunun bir mantığını çıkarın
Örneğin, bu çalışan tam olarak neye erişiyor, nerede barındırılıyor, verilerini nerede saklıyor ve… kullanımı güvenli mi? Elbette, bu yalnızca hedefi tanımlar. Sonra, oradaki tüm çalışan etkinliğini yakalamanız ve analiz etmeniz gerekir. Hangi istemleri giriyorlar ve bu uygun mu? Nasıl bir yanıt alıyorlar ve bu uygun mu? İlk sürüm ile 100 milyon kullanıcı sınırı arasındaki iki ay boyunca ChatGPT, çok sayıda kurumsal çalışan erişimi aldı. Kaynak kodu, finansal planlar, pazarlama kampanyaları ve çok daha fazlası, çalışanlar bu yeni teknolojiyi test ederken yüklendi. Çok az CISO, neyin gönderildiğini ve neyin hala gönderildiğini tam olarak anladıklarından emin görünüyor.
İyi görünürlük olsa bile, çalışan etkinliğini politika aracılığıyla kontrol etmek kolay değildir. Uygulama mekanizması nerede bulunur? Bir uç nokta aracısında mı? Bir proxy’de mi? Ağ geçidinde mi? Bulutta mı?
Yapay zeka kabul edilebilir kullanım politikası nasıl ifade edilir? Bir yapay zeka veri erişim politikasını düşünün: bir hukuk veya danışmanlık firması, müşteri A’dan gelen LLM verilerinin müşteri B için yanıtlar üretmek amacıyla kullanılamayacağını gerektirebilir. Bir halka açık şirketin genel danışmanı bir yapay zeka konu erişim politikası isteyebilir: finans dışındaki ve VP seviyesinin altındaki çalışanlar kazanç bilgileri hakkında soru soramaz. Baş gizlilik görevlisi bir yapay zeka niyet politikası isteyebilir: bir sözleşme yazmak için harici GenAI kullanıyorsanız, istem gönderilmeden önce tüm PII’leri sansürleyin.
Çalışanların AI kullanımına ilişkin görünürlük ve kontrol elde etme
Üretken AI’yı kullanarak on sekiz aylık deneyimle, işletmeler kullanıcı etkinliğinin görünürlüğünü ve kontrolünü elde etmek için neyin gerekli olduğunu öğrenmeye başladı. İster oluşturun ister satın alın, bir çözümün belirli işlevleri yerine getirmesi gerekecektir:
- Hedef veritabanını oluşturun: Öncelikle, GenAI hedeflerinin (yani gömülü AI’lı etki alanları ve uygulamalar) bir veritabanını oluşturmanız ve sürdürmeniz gerekir. Bu olmadan, DNS’e dayalı olarak erişimi engellemek veya izin vermekten çok daha fazlasını yapamazsınız.
- İstediğiniz hedefleri yakalayın: Sonra, çalışanların erişmeye çalıştığı gerçek etki alanlarına ihtiyacınız olacak. DNS etkinliğini yakalamak için birden fazla seçenek vardır: uç noktadan (yani, aracı), güvenlik duvarından, proxy’den, CASB’den, vb.
- Katalog güncel etkinliği: Görünürlük elde etmek için, çalışan aktivitesini hedef veritabanına sürekli olarak eşlemeniz ve çalışan aktivitesi kataloğu oluşturmanız gerekir; özellikle, çalışanlarınız AI’ya göre nereye gidiyor? Temel sürüm, yalnızca hangi AI modellerine, sohbet robotlarına vb. çalışanların eriştiğine ilişkin görünürlük sağlamak için sonradan gerçekleşebilir. Daha gelişmiş bir sürüm, bu hedeflerin risk analizini ekleyebilir.
- Konuşmayı yakalayın: Elbette görünürlük yalnızca hedefleri değil, bu AI hedeflerine giren ve çıkan gerçek istemleri, verileri ve yanıtları da içerir. Bunları yakalamak ve ek risk analizi uygulamak isteyeceksiniz.
- Etkin yaptırımı uygulayın: Yukarıdaki tüm görünürlük yetenekleri olaydan sonra gerçekleşebilir. Kabul edilebilir kullanım politikalarını harici AI sistemlerine uygulamak istiyorsanız, çıkarım anında uygulayabilen bir politika mekanizmasına ihtiyacınız olacak. İstenmeyen veri kaybını, güvenli olmayan kullanımı vb. önlemek için istemleri engellemesi ve politikaları uygulaması gerekir.
- Politikayı her yerde uygulayın: Politika mekanizmasının dahili ve harici LLM erişimi ve bulutlar, LLM’ler ve güvenlik platformları arasında geçerli olduğundan emin olun. Çoğu kuruluş bulut ve güvenlik ürünlerinin bir karışımını kullandığından, politika motorunuz tek bir platform veya bulutla sınırlı değilse daha iyi çalışacaktır.
Bugünkü piyasa durumu
Yukarıdaki adımlar karmaşık olabilir, ancak bazı işletmeler ilerleme kaydetti. Elbette daha büyük, daha gelişmiş organizasyonlar yukarıdakilerden bazılarını gerçekleştirmek için bir dizi kontrol oluşturdular.
Bu AI görünürlüğünün ve kontrolünün çoğunu sıfırdan inşa eden birkaç kişiyle konuştum. Diğerleri, verileri yakalamak, bazı temel engellemeler yapmak ve sonradan görünürlük raporlaması yapmak için EDR, SIEM, CASB, proxy ve güvenlik duvarlarının bir karışımını kullandılar. Elbette, herhangi bir yeni güvenlik endişesinde olduğu gibi, yeni girişimler de çözümler pazara getiriyor. Bu, kurumsal güvenlik ve gizliliğin çok aktif ve hızlı gelişen bir alanıdır.
Son bir not: Bazen, çalışanların (ve müşterilerin) BT’yi kullanma biçimini önemli ölçüde etkileyen büyük BT değişimleri meydana gelir. 90’ların sonlarındaki kurumsal web dağıtımı, 2010’larda mobil uygulamaların yaptığı gibi, kurumsal altyapının büyük bir evrimine yol açtı. Bu büyük bilişim değişimlerinin her ikisi de veri kaybı ve saldırıları için yeni potansiyeller açtı ve her biri önemli yeni teknoloji çözümleri gerektirdi. GenAI kesinlikle bir BT güvenliği evriminin bir sonraki büyük nedeni gibi görünüyor ve çoğu kuruluş, AI her sürece yerleştikçe kullanıcılarını ve verilerini görmenin, kontrol etmenin ve korumanın yollarını arayacak.