Yaygın Gölge Yapay Zekasının Güvenlik Riski


YORUM

Yapay zekanın (AI) hızlı yükselişi uzun bir gölge yarattı, ancak büyük vaatleri önemli bir riski de beraberinde getiriyor: Gölge AI.

Gölge yapay zeka, bir şirketin BT onaylı yönetiminin dışında yapay zeka modelleri ve üretken yapay zeka (GenAI) araçları da dahil olmak üzere yapay zeka teknolojilerinin kullanımını ifade eder. İşyerindeki verimliliği artırmak için ChatGPT gibi araçları kullananların sayısı arttıkça, birçok kuruluş kamuya açık GenAI’nin şirket içi kullanımını yasaklıyor. Gereksiz güvenlik risklerini önlemek isteyen kuruluşlar arasında finansal hizmetler ve sağlık sektörlerinin yanı sıra Apple, Amazon ve Samsung gibi teknoloji şirketleri de yer alıyor.

Ne yazık ki böyle bir politikayı uygulamak zorlu bir mücadeledir. Yakın zamanda yayınlanan bir rapora göre, kurumsal olmayan hesaplar işyerindeki ChatGPT kullanımının %74’ünü, Gemini ve Bard kullanımının ise %74’ünü oluşturuyor. Çalışanlar, yapay zekayı iş amaçlı kullanmaya devam etmek için kurumsal politikaları kolaylıkla atlayabilir, potansiyel olarak güvenlik risklerini ortaya çıkarıyor.

Bunların en büyüğü hassas verilerin korunmasının eksikliğidir. Mart 2024 itibarıyla, yapay zeka araçlarına girilen verilerin %27,4’ü hassas olarak değerlendirilecek; geçen yılın aynı döneminde bu oran %10,7’ydi. Bu bilgiyi bir GenAI aracına yerleştirdikten sonra korumak neredeyse imkansızdır.

Kontrolsüz gölge yapay zeka kullanımı riski Çalışanlar yapay zekayı kullanırken sıkı gizlilik ve güvenlik uygulamalarına duyulan ihtiyacı ortaya koyuyor.

Her şey verilere bağlı. Veriler yapay zekanın yakıtıdır ancak aynı zamanda kuruluşlar için en değerli varlıktır. Çalınan, sızdırılan veya bozulan veriler bir işletmeye gerçek ve somut zararlar verir; kişisel olarak tanımlanabilir bilgilerin (PII) sızdırılmasından kaynaklanan düzenleyici para cezaları, kaynak kodu gibi özel bilgilerin sızdırılmasıyla ilişkili maliyetler ve bilgisayar korsanlığı ve kötü amaçlı yazılım gibi ciddi güvenlik ihlallerinde artış.

Riski azaltmak için kuruluşların verilerini beklemede, aktarım halinde ve kullanımdayken güvence altına alması gerekir. Riskli gölge yapay zeka kullanımının karşıtı, çalışanların büyük dil modellerine (LLM’ler) beslediği bilgiler üzerinde hassas kontrole sahip olmaktır.

CISO’lar GenAI ve Şirket Verilerini Nasıl Koruyabilir?

Hassas şirket verilerinin güvenliğini sağlamak, kuruluşlarının GenAI’nin algılanan değerinden yararlanma arzusunu tartarken aynı zamanda bu faydaları mümkün kılan tek varlık olan verilerini de koruyan baş bilgi güvenliği görevlileri (CISO’lar) için zorlu bir dengeleme eylemidir.

Yani soru şu oluyor: Bunu nasıl yapıyorsunuz? Dengeyi nasıl doğru kurarsınız? Kuruluşunuzun en değerli varlığını korurken olumlu iş sonuçlarını nasıl elde edersiniz?

CISO’lar yüksek düzeyde verileri tüm yaşam döngüsü boyunca korumaya çalışmalıdır. Bu şunları içerir:

  • Verileri GenAI modeline aktarılmadan önce korumak

  • Bu yeni veriler iş sonuçlarını yönlendireceği ve gerçek değer yaratacağı için veri çıkışının tamamen güvence altına alınmasını sağlamak

Veri yaşam döngüsü güvenli değilse bu, iş açısından kritik bir risk haline gelir.

Daha spesifik olarak, hassas verilerin sızmasını önlemek için çok yönlü bir yaklaşım gereklidir ve bu, gölge yapay zekayı mümkün olduğunca sınırlamakla başlasa da, bazı temel en iyi uygulamalarla veri güvenliğini ve gizliliğini korumak da aynı derecede önemlidir:

  • Şifreleme: Verilerin yaşam döngüsü boyunca şifrelenmesi hayati öneme sahiptir, ancak şifreleme anahtarlarının güvenli bir şekilde ve veriden ayrı olarak yönetilmesi ve saklanması da aynı derecede önemlidir.

  • Şaşırtma: Bir LLM’ye beslenebilecek hassas veya PII verilerini anonimleştirmek için veri tokenizasyonunu kullanın. Bu, AI kanalına giren verilerin bozulmasını veya sızdırılmasını önler.

  • Erişim: Verilere ayrıntılı, rol tabanlı erişim denetimleri uygulayın, böylece yalnızca yetkili kullanıcılar verileri düz metin olarak görebilir ve kullanabilir.

  • Yönetişim: Etik iş uygulamalarına bağlı kalın, veri gizliliğini tüm operasyonlara dahil edin ve veri gizliliği düzenlemeleri konusunda güncel kalın.

Çoğu teknolojik gelişmede olduğu gibi, GenAI’nin kolaylığı ve rahatlığı bazı geri dönüşleri de beraberinde getiriyor. Çalışanlar iş için GenAI ve LLM’lerin artan verimliliğinden yararlanmak isterken, CISO’lar ve BT ekipleri hassas verilerin AI sistemine girmesini önlemek için dikkatli olmalı ve en güncel güvenlik düzenlemelerini takip etmelidir. Çalışanların veri korumanın önemini bilmelerini sağlamanın yanı sıra, verileri en başından itibaren şifrelemek ve güvence altına almak için tüm önlemleri alarak potansiyel riskleri azaltmak çok önemlidir.





Source link