Üretken yapay zeka çağında verileri güvenli tutmak


Üretken AI, modern yaşamın temel taşı olarak hızla kendini kanıtladı. Kod üretmek veya bir planı ince ayarlamak gibi iş amaçları için olmazsa olmaz olabilir ve tatil güzergahı planlamak gibi kişisel görevlere yeni içgörüler katabilir (evet, bunu yapabilirsiniz!).

İşyerinde üretken AI’nın (GenAI) faydasını muhtemelen çoktan gördünüz. Yeniliği teşvik etmede kritik bir güce sahip olsa da, benimsenmesi veri güvenliği için yeni zorluklar sunuyor. Yakın zamanda yapılan bir Gartner anketi, kuruluşların %55’inin üretken AI teknolojilerini pilot olarak uyguladığını veya tamamen uyguladığını buldu. Bu, bu teknolojinin masaya getirdiği her şeyin bir kanıtı olsa da, birçok kişi benimsenme hızı konusunda endişeleniyor.

Veri Riskinin Muhasebeleştirilmesi

Karakteristik olarak hızlı ve doğru bir yanıt vermek için, üretken AI platformları milyonlarca kullanıcıdan gelen veri girişlerine güvenir. Bu, bu araçlara girilen herhangi bir hassas verinin tekrar ortaya çıkabileceği ve anlatılmamış bir dizi başka kullanıcı tarafından kullanılabileceği anlamına gelir. AI’yı devrim niteliğinde yapan hız, otomasyon ve öğrenme yetenekleri gibi özellikler, kritik ticari IP’yi de riske atabilir.

Bu risk yalnızca genel AI platformlarıyla sınırlı değildir. Tescilli veri kümeleri üzerinde eğitilen dahili olarak geliştirilen AI modelleri bile, kuruluş içindeki yetkisiz kişilere gizli bilgileri istemeden ifşa edebilir.

Bu endişeler şu şekilde dile getirildi: 2024 Veri Maruziyeti Raporusiber güvenlik liderleri ve uygulayıcılarının yıllık anketi. Bu yılki ankette, GenAI’nin kullanımı ve riski önemli bir temaydı. Katılımcıların neredeyse dörtte üçü (%73), beceri boşluklarını kapatmak için AI’ya baktıklarını belirtti. Ancak, güvenlik liderlerinin %86’sı, çalışanların verileri GenAI araçlarına sızdırıp rakiplere ifşa etmesinden endişe duyduklarını belirtti.

Bu riskle karşı karşıya kalan bazı şirketler, inovasyon yerine veri koruma yolunu seçiyor ve sadece GenAI kullanımını kapatmayı tercih ediyor. Blackberry tarafından yakın zamanda yapılan bir anket, kuruluşların %75’inin üretken AI uygulamalarına yasak getirmeyi düşündüğünü veya zaten getirdiğini, bu şirketlerin %67’sinin birincil neden olarak veri güvenliği ve gizlilik risklerini gösterdiğini ortaya koydu.

Bu strateji, ilk bakışta bir güvenlik ekibinin verilerini kilitleme nihai hedefine ulaşmasını sağlayabilir; ancak hem GenAI’nin potansiyel olumlu değerini ortadan kaldırır hem de insan unsurunu hesaba katmaz.

Bu araçların faydalarını gören çalışanlar genellikle katı politikaları zahmetli bulur. Bazıları bu kısıtlamalara uysa da, çoğu muhtemelen işlerini verimli bir şekilde yapabilmek için bir çözüm yolu bulacaktır. Bu, daha da riskli olabilecek davranışlarla sonuçlanır. Ayrıca, GenAI her sektörde sınırları zorlayan kuruluşlar için bir nimettir. Bu teknolojiyi yasaklayarak ilerlemeden vazgeçmeyi seçmek, şirketlerin rekabet eğrisinin gerisinde kalmasına yol açabilir.

İleriye Doğru Güvenli Bir Yol

Peki, GenAI kullanımı için en uygun nokta nedir? Güvenlik ekiplerinin, sağlam veri korumasını korurken bu yeni araçlardan inovasyonu teşvik etmek için odaklanabileceği birkaç temel yöntem vardır.

  • İnsan Odaklı Eğitim Oluşturun: Etkili veri güvenliği, çalışanların yalnızca güvenlik politikalarını ne kadar iyi kavradıklarını değil, aynı zamanda bunları ne kadar iyi anladıklarını da anlamalarına dayanır. Neden kuralların ardında. Şirketlerin neredeyse tamamı (%98’i), ne sıklıkla eğitim verirlerse versinler, eğitimlerin iyileştirilmesi gerektiğine inanıyor. Şeffaf olan ve riskli davranışları gerçek zamanlı olarak düzelten düzenli eğitimler, gelişmiş tutma ve politikalara uyumu teşvik edebilir. Özellikle GenAI durumunda, çalışanların bunu nasıl kullanabileceklerini ve riskli davranışların işletmeyi neden tehdit edebileceğini bilmeleri gerekir.
  • Kaynak Kodu Depolarını İzole Edin ve Koruyun: Kaynak kodu, günümüz kuruluşları için en değerli veri kümelerinden biridir. Yapay zeka araçları yeni ürünlerin geliştirilmesine derinlemesine yerleştikçe, depolara erişimi kontrol altında tutmak kritik önem taşır. Herhangi bir yapay zeka modeline IP girildiği anda, filtrelemek neredeyse imkansızdır. Bu nedenle, bu hassas verileri işleyenlerin bunu güvenli bir şekilde yaptığından emin olmak, sızıntı riskini azaltmaya yardımcı olabilir.
  • Kişiye Özel Veri Koruma Çözümlerine Yatırım Yapın: GenAI’nin kurumsal verileri ne ölçüde riske atabileceği henüz belli değil. Ancak, yalnızca dünün programlarına ve araçlarına güvenmenin yeterli olmadığını biliyoruz. AI katlanarak büyüdükçe, sağlam veri koruması, anında izleme, otomatik tehdit tanımlama ve bağlamsal ipuçlarıyla uyumlu yanıt mekanizmaları gibi işlevler gerektirir. Verileri gerçekten güvende tutmak için, güvenlik uygulamaları yeni teknolojilerin getirdiği değişim hızına ayak uydurmalıdır.

Şu anda Generative AI’nın Vahşi Batısı’ndayız ve sektörünüz ne olursa olsun yenilik yapmak için hiç bu kadar heyecan verici bir zaman olmamıştı. Bu teknolojinin getirdiği tüm vaatlerle, gürültüde kaybolmak ve ya tam gaz devam etmek ya da frene basmak kolaydır. Çoğunda olduğu gibi doğru cevap, ortada bir yerdedir. Kritik güvenlik politikaları oluşturarak ve çalışanları sürece dahil ederek, aynı zamanda en temel verileri güvence altına alarak ve akıllı veri koruma araçları dağıtarak, kuruluşlar IP’yi güvende tutarken GenAI’nın avantajlarından yararlanabilir.



Source link