Yerelleştirme Zorunluluğu ve Yapay Zeka Düzenlemeleri 2024’te Büyük Veri Zorluklarına Yol Açacak


Şirketler 2024’te veri güvenliğini, korumayı ve uyumluluğu operasyonlar ve risk azaltma açısından daha kritik hale getiren üçlü trendle karşılaşmayı beklemelidir.

Dünya çapındaki hükümetler giderek artan bir şekilde, kendi sınırları içindeki verilerin işlenmesini düzenleyen yasalar oluşturuyor; ülkelerin dörtte üçünden fazlası bir şekilde veri yerelleştirmesini uyguluyor. küresel danışmanlık McKinsey & Co.’ya göre. İkinci bir trend ise üretken yapay zeka (GenAI) modelleri için verilerin kullanımını yönetme telaşı; Biden yönetiminin yapay zeka yönetim emri ve Avrupa Birliği’nin yapay zeka yasası muhtemelen önümüzdeki yıl en büyük etkiye sahip olacak. Son olarak, uzmanlara göre, veri koruma düzenlemelerinin uygulanması daha sık kullanılmaya devam edecek ve bu da daha geniş bir şirket yelpazesini etkileyecek.

Cloud Security Alliance’ın (CSA) baş strateji sorumlusu Troy Leach, şirketler için 2024’ün, verilerinin bulutta nereye taşındığının çok daha farkında olmaları gerektiği yıl olacağını söylüyor.

“Şirketler genellikle farklı departmanlarının bilgiyi nasıl kullandığının farkında değiller” diyor. “Sanırım hâlâ artan bir farkındalık var, ancak gizlilik yasalarının ve verileri yerel tutma çabalarının ilk günlerindeyiz. Hala bunu çözmeye çalışıyoruz ve rehberlik için henüz evrensel bir şablon olduğunu düşünmüyorum. Çabalarımızın neleri içermesi gerektiği konusunda.”

Avrupalı, Çinli ve ABD’li düzenleyiciler, 2023’te bazı büyük para cezalarıyla birlikte veri güvenliğiyle ilgili kurallara ünlem işareti koydular. Mayıs ayında İrlanda Veri Koruma Komisyonu, Facebook’un arkasındaki şirket Meta’ya 1,2 milyar Euro (1,3 milyar ABD Doları) tutarında para cezası verdi. yerelleştirme düzenlemelerini ihlal ettiği için Avrupalı ​​kullanıcılara ilişkin kişisel verileri Amerika Birleşik Devletleri’ne aktararak. Temmuz ayında Çinli yetkililer Araç paylaşım şirketi Didi Global’e 8 milyar yuan’dan fazla para cezası verildi (yaklaşık 1,2 milyar dolar) ülkenin gizlilik ve veri güvenliği düzenlemelerini ihlal ettiği için.

Tata Consulting Services’in siber güvenlik kolu TCS Siber Güvenlik’teki bulut güvenliği uygulamalarının başkanı Raghvendra Singh, düzenleyici ortamın karmaşıklığının hızla arttığını söylüyor.

“Hemen hemen tüm hükümet [and] Dünya genelindeki düzenleyici kurumlar ya veri gizliliği ve koruma politikalarını tanımlamak için çalışıyor ya da halihazırda tanımlanmışsa bir sonraki seviyeye ilerliyor” diyor ve şöyle devam ediyor: “Önümüzdeki birkaç yıl içinde dünya genelinde daha sıkı düzenlemeler görmemiz bekleniyor “

Veri Yerelleştirmesi Başlıyor

Avrupa Birliği’nin 2016 yılında, 1995 Veri Koruma Direktifi’nin yerine geçen Genel Veri Koruma Yönetmeliği’ni (GDPR) kabul etmesinin ardından, daha fazla ülke, verileri yerel düzenlemeler kapsamında koruma altına almaya odaklandı. Bu tür veri yerelleştirmesi devam edecek ve gelecek yılın sonuna kadar insanların dörtte üçü mahremiyetin korunduğu bir ülkede yaşayacak. iş zekası firması Gartner’a göre.

TCS Siber Güvenlik’ten Singh, işletmeler için bu tür düzenlemelerin bir yük olduğu kadar aynı zamanda bir fırsat olduğunu söylüyor.

“Çeşitli yerelleştirme gereksinimleri, işletim modellerini yeniden keşfetme ihtiyacı ve teknoloji sistemleri için farklı standartlar, kuruluşların üstesinden gelmeye çalıştığı büyük karmaşıklıklardan bazılarıdır” diyor. “Bununla birlikte, bu zorlukların üstesinden gelebilen kuruluşlar büyük ölçüde fayda sağlayacak ve rekabet avantajı elde edecek.”

Singh, dünyanın her yerindeki yerelleştirme rejimlerine uyum sağlamanın şirketlerin kişiselleştirme sunmasına, veri sızıntısı ve ihlali riskini azaltmasına ve siber güvenlik konusundaki itibarından faydalanmasına olanak tanıyacağını söylüyor.

Yapay Zeka Kaygıları Değişen Manzaraya Yol Açıyor

Veri yerelleştirmesi bulutun yapısı aracılığıyla gerçekleşirken, önümüzdeki yıl işletmeleri ve verileri nasıl ele aldıklarını etkileyecek en büyük değişiklik, yapay zeka hizmetlerinin hızla benimsenmesi ve ulusların yeni teknolojiyi düzenleme girişimleri olacak.

CSA’dan Leach, yenilikçi ortamda geride kalma korkusu arttıkça şirketlerin yeterince gerekli incelemeyi yapmayabileceğini söylüyor. Örneğin birçok kuruluş, verilerini korumak için GenAI modelinin özel bir örneğini kullanabilir ancak veriler yine de bulutta olacaktır diyor.

Leach, “Farkında olmadıkları şey, kuruluşlarının muhtemelen yalnızca hesaplama gereksinimleri için dünyanın farklı bölgelerindeki bulut hizmetlerini ödünç alacağıdır” diyor. “Veriler eğitildikten ve modele yerleştirildikten sonra, bu verilerin nerede olduğunu, nerede bulunduğunu ve nerede bulunduğunu bulmaya ve ifade etmeye çalışırken gerçekten zor zamanlar geçirecekler.”

Ancak temelde yapay zekanın hızla benimsenmesi sorunlu çünkü veriler, yapay zeka modellerinin (makinelere ve hizmetlere büyük miktarda veri beslenecek, tüketilecek ve bunlardan çıktı alınacak) ve en iyi yapay zeka ürünlerinin arkasındaki şirketlerin can damarıdır. modellerini nasıl eğittikleri ve verileri nasıl kullandıkları konusunda şeffaf değiller.

İş analisti firması Forrester Research, yapay zekanın veri ortamını etkileyecek büyük değişikliklerini öngörüyor. 10 çalışandan altısı, daha üretken olmayı umarak 2024 yılında işleri için kendi yapay zekasını kullanacak. Aynı zamanda, 2024’te yapay zeka tarafından oluşturulan kodlardan kaynaklanan en az üç büyük ihlalle birlikte önemli yasal, gizlilik ve güvenlik riskleri de söz konusu olacak. Forrester analistleri öngörüyor.

Yapay zekanın veri gizliliği ve uyumluluk riskleri, mevzuata uygunluk yazılım firması Kiteworks tarafından yayınlanan işletmeler için 2024 trendleri listesinin başında yer aldı. ChatGPT ve diğer GenAI modellerine ne kadar özel veri aktığına ilişkin tahminler oldukça tutarlı: Veri güvenliği şirketi Cyberhaven, izlenen çalışanların %4’ünün hassas veriler gönderdiğini tespit ederken Kiteworks, çalışanların %15’inin ChatGPT’ye bilgi gönderdiğini tespit eden bir çalışmaya atıfta bulunuyor ve bunların dörtte biri (toplamda yaklaşık %4) verilerin hassas olduğunu düşünüyor.

“Çoğu kuruluş muhtemelen izleme için doğru mekanizmalara sahip değil [data input into GenAI systems] Kiteworks araştırma başkan yardımcısı Patrick Spencer şöyle diyor: “Riskinizi kontrol altına almak için bu yapay zeka sistemlerine yüklenenleri kontrol edebilmeniz ve takip edebilmeniz gerekiyor.”

Özellikle Yapay Zeka ile İlgili Artan Düzenlemeler

Çok sayıda küçük ihlal zaten gerçekleşti. Kuruluşların yaklaşık yüzde 40’ı yapay zeka kaynaklı gizlilik ihlaline maruz kaldı ve bunların dörtte üçü kötü niyetli değildi. Gartner anketi.

Gartner’ın baş analist yardımcısı Nader Henein, “Günümüzde kuruluşlarda çalışan yapay zekanın büyük bir kısmı daha büyük çözümlere entegre edilmiş durumda ve mahremiyet üzerindeki etkisini değerlendirmek için çok az gözetim mevcut” dedi ve yapay zekaya yönelmenin işleri daha da kötü hale getirebileceğini ekledi. “Yapay zeka düzenlemeleri daha yerleşik hale geldiğinde, bir yapay zeka yönetişim programının yokluğunda alınan zehirli verileri çözmek neredeyse imkansız olacak. BT liderleri, kuruluşlarına ve itibarlarına büyük zarar vererek sistemleri toptan sökmek zorunda kalacak. “

CSA’dan Leach, sınırlar ötesinde faaliyet gösteren yapay zeka modellerinin sorumluluğu gibi hâlâ pek çok soru işaretinin bulunduğunu söylüyor.

“Veri yerelleştirmesiyle birlikte, bu düzenlemeler daha yeni olduğundan, daha az uygulama vakası oluyor, ancak risklere ilişkin farkındalığın hâlâ arttığını düşünüyorum” diyor. “Şirketler yanlışlıkla [themselves] Farklı ülkelerden veri tüketip bu büyük dil modellerinden dünyanın diğer bölgelerinde yararlanıyorlarsa büyük risk altında olurlar.”





Source link