Podcast: AI uyumluluğu, ABD ve AB düzenlemesi ile boğuşmak için RSA 2025


Bu podcast’te, Vigitrust CEO’su Mathieu Gorge ile yapay zekanın (AI) CIO’lar için veri, depolama ve uyum üzerindeki devam eden etkisi hakkında konuşuyoruz. Gorge, veriler için etkileri, hacmi, AI işlemesinden girdileri ve çıktıları takip etmenin zorluklarını ve yasa ve düzenlemeye ayak uydurma ihtiyacını tartışır.

Gorge ayrıca ABD’deki yeni yönetimin potansiyel etkileri ve Avrupa Birliği’nin (AB) gelişen yaklaşımını AI’daki verilere göz atıyor.

Sizce bu yılki RSA etkinliğinde uyumluluk ve veri depolama, yedekleme vb.

Her zaman yeni teknolojiler hakkında bilgi edinmek ve depolama ve uyumluluk ve ilgili siber güvenlik ve uyumluluk konularında neler olduğu konusunda parmağımı nabza almak için RSA’ya gitmeyi dört gözle bekliyorum. Bu yıl, AI-AI teknolojisi, ancak sadece AI özellikli teknolojilerin aksine AI’nın güvenliği etrafında birçok öğe göreceğiz.

Kuantum ve quantum sonrası da çok fazla konuşma var, bu yüzden orada ne olacağını görmek ilginç olacak.

Ve depolama perspektifinden bakıldığında, ABD’deki yeni yönetim ve AB’de veri sınıflandırmasını ve veri depolamasını etkileyen AI Yasası ile AB’de yapılan bazı değişiklikler görüyoruz.

Tüm bunların RSA’da bir araya geldiğini görmek ilginç olacak.



Sanırım çok ilginç konuşmalar yapacağız ve bazı yeni satıcıların ormandan çıkmasını bekliyorum.

Orada bahsettiğiniz bazı yönlere girerek, AI’nın kuruluşlara uyumluluğu nasıl etkilediği açısından geçtiğimiz yıl devam ettiği kilit alanlar nelerdir?

Benim görüşüme göre AI geçen yıl terim kelimesi. Herkesin süreçlerini nasıl geliştirebileceğini, veri kullandıklarını vb. Nasıl geliştirebileceğini anlamaya çalışmak için AI’ya bakması gerekiyordu.

Bir yıl sonra, birçok kuruluşun kendi ChatGPT sürümlerini uyguladığını görüyoruz ve bazıları kendi AI platformlarına yatırım yaptılar, böylece biraz daha iyi kontrol edebilmeleri.

Ve böylece, yapay zeka benimsemesinin büyüdüğünü görüyoruz – yapay zekanın yeni olmadığını, yıllardır burada olduğunu hatırlıyoruz – ancak evlat edinme şu anda gerçekten artıyor.

Piyasada gördüğümüz şey, “AI için ne tür veriler kullanabilirim? Bu, veri sınıflandırmamı, veri korumamı, veri yönetişimi nasıl etkiliyor?”

Ayrıca kendi AI yönetişim çalışma gruplarını başlatan bir dizi güvenlik derneğinin görüyoruz. Aslında, Vigitrust’ta, Vigitrust Global Danışma Kurulu ile, ister teknoloji satıcıları veya dernekleri tarafından yönlendirildikleri, hatta hükümetler tarafından yönlendirilse de, AI’yı yöneten tüm düzenlemeleri haritalamaya çalıştığımız bir AI yönetişim çalışma grubumuz var.

AI yönetişiminin ne kadarının RSA’da ele alındığını görmek ilginç olacak. AI yönetişimi yapmak istiyorsanız, ne tür verileri yönettiğinizi bilmeniz gerekir ve veri sınıflandırmasına ve veri korumasına geri döneriz.

Yapay zeka ile ilgili bir diğer sorun, çok sayıda yeni veri yaratmasıdır, bu yüzden bu veri patlamasına sahibiz. Nerede saklayacağız? Nasıl saklayacağız? Ve bu depolama ne kadar güvenli olacak? Ve son olarak, bu geçerli düzenlemelere ve çerçevelere uygunluğu göstermeme izin verecek mi? O cephede RSA’dan ne olduğunu anlamak ilginç olacak.

Sizce ABD’deki yeni yönetimin uyum, depolama ve yedekleme vb. Üzerindeki etkileri nelerdir?

ABD’deki yeni yönetim, en başından beri AI’ya yatırım yapacağını ve AI’yı ABD için büyük bir fırsat olarak gördüğünü söyledi. Ve tüm bunları dağıtmak açısından, halihazırda mevcut olan yönetişim çerçevelerinin uygulanacağını biliyoruz.

NIST gibi kuruluşların daha derinlemesine AI çerçeveleri geliştirdiğini görüyoruz. Ayrıca bulut güvenlik ittifakının kendi yapay zeka yönetişim çerçevelerine doğru ilerlediğini görüyoruz. Hatta şehirlerin akıllı şehirler için kendi AI çerçevelerini geliştirdiğini gördük. Şu anda Boston şehrini düşünüyorum, bir nedenden dolayı.

Ve böylece, organizasyonları AI kullanmaya iten bir hükümetiniz varsa, bu konuda bir yönetişim yapmak isteyeceklerdir. Ve ne kadar ileri gittiklerini görmek ilginç olacak. AB AI Yasası’nın eşdeğeri ile cevap verecekler mi? Muhtemelen, çünkü GDPR’ye bakarsanız [the General Data Protection Regulation] Avrupa’da, birkaç yıl sonra CCPA vardı [the California Consumer Privacy Act] Ve bu aşamada bazı devlet düzenlemeleri yaptık – sanırım ABD’de GDPR’ye benzer bir şey olan 11 eyalet.

Yani, bunun takip etmesi çok muhtemel. Bir gecede gerçekleşmeyecek, ancak 2025 yılında mevcut yönetim tarafından başka duyurular yapılacağını düşünüyorum.

AB ve uyumluluk ile ilgili en son nedir? Özellikle AI vb.

Komik olduğunu biliyorsunuz, AB’de AI, bir fırsat olarak görüldüğü kadar, ABD’den çok daha fazla bir tehdit olarak görülüyor, çünkü potansiyel olarak risk iştahı Avrupa’da biraz daha az görünür.

Her üye devletin AB çerçevesine ek olarak kendi AI düzenlemelerine baktığını görüyoruz. Ayrıca AI’nın GDPR ile nasıl entegre olduğunu da inceliyoruz. Ve böylece, başka bir deyişle, AI çözümlerini dağıtıyorsanız, verilerin yönetişimini tamamen değiştirirsiniz.

Sonunda farklı insanlar tarafından yönetilmek yerine bir sistem tarafından yönetilen verilere sahip olursunuz. Böylece bir veri denetleyicisi kavramı ve gerçekten verilerden sorumlu olan kavramı tekrar sorgulanır.

Bence çeşitli hükümetlerin “AI’yi gerçekten GDPR’ye uygunluktan çıkarmayacak şekilde kullanabilir miyiz?”

İki temel yöne geri dönüyorum – verileri sınıflandırmak ve verileri saklamak.

Bildiğiniz gibi, yapay zeka ile, verilerde bu önyargı sorununa sahipsiniz. Veriler doğru şekilde muamele ediliyor mu? Yaptığınız veriler – daha sonra AI tarafından muamele ediliyor, ortaya çıkıyor – sizi GDPR gibi diğer çerçevelere ve hatta AB Yasası’na uyum sağlıyor mu? Ve bu verileri nerede saklamalısınız? Üzerinde ne tür bir korumaya sahip olmalısınız? Bu verilerin yaşam döngüsünü AI çerçevesi içinde nasıl yönetiyorsunuz? LLM’nizi nasıl koruyorsunuz [large language model]? Kullandığınız algoritmaları nasıl koruyorsunuz?

Ve son olarak, muhtemelen bildiğiniz gibi, AI çok kaynak yoğundur. Bunun iklim üzerinde de bir etkisi vardır, çünkü bu noktada AI ne kadar çok kullanırsanız, o kadar fazla kapasiteye ihtiyacınız vardır ve daha fazla işlem gücüne ihtiyacınız vardır. Ve bunun Yeşil BT üzerinde bir etkisi var.

Bu nedenle, insanları AI için kullanmak istedikleri veri türüne bakmaya, bir risk analizi yapmaya ve daha sonra etkiye şu açıdan bakmaya çağırıyorum: bu verileri nerede saklayacaksınız? Kim sizin için saklayacak? Ne kadar güvenli olacak? Ve bu sadece AI düzenlemesi ile değil, aynı zamanda GDPR ve diğer gizlilik çerçeveleriyle de uyumluluğunuzu nasıl etkileyecek?



Source link