Bu yardımda net güvenlik görüşmesinde, Hunton Andrews Kurth ortağı David Dumont, AB AI Yasası’nın etkilerini ve kuruluşların uygunluk değerlendirmeleri ve şeffaflık gereksinimleri gibi yeni yükümlülükleri ele alırken mevcut GDPR çerçevelerinden nasıl yararlanabileceğini tartışıyor.
Dumont ayrıca ulusal düzeydeki icra varyasyonlarından ve üçüncü taraf AI satıcılarından kaynaklanan riskleri azaltma stratejilerini de özetlemektedir.
AI Yasası’nın etkisi genellikle GDPR ile karşılaştırılır. İşletmelerin henüz anlamayabileceği temel uyumluluk zorluklarını algılıyor musunuz?
Şirket içi avukat için firmamızın AB AI Yasası Kılavuzu’nu geliştirirken, kuruluşların mevcut GDPR deneyimlerinden ve AB AI Yasası Uyum Yolculuğu için uygunluk çabalarından yararlanabilecekleri önemli sayıda alan belirledik. GDPR’ye benzer şekilde, AI Yasası, örneğin, AI sistemlerinin geliştirilmesi ve kullanımı ile ilgili hesap verebilirlik, veri kalitesi ve yönetimi, yönetişim, satıcı tespiti, eğitim, risk değerlendirmesi ve şeffaflık yükümlülüklerini ortaya koymaktadır. Kapsamlı bir GDPR uyum programı düzenleyen kuruluşlar, bu alanlardaki AB AI Yasası kapsamındaki yükümlülüklerini ele almak için mevcut politikaları, prosedürleri, bildirimleri ve diğer uyumluluk altyapılarını geliştirebileceklerdir.
Bununla birlikte, GDPR ve AI Yasası uyumluluğu arasında önemli sinerjiler olsa da, kuruluşlar AI Yasası uyum programlarının bazı temel unsurlarını sıfırdan inşa etmelidir. Yüksek riskli AI sistemleri sağlayıcıları için, örneğin, GDPR ile örtüşen uygunluk değerlendirme yükümlülükleri vardır ve bu nedenle iş için tamamen yeni olabilir.
AI Yasası’nın yapay zekanın kötüye kullanılması için olası cezai yükümlülükleri düzenlemediği göz önüne alındığında, şirketler değişen ulusal düzeydeki uygulamalara nasıl hazırlanmalıdır?
AI Yasası, AB düzeyinde uyumlu olan önemli idari para cezaları uygulama gücü de dahil olmak üzere ulusal denetim yetkilileri için uygulama yetkileri getirmektedir. Bununla birlikte, Kanun aynı zamanda AB üye devletlerinin ulusal yasalarında icra kuralları oluşturmalarını sağlar. Bu ulusal uygulama kuralları AI kötüye kullanımı için cezai sorumluluk içerebilir.
Kuruluşların AB Üye Devletlerindeki yasal gelişmeleri yakından izlemeleri önemlidir ve burada sorumluluklarını ve riske maruz kalmayı etkileyebilecek yerel sapmaların farkında olduklarından emin olmak için AI sistemlerini tanıtmayı veya kullanmayı planladıkları önemlidir. İdeal olarak, ek yerel icra kurallarının oluşturulması minimumda tutulur, çünkü bu tür ulusal kurallar AI çevresinde AB yasal çerçevesinin parçalanmasına neden olabilir, bu da yasal belirsizliğe ve inovasyonu engelleyebilir.
AI Yasası hala geliştiğinden, düzenleyicilerden veya endüstri organlarından daha fazla açıklama ihtiyacını nerede tahmin ediyorsunuz?
AB AI Yasası, AI’nın geliştirilmesini ve kullanımını düzenleyen ilk kapsamlı yasal çerçevedir. Bu nedenle, Yasa, mevzuatın gelecekteki kanıtlarını daha fazla kasıtlı olarak kasıtlı olarak tanımlanan önemli sayıda yeni yasal kavram sunmaktadır. GDPR’ye benzer şekilde, bu kavramların pratikte nasıl yorumlanması gerektiğini tam olarak anlamak için daha fazla rehberlik ve pratik uygulama gerekecektir.
AI Yasası’nın 96. Maddesi, Avrupa Komisyonunun kuruluşlara yeni kurallara uyma konusunda yardımcı olacak yönergeler geliştirmesi ve yayınlaması gereken çeşitli alanı tanımlamaktadır. Aslında, Avrupa Komisyonu kısa süre önce AI Yasası kapsamında AI tanımı ve 2 Şubat’ta uygulanabilir olan yasaklanmış AI uygulamaları hakkında ilk iki yönergesini yayınladı. Yüksek riskli AI sistemleri, şeffaflık gereksinimleri, önemli değişiklikler ve cari güvenlik mevcudiyeti arasındaki etkileşim kavramı, yüksek riskli AI sistemleri, şeffaflık gereksinimleri için sınıflandırma ve gereklilikler de dahil olmak üzere çok daha fazla kılavuz.
Yönergelere ek olarak, uygulama kodları ve standartlar muhtemelen AI Yasası’nın pratik uygulamasında önemli bir rol oynayacaktır. Örneğin, AB AI ofisinin genel amaçlı AI modelleri için Uygulama Kuralları üzerindeki devam eden çalışmaları, genel amaçlı AI modeline ilişkin kuralların pratikte nasıl yorumlanacağı ve uygulanacağı üzerinde önemli bir etkiye sahip olabilir.
AI Yasası, özellikle yüksek riskli AI sistemleri için şeffaflık gerektirir. Bununla birlikte, ticari sırları ve fikri mülkiyeti korurken işletmeler bu gereksinimleri karşılamada ne gibi pratik zorluklarla karşılaşır?
AI Yasası uyarınca bazı AI sistemlerinin sağlayıcılarına uygulanan şeffaflık yükümlülükleri ile ticari sırların ve fikri mülkiyetin korunması gibi bazı hakları ve iş çıkarları arasında açık bir gerilim vardır. AB yasa koyucu, AI Yasası’nın birçok hükümünün, şeffaflık yükümlülüklerinin fikri mülkiyet haklarına halel getirmediğini belirtmektedir. Örneğin, modeli aşağı yönde entegre etmek isteyen kuruluşlara belirli bilgiler sağlamak için genel amaçlı AI modellerinin sağlayıcılarını gerektiren AI Yasası’nın 53. Maddesi, fikri mülkiyet haklarını ve gizli ticari bilgileri veya ticari sırları gözlemleme ve koruma ihtiyacını açıkça ortaya koymaktadır.
Uygulamada, AI gelişimine önemli kaynaklar yatıran sağlayıcıların çıkarlarını korurken, güvenli, güvenilir ve güvenilir bir AI sağlamak için şeffaflık ihtiyacı arasında uygun dengeyi bulmak için tüm taraflardan iyi niyetli bir çabanın istenecektir. Denetim yetkililerinin gerçekçi olması ve uygun dengeyi bulmak için AI sağlayıcılarıyla birlikte çalışması gerekecektir.
Birçok şirket üçüncü taraf AI satıcılarına güvenmektedir. Şirket içi avukatlar, AI şirket içi gelişmek yerine dışarıdan tedarik edildiğinde riskleri nasıl değerlendirmeli ve azaltmalıdır?
Üçüncü taraf AI sistemleri kuruluş içinde sunulmadan önce şirket içi avukatların uygun bir gayreti yerine getirmesi önemlidir. AI Yasası, AI sistem satıcılarına şirket içi avukatların bu titizliği gerçekleştirmesine yardımcı olacak bir dizi yükümlülük getirir. AI Yasası’nın 13. maddesi uyarınca, yüksek riskli AI sistemlerinin satıcıları, örneğin, yüksek riskli AI sisteminin operasyonunu anlamalarına ve çıktısını yorumlamalarına izin vermek için (iş) dağıtımcılarına yeterli bilgi sağlamaları gerekmektedir.
Ayrıca, satıcıların yüksek riskli AI sistemi ile ilgili ayrıntılı teknik talimatlar hazırlamaları gerekecektir. Bu talimatlar, şirket içi avukatlar için, ilgili AI sisteminin kullanımı ile ilgili riskleri yönetmek için uygun iç önlemlerin belirlenmesinde değerli bir araç olabilir.
Kuruluşlar, mevcut satıcı tarama prosedürlerini AI Yasası ışığında güncellemeyi düşünmelidir. Örneğin, satıcı anketleri, AI uyumluluğu etrafındaki olgunluk düzeylerini anlamak için müzakerelerin erken bir aşamasında satıcılardan bilgi edinmede değerli bir araçtır. Buna ek olarak, AI sistemini konuşlandıran bu anket kuruluşları aracılığıyla, temel haklar etki değerlendirmesi ve/veya bir veri koruma etki değerlendirmesi (uygulanabilir olduğu gibi) yapmak için gereken bilgiler gibi AI Yasası kapsamındaki kendi yükümlülüklerine uymaları gerekecekleri hedeflenen bilgileri isteyebilir.