Avrupa parlamentosu, Mart 2024’te Avrupa Birliği (AB) Yapay Zeka Yasasını onayladı ve amacı, yapay zeka (AI) geliştiricilerine ve uygulayıcılarına, AB politika yapıcılarının “AI’nın belirli kullanımlarına ilişkin açık gereklilikler ve yükümlülükler” olarak tanımladığı şeyleri sağlamaktır.
Ayrıca düzenlemenin iş dünyasının, özellikle de küçük ve orta ölçekli işletmelerin (KOBİ’ler) üzerindeki idari ve mali yükleri azaltacağını umuyorlar.
Kanun, güvenliğe, mahremiyete ve insanların ötekileştirilmesini önlemeye odaklanarak yapay zeka sistemlerinin işletilmesine yönelik düzenleyici bir çerçeve sağlamayı amaçlıyor. Yasanın dışında tutulan çok sayıda yapay zeka dağıtım kullanım durumu vardır. Ancak bazı eleştirmenler, özellikle ulusal güvenlik konusunda, programın etkinliğini sınırlayabilecek çok fazla boşluk olduğuna inanıyor.
AB ve diğer yetki alanlarının yapay zeka güvenliğiyle ilgili kaygıları nasıl ele alacaklarını araştırmasının nedeni, bu tür sistemlerin zaman içinde değişebilecek veriler üzerinde eğitilebilmesidir.
Ekonomik İşbirliği ve Kalkınma Örgütü’nün (OECD) yapay zeka grubu, yapay zeka tabanlı sistemlerin toplumsal dinamiklerden ve insan davranışlarından etkilendiği konusunda uyarıyor.
Yapay zeka riskleri ve faydaları, bir sistemin nasıl kullanıldığına, onu işleten diğer yapay zeka sistemleriyle etkileşimlerine ve konuşlandırıldığı sosyal bağlama ilişkin toplumsal faktörlerle birlikte teknik hususların etkileşiminden ortaya çıkabilir.
Genel anlamda yapay zeka mevzuatı, yapay zeka sistemlerinin nasıl eğitildiğini, veri yanlılığını ve açıklanabilirliğini de içeren, hataların birey üzerinde zararlı bir etkiye sahip olabileceği yapay zeka sistemlerinin sorumlu kullanımına odaklanıyor.
OECD.ai politika gözlemevinin Yapay zeka risk yönetimi çerçevesi AI eğitim verilerinde meydana gelen değişikliklerin bazen sistem işlevselliğini ve güvenilirliğini anlaşılması zor şekillerde beklenmedik bir şekilde etkileyebileceğini belirtiyor. OECD.ai politika gözlemevi, yapay zeka sistemleri ve bunların konuşlandırıldığı bağlamların sıklıkla karmaşık olduğunu, bu durum arızalar meydana geldiğinde tespit etmeyi ve bunlara müdahale etmeyi zorlaştırdığı konusunda uyarıyor.
AB Yapay Zeka Yasası, yapay zeka sistemleri için dört risk seviyesinin yanı sıra genel amaçlı bir modele özgü risklerin tanımlanmasıyla yapay zeka güvenliğine yönelik risk temelli bir yaklaşım benimsiyor.
Bu, aynı zamanda Yapay Zeka İnovasyon Paketi ve Yapay Zeka Koordineli Planını da içeren, güvenilir yapay zekanın geliştirilmesini destekleyen daha geniş bir politika önlemleri paketinin bir parçasıdır. AB, bu önlemlerin yapay zeka söz konusu olduğunda insanların ve işletmelerin güvenliğini ve temel haklarını garanti edeceğini ve AB çapında yapay zekanın alımını, yatırımını ve inovasyonunu güçlendireceğini söylüyor.
AB Yapay Zeka Yasasından önemli çıkarımlar
Kanun, genel amaçlı yapay zeka için bir dizi korkuluk sağlar. Bu tür sistemlerin geliştiricilerinin, yapay zekanın AB telif hakkı yasasına uygun olmasını sağlamak için teknik belgeler hazırlaması ve eğitim için kullanılan içerikle ilgili ayrıntılı özetleri paylaşması gerekiyor. Farklı risk düzeyleri için farklı kurallar belirler.
“Kabul edilemez risk” kategorisinde Kanun, biyometrik tanımlama sistemlerinin kolluk kuvvetleri tarafından kullanımını sınırlamaya çalıştı. Hassas özellikleri (örneğin siyasi, dini ve felsefi inançlar, cinsel yönelim ve ırk) kullanan biyometrik sınıflandırma sistemleri yasaktır.
Kanun kapsamındaki yüksek riskli yapay zeka, AB’nin ürün güvenliği mevzuatı kapsamına giren ürünlerde kullanılan yapay zeka sistemlerini içerir. Buna oyuncaklar, havacılık, arabalar, tıbbi cihazlar ve asansörler dahildir. Ayrıca kolluk kuvvetleri, iltica, göç ve sınır kontrolü, eğitim, istihdam ve kritik ulusal altyapının yönetimi gibi bir dizi karar destek rolünde kullanılan yapay zekayı da kapsar.
Yüksek risk kategorisine giren ürünlerin piyasaya sürülmeden önce ve ayrıca yaşam döngüleri boyunca değerlendirilmesi gerekir. Kanun, insanlara yapay zeka sistemleri hakkında belirlenmiş ulusal makamlara şikayette bulunma hakkını veriyor. ChatGPT gibi Üretken Yapay Zeka (GenAI), yüksek riskli olarak sınıflandırılmamaktadır. Bunun yerine Kanun, bu tür sistemlerin şeffaflık gerekliliklerine ve AB telif hakkı yasasına uyması gerektiğini şart koşuyor.
AB Yapay Zeka Yasasından kimler etkileniyor?
Enterprise Strateji Grubu kıdemli analisti Stephen Catanzano, Yapay Zeka Yasasının yapay zeka sistemleri sağlayıcıları için geçerli olduğunu belirtiyor. Bunun, AI sistemlerini geliştiren ve pazarlayan veya bu tür sistemleri kendi adları veya ticari markaları altında ücretli veya ücretsiz olarak sağlayan şirketleri kapsadığı anlamına geldiğini söylüyor.
Ek olarak Catanzano, Yapay Zeka Yasasının AB’deki yapay zeka sistemlerinin ithalatçılarını ve distribütörlerini kapsadığını ve aynı zamanda mesleki faaliyetlerinde kendi yetkileri dahilinde yapay zekayı kullanan gerçek veya tüzel kişiler olarak tanımlanan “dağıtıcıları” da kapsadığına dikkat çekiyor.
Baş analist Enza Iannopollo, teknik standartlar ve protokollerle ilgili ayrıntıların olmamasına rağmen, kuruluşları en azından yapay zeka sistemlerinin performansını ölçmeye ve raporlamaya hazırlanmaya çağırdığını söylüyor. Iannopollo’ya göre bu, yeni gereksinimlerin temel zorluklarından biri olabilir.
Yasayı kapsayan bir blog yazısında, “Şirketler yapay zeka ve GenAI sistemlerinin performansını, sorumlu yapay zekanın önyargı, ayrımcılık ve adaletsizlik gibi kritik ilkelerine göre ölçmeye başlamalı” diye yazdı.
Yeni standartlar ve teknik spesifikasyonlar ortaya çıktıkça Kanun’un bazı kısımlarındaki ifadelerin genişletilmesi bekleniyor.
Yapay zeka düzenlemeleri açısından AB’nin diğer bölgelerden farkı nedir?
Bir kuruluş hangi bölgede faaliyet gösteriyorsa, yapay zekayı başka bir yere dağıtmak istiyorsa hem kendi ülkesinde hem de sistemin kullanılacağı diğer bölgelerdeki düzenleyici çerçeveyi anlaması gerekiyor. Bu yazının yazıldığı sırada AB risk temelli bir yaklaşım benimsemişti.
Ancak diğer ülkeler yapay zeka düzenlemelerine farklı yaklaşımlar benimsemiştir. Farklı yargı bölgelerinin düzenleyici yaklaşımları, farklı kültürel normlar ve yasal bağlamlar doğrultusunda farklılık gösterse de EY, AI’nın potansiyel zararlarını hafifletirken aynı zamanda vatandaşların ekonomik ve sosyal yararı için kullanımını mümkün kılma ihtiyacını kabul etme konusunda genel olarak uyumlu olduklarına dikkat çekiyor. OECD tarafından tanımlanmış ve G20 tarafından onaylanmıştır. Bunlar arasında insan haklarına saygı, sürdürülebilirlik, şeffaflık ve güçlü risk yönetimi yer alıyor.
Birleşik Krallık hükümetinin Şubat ayında yayınlanan yapay zeka düzenleme çerçevesi taslağı, “yenilik yanlısı” bir yaklaşımı öne sürüyor. Yönergelere olan ihtiyaç konusunda bu farkındalığın görülmesi umut verici, ancak yasa koyucu olmayan ilkeler, yapay zeka geliştirmede yer alan kilit oyunculara odaklanıyor.
Kapsayıcı yeniliği teşvik etmek için Birleşik Krallık, düzenleyici ortamı şekillendirirken mümkün olduğu kadar çok sesin katılımını sağlamalıdır. Here East’in CEO’su Gavin Poole’a göre bu, politika yapıcıların ve düzenleyicilerin yalnızca büyük teknoloji şirketlerini değil aynı zamanda startup’ları, eğitim kurumlarını ve küçük işletmeleri de aktif olarak devreye sokması gerektiği anlamına geliyor.
“AB’nin çığır açan Yapay Zeka Yasasını kabul etmesi, Birleşik Krallık için bir uyandırma çağrısıdır; bu, çağın ilerisinde kalmak için yönergelerimizi uyarlamamız ve geliştirmemiz gerektiğinin bir hatırlatıcısıdır” diyor. “İdeal senaryo, yapay zeka inovasyonunda küresel lider konumumuzu daha da güçlendirmek için büyümeyi teşvik eden ve yerel yeteneklere ve gelecekteki potansiyele yatırım yapan bir çerçevedir.”
Karşılıklı etkinin önemi
AB’nin yaklaşımı ABD’den çok farklı. Wipro’nun gizlilik ve yapay zeka yönetim sorumlusu Ivana Bartoletti, bunun aslında iyi bir şey olduğunu söylüyor. “Bu güçlü teknolojiyi yönetmenin en iyi yolunu bulmaya çalışırken çapraz gübrelemeye ve karşılıklı etkiye ihtiyacımız var” diyor.
Bartoletti’nin işaret ettiği gibi, ABD ve AB mevzuatları biraz farklılık gösterse de, iki strateji bazı temel unsurlarda yakınlaşma gösteriyor. Örneğin adalete, güvenliğe ve sağlamlığa odaklanılıyor. Büyük teknoloji şirketlerinde inovasyon ile güç yoğunlaşmasını dengelemeye yönelik güçlü bir taahhüt ve sağlam eylemler de mevcut.
Çin ayrıca yapay zeka düzenlemesi konusunda da önemli ilerleme kaydediyor. Yaklaşımı daha önce yapay zeka sistemleri için kapsamlı bir düzenleyici rejim oluşturmak yerine yapay zekanın belirli alanlarına odaklanmıştı. Örneğin, ortaklardan Jamie Rowlands ve Haseltine Lake Kempner’ın ortaklarından Angus Milne, Çin’in öneri algoritmaları, GenAI ve deepfake’ler için ayrı mevzuatlar getirdiğini belirtiyor. Bu yaklaşımın, yapay zekadaki gelişmelere proaktif olarak şekil vermeye çalışmak yerine görünüşte tepkisel olduğunu söylüyorlar.
Haziran 2023’te Çin, Yapay Zeka Yasası üzerinde çalıştığını doğruladı. Henüz taslak yayınlanmadığından yeni yasanın neleri kapsayacağı henüz belli değil, ancak beklenti, yasanın kapsamlı bir düzenleyici çerçeve sağlamaya çalışacağı ve bu nedenle kapsam ve kararlılık açısından potansiyel olarak AB’nin Yapay Zeka Yasasına rakip olacağı yönünde.
Avrupa yapay zeka sektörü üzerindeki etkisi nedir?
Alman Yapay Zeka Derneği, mevcut haliyle, AB Yapay Zeka Yasasının Avrupa Yapay Zeka ekosistemini ciddi şekilde olumsuz etkileyeceği ve potansiyel olarak özellikle ABD’li ve Çinli rakipler için rekabet açısından dezavantaj yaratacağı konusunda uyardı.
Konumunu tartışan bir makalede, genel amaçlı yapay zeka ve büyük dil modellerinin veya en azından bu tür modellerin yüksek riskli kullanım durumları olarak kategorik sınıflandırmasından hariç tutulması gerektiği konusunda uyardı.
Raporun yazarları, “Yapay zeka sistemlerini yüksek riskli kullanım durumları olarak sınıflandıran mevcut gereksinimlerin yeniden değerlendirilmesi, büyük dil modelleri ve çok modlu modellerde Avrupa yatırımlarının korunması ve teşvik edilmesi ve belirsiz tanımların ve seçilen ifadelerin açıklığa kavuşturulması çağrısında bulunuyoruz” dedi. kağıt yazdı.