Yapay Zeka (AI) için düzenlemeler ve yasal çerçeveler şu anda teknolojinin alımının gerisinde kalıyor.
Üretken AI’nın (Genai) yükselişi, yapay zekayı kuruluşların modernizasyon planlarının önüne itti, ancak şimdiye kadar çoğu gelişme düzenleyici bir boşlukta gerçekleşti.
Düzenleyiciler yetişmek için acele ediyor. Endüstri analisti Gartner’a göre, 2024’ün ilk çeyreği ile 1. çeyrek 2025 arasında dünya çapında 1000’den fazla parça önerilen AI düzenlemesi tanıtıldı.
Baş Bilgi Görevlileri (CIO’lar), Gartner başkan yardımcısı analisti Nader Henein’in “etkisiz bir karmaşa olacağını” söyledi.
AI tedarikçileri ve müşterileri tarafından yanlış adımlar, gizlilik ve güvenlik ihlalleri, önyargılar ve hatalar ve hatta AI araçlarının gerçeklere dayanmayan cevaplar ürettiği halüsinasyonlar gibi bir dizi soruna yol açmıştır.
Yapay zeka ile ilgili en yüksek profilli profil örnekleri halüsinasyonlardır. Burada, AI uygulaması – genellikle genai veya büyük bir dil modeli (LLM) – gerçeklere dayanmayan bir cevap üretir.
En son Genai modellerinin önceki sürümlerden daha fazla halüsinasyona uğradığı yönünde öneriler bile var. Openai’nin kendi araştırması, Openai’nin O3 ve O4-mini modellerinin halüsinasyona daha yatkın olduğunu buldu.
Hatalar ve önyargı
Genai temel hatalar, gerçek hataları yapabilir ve önyargıya eğilimli olabilir. Bu, sistemlerin eğitildiği verilere ve algoritmaların çalışma şekline bağlıdır. Bununla birlikte, önyargı, suça neden olabilecek, hatta toplumun bölümlerine karşı ayrımcılık yapabilecek sonuçlara yol açabilir. Bu, tüm AI kullanıcıları için, ancak özellikle sağlık, kolluk kuvvetleri, finansal hizmetler ve işe alım gibi alanlarda bir endişe kaynağıdır.
Hükümetler ve endüstri düzenleyicileri giderek artan bir şekilde yapay zeka kontrol etmek veya en azından AI başvurularının mevcut gizlilik, istihdam yasaları ve diğer düzenlemeler dahilinde çalışmasını sağlamak istiyor. Bazıları AI Yasası ile Avrupa Birliği (AB) gibi daha da ileri gidiyor. Ve AB dışında, daha fazla düzenleme kaçınılmaz görünüyor.
Gartner’s Henein, “Şu anda İngiltere’de düzenleme yolunda çok az şey var” diyor. “Her iki ICO [Information Commissioner’s Office] ve Bilim, İnovasyon ve Teknoloji Bölümü Devlet Bakanı Chris Bryant, önümüzdeki 12 ila 18 ay içinde AI düzenlemesinin beklendiğini belirtti.
“Bunun AB’nin AI Yasası’nın bir kopyası olmasını beklemiyoruz, ancak özellikle yüksek riskli AI sistemleri ve potansiyel olarak yasaklanmış AI kullanımları konusunda adil bir hizalama bekliyoruz.”
AI yasaları ve yönetişim
AI, bazen örtüşen bir dizi yasa ve düzenlemeye tabidir. Bunlar, veri gizliliği ve güvenlik yasalarını ve yasal yaptırımlar tarafından desteklenemeyecekleri yapay zeka kullanımı etrafında standartlar belirleyen yönergeleri ve çerçeveleri içerir.
“AB AI Yasası gibi AI düzenleyici çerçeveler, risklerin değerlendirilmesine, özellikle bu yeni teknolojilerin insanlara dayatma riskine dayanmaktadır” diyor Digitate Continental Teknoloji Sorumlusu Efrain Ruh.
“Bununla birlikte, çok çeşitli uygulamalar ve bu alandaki inovasyonun hızlandırılmış hızı, düzenleyicilerin AI teknolojileri etrafındaki belirli kontrolleri tanımlamasını çok zorlaştırıyor.”
Ve kuralların bolluğu kuruluşların uymasını zorlaştırıyor. Küçük işletmelerin Genai’den en iyi şekilde yararlanmasına yardımcı olan bir firma olan AIPRM’nin araştırmasına göre, ABD’nin 82 AI politika ve stratejisi, AB’nin 63 ve İngiltere’nin 61’i var.
Bunlar arasında göze çarpan yasa, AB’nin Yapay Zeka Yasası ve nerede veya nasıl kullanıldığına bakılmaksızın AI’yı yöneten ilk “yatay” AI yasasıdır. Ancak ABD’nin güvenli, güvenli ve güvenilir bir yapay zeka geliştirme ve kullanımı hakkındaki yürütme emri, AI güvenlik, gizlilik ve güvenlik için standartlar da belirler.
Buna ek olarak, OECD, BM ve Avrupa Konseyi gibi uluslararası kuruluşlar AI çerçeveleri geliştirmiştir. Ancak uluslararası organların ve ulusal hukuk üreticilerinin karşılaştığı görev kolay olmaktan uzaktır.
AI gelişmelerini izleyen uluslararası bir hukuk bürosu olan White & Case’e göre, “dünyadaki hükümetler ve düzenleyici organlar, düzenleyici çerçevelerinin eski olmasını sağlamak için hızlı bir şekilde hareket etmek zorunda kaldı…
“Ama hepsi teknolojik gelişmelerden haberdar olmak için uğraşıyorlar ve zaten AI’yı düzenlemek için ortaya çıkan çabaların ayak uydurmak için mücadele edeceğine dair işaretler var” diyor.
Bu da AI düzenlemesi ve uyumluluğuna farklı yaklaşımlara yol açmıştır. AB, AI Yasasını bir düzenleme olarak kabul etti, yani Üye Devletlerde doğrudan hukukta geçerlidir.
Birleşik Krallık hükümeti şimdiye kadar düzenleyicilere AI’nın sorumluluk alanlarında nasıl kullanıldığına dair yol gösterici ilkeler uygulamalarını öğretmeyi seçti. ABD, yürütme emirleri, federal ve eyalet yasaları ve dikey endüstri düzenlemelerinin bir karışımını seçti.
Tüm bunlar, AI’nın uluslararası kabul görmüş tek bir tanımının olmaması ile hala daha zor hale getirilmiştir. Bu, AI’yi daha sert kullanmak isteyen kuruluşlar tarafından düzenleme ve uyum sağlar. Düzenleyiciler ve firmaların genel veri koruma düzenlemesi (GDPR) gibi düzenlemelerle nasıl çalışacaklarını öğrenmek için zamanları vardı, ancak henüz AI ile o aşamada değiliz.
Gartner’ın Henein, “Diğer bölgelerde olduğu gibi, AI yönetişimi söz konusu olduğunda oldukça düşük bir olgunluk seviyesi var” diyor. “Gizlilik normlarında kırk yıllık organik gelişmeyi izleyen GDPR’nin aksine, AI düzenleyici yönetişim yeni.”
AI Yasası’na uyum, sadece tüm ürünlere değil, teknolojinin AI özellikleri için geçerli olduğu için daha karmaşık hale getirildiğini de sözlerine ekledi. CIO’lar ve uyum görevlilerinin artık yıllardır kullandıkları bir hizmet uygulamaları olarak yazılımdaki AI yeteneklerini açıklaması gerekmektedir.
Uyum
Neyse ki, kuruluşların uygunluğu sağlamak için atabilecekleri adımlar var.
Birincisi, CIO’ların AI’nın kuruluş genelinde nerede kullanıldığını bilmesini sağlamaktır. Daha sonra GDPR gibi mevcut düzenlemeleri gözden geçirebilir ve AI projelerinin kendilerine devam etmesini sağlayabilirler.
Ancak yeni ve gelişmekte olan mevzuatı da izlemeleri gerekiyor. Örneğin AI Yasası, AI ve insan gözetimi için şeffaflığı zorunlu kılar, SIFY Technologies baş çözüm memuru Ralf Lindenlaub.
Amazon Web Services’in dünya çapında kıdemli bir AI uzmanı olan Willie Lee’ye göre, tahtalar “sorumlu AI” ihtiyacının giderek daha fazla farkındadır.
Tüm AI projelerine şeffaflık ile yaklaşılmasını ve potansiyel zararları tanımlamak için kapsamlı bir risk değerlendirmesi eşlik etmesini önerir. Lee, “Bunlar yazılan düzenlemelerin temel idealleri” diyor.
Digitate’in Ruh’u şunları söylüyor: “AI tabanlı çözümlerin doğru korkuluk setiyle ön hazırlık yapılması gerekiyor. Bunun yapılmaması, şirketin imajı ve geliri üzerinde muazzam olumsuz etkileri olan beklenmedik olaylarla sonuçlanabilir.”