Yapay zeka işletmelerinin devlet düzenlemesi dünya çapında sıcak bir konudur. ABD var Yapay Zeka Haklar Bildirgesi planını duyurduHindistan hükümeti bunu açıkça belirtirken AI işletmelerini düzenleme planı yoktur.
Birleşik Krallık Rekabet ve Piyasalar Otoritesi (CMA) kulübüne bugün katılıyor ilk incelemeyi duyurdu yapay zeka (AI) temel modellerinin geliştirilmesini ve kullanımını çevreleyen rekabet ve tüketiciyi koruma hususlarına.
Büyük dil modelleri ve üretken yapay zeka dahil olmak üzere bu modeller, iş ve günlük yaşamın birçok yönünü dönüştürme potansiyeline sahiptir.
Yapay zeka işletmelerinin devlet düzenlemesi: Birleşik Krallık yöntemi
CMA’nın incelemesi, temel modellerin gelişimini ve gelecekte kullanımlarını en iyi şekilde destekleyecek yol gösterici ilkeleri üretmeyi ve aynı zamanda bu modeller için rekabetçi pazarların nasıl gelişebileceğini incelemeyi ve rekabet ve tüketicinin korunması için sundukları fırsat ve riskleri keşfetmeyi amaçlamaktadır.
CMA duyurusu, “Yapay zekanın gelişimi, güvenlik, güvenlik, telif hakkı, mahremiyet ve insan hakları ile piyasaların çalışma biçimleri dahil olmak üzere bir dizi önemli konuya değiniyor” dedi.
“Bu sorunların birçoğu hükümet veya diğer düzenleyiciler tarafından değerlendiriliyor, bu nedenle bu ilk inceleme, CMA’nın ele almak için en uygun olduğu sorulara odaklanacak – rekabet ve tüketicinin korunması için yapay zeka temel modellerinin geliştirilmesinin olası sonuçları nelerdir?”
Birleşik Krallık’ta AI işletmelerinin devlet tarafından düzenlenmesine yönelik ilk adım olarak görülen CMA, Paydaşlardan görüş ve kanıt istemek, son başvuru tarihi 2 Haziran 2023 olarak belirlendi.
Kanıt toplama ve analizin ardından CMA, Eylül 2023’te bulgularını ortaya koyan bir rapor yayınlamayı planlıyor.
İnceleme, Birleşik Krallık hükümetinin yapay zeka kullanımını düzenlemek için yenilikçilik yanlısı ve orantılı bir yaklaşım arayan yapay zeka beyaz kitabıyla uyumludur.
CMA İcra Kurulu Başkanı Sarah Cardell, AI’nın işletmelerin rekabet etme ve önemli ekonomik büyümeyi sağlama şeklini dönüştürme potansiyeline sahip, hızla ölçeklenen bir teknoloji olduğunu vurguladı.
CMA’nın amacı, yapay zekanın potansiyel faydalarının İngiltere’deki işletmeler ve tüketiciler için kolayca erişilebilir olmasını sağlamak ve onları yanlış veya yanıltıcı bilgi gibi sorunlardan korumaktır.
CMA’nın bu alandaki çalışması, Yapay Zeka Ofisi ve Dijital Düzenleme İşbirliği Forumu (DRCF) ile yakından koordine edilecek ve Birleşik Krallık’ın daha geniş yapay zeka stratejisini bilgilendirecektir.
Yapay zeka işletmelerinin devlet düzenlemesine ilişkin temel endişeler
AI aktivistleri, veri koruma, fikri mülkiyet ve telif hakkı ve çevrimiçi güvenlik dahil olmak üzere AI işletmelerinin temel modellerinin incelenmesi için kampanya yürütüyor.
Yapay zeka işletmelerine yönelik son hükümet düzenlemesi girişimlerinin de gösterdiği gibi, bu durum düzenleyicilerin dikkatini çekmedi.
Birleşik Krallık hükümeti Mart ayında açıklandı yapay zekayı (AI) düzenleme sorumluluğunu, yalnızca bu teknolojiye adanmış yeni bir varlık oluşturmak yerine, insan hakları, sağlık ve güvenlik ve rekabetten sorumlu mevcut kurumlar arasında paylaştırmayı amaçladığını.
Dünyanın dört bir yanındaki yapay zeka işletmelerine yönelik hükümet düzenlemelerine ilişkin odak alanları, siyasi kaygılara, tüketici farkındalığına ve hatta iş ihtiyaçlarına bağlı olarak değişir.
Amerika Birleşik Devletleri
Mart 2021’de ABD Federal Ticaret Komisyonu, şeffaflığı teşvik etmek ve ayrımcı sonuç riskini en aza indirmek için yapay zeka kullanan şirketlere yönelik bir kılavuz yayınladı.
Algoritmik Hesap Verebilirlik Yasası, 2019’da Kongre’de tanıtıldı ve bu yasa, şirketlerin yapay zeka sistemlerinin veri gizliliği, doğruluğu ve adaleti üzerindeki etkisini değerlendirmesini gerektirecek.
Ulusal Standartlar ve Teknoloji Enstitüsü (NIST), güvenilir yapay zeka sistemlerinin geliştirilmesi ve kullanılması için yönergeler geliştirmiştir.
Avrupa Birliği
AB, Nisan 2021’de bazı AI sistemlerini “yüksek riskli” olarak sınıflandıracak ve bunları katı şeffaflık ve hesap verebilirlik gerekliliklerine tabi tutacak yeni düzenlemeler önerdi.
2018 yılında yürürlüğe giren Genel Veri Koruma Yönetmeliği (GDPR), veri işlemede AI sistemlerinin kullanımını düzenleyen hükümler içermektedir.
Avrupa Komisyonu, etik ve güvenilir yapay zekanın geliştirilmesi konusunda politika önerileri ve rehberlik sağlamak için yapay zeka konusunda bir Üst Düzey Uzman Grubu oluşturmuştur.
Çin
2020’de Çin, ülkenin 2030 yılına kadar yapay zeka alanında dünya lideri olma hedefini özetleyen “Yeni Nesil Yapay Zeka Geliştirme Planı”nı yayınladı.
Ülke ayrıca, şirketlerin belirli yapay zeka teknolojilerini ihraç etmeden önce risk değerlendirmeleri yapmasını ve hükümetten onay almasını gerektiren düzenlemeler de uygulamıştır.
Çin’in yapay zekayı düzenleme yaklaşımı, ekonomik büyümeye mahremiyet ve sivil özgürlükler yerine öncelik verdiği için eleştirildi.
Kanada
2018’de Kanada, etik ve insan merkezli yapay zeka geliştirmeyi teşvik etme ve yapay zeka sistemlerinin şeffaf ve hesap verebilir olmasını sağlama planlarını içeren ulusal yapay zeka stratejisini yayınladı.
Kişisel Bilgilerin Korunması ve Elektronik Belgeler Yasası (PIPEDA) dahil olmak üzere ülkenin gizlilik yasaları, kişisel verilerin AI sistemlerinde kullanımını zaten düzenlemektedir.
2019’da Kanada hükümeti, yapay zekanın sorumlu bir şekilde geliştirilmesi ve kullanılması konusunda tavsiye sağlamak için Yapay Zeka Danışma Konseyi’ni kurdu.
Japonya
Japonya hükümeti, şeffaf, adil ve güvenilir yapay zeka teknolojilerinin geliştirilmesini teşvik etmeyi içeren yapay zeka stratejisini 2019’da yayınladı.
Ülke, yapay zekanın sağlık hizmetlerinde kullanımına yönelik yönergeler oluşturmuştur ve diğer sektörler için benzer yönergeler geliştirmeyi planlamaktadır.
Japonya ayrıca yapay zekanın sorumlu kullanımı konusunda rehberlik sağlamak için yapay zeka etiği konusunda bir kamu-özel konseyi kurmuştur.
AI işletmelerinin düzenlenmesi: Oyundaki özel oyuncular
Birleşik Krallık hükümeti, 30 Mart’ta, yapay zeka düzenlemesine özel bir yapay zeka gözlemcisi ve yeni mevzuat içermeyen, bunun yerine “orantılı ve yenilik yanlısı bir düzenleyici çerçeve” içeren “yenilik yanlısı bir yaklaşımı” savunan bir beyaz kitap yayınladı.
Birleşik Krallık tanıtım belgesi, sorumlu yapay zekanın sorumluluğunu kullanıcıya veriyor ve potansiyel olarak teknolojinin kötüye kullanılmasından kaynaklanan herhangi bir sorumluluğu kullanıcıya kaydırıyor gibi görünüyor. Özellikle, ChatGPT’den hiç bahsedilmedi.
Birleşik Krallık’ta yapay zeka işletmelerine yönelik en son hükümet düzenlemesi girişimi, teknoloji ağırlıklı şirketler tarafından desteklenen ve yapay zeka gelişiminin durdurulmasını isteyen popüler bir kampanyadan etkilenmiş gibi görünüyor.
Elon Musk ve Steve Wozniak gibi yüzlerce önde gelen teknoloji figürü, geçen ay ABD merkezli kar amacı gütmeyen Future of Life Institute’tan üretken yapay zeka gelişiminin durdurulmasını isteyen bir açık mektup imzaladı.
İmzacılar, teknolojinin ilerlemesine devam etmeden önce, potansiyel risklerinin daha iyi anlaşılması gerektiğini ileri sürüyorlar.
“Güçlü yapay zeka sistemleri, yalnızca etkilerinin olumlu olacağından ve risklerinin yönetilebilir olacağından emin olduğumuzda geliştirilmelidir. Bu güven iyi bir şekilde gerekçelendirilmeli ve bir sistemin potansiyel etkilerinin büyüklüğü ile artmalıdır,” diye okundu mektupta.
“Bu nedenle, tüm yapay zeka laboratuvarlarını GPT-4’ten daha güçlü yapay zeka sistemlerinin eğitimine en az altı ay ara vermeye çağırıyoruz. Bu duraklama herkese açık ve doğrulanabilir olmalı ve tüm kilit aktörleri içermelidir. Böyle bir duraklama hızlı bir şekilde yasalaştırılamazsa, hükümetler devreye girmelidir.”
Musk ve Wozniak’ın yanı sıra, açık mektuba imza atan popüler kişiler arasında İsrailli tarihçi ve yazar Yuval Noah Harari ve Pinterest’in kurucu ortağı Evan Sharp yer alıyor. Google, Microsoft, Facebook ve DeepMind’den az sayıda personel de imzaladı.
Duraklama çağrısı, son altı ayda meydana gelen ve gelişmiş yapay zeka araçlarını günlük üretkenlik araçlarına dahil etmek isteyen Google ve Microsoft gibi Büyük Teknoloji şirketleri arasında bir silahlanma yarışına yol açan önemli değişikliklerin ardından geldi.
Google son zamanlarda ilan edildi yazılım açıkları, kötü amaçlı yazılım ve tehdit aktörü profilleri gibi güvenlik istihbaratını içeren özel bir “güvenlik” AI dil modeli olan Sec-PaLM tarafından desteklenen yeni bir siber güvenlik paketi.
Google Cloud Security AI Workbench olarak adlandırılan bu sistem, müşterilere veri izolasyonu, veri koruma, egemenlik ve uyumluluk desteği gibi kurumsal düzeyde veri kontrolü özellikleri sağlıyor.
Google gibi bir şirketin böyle bir yapay zeka girişimiyle ilgili gizlilik endişelerini gidermesi önemli olsa da, düzenleyiciler anlaşılması gereken çok şey olduğunu anlıyor.
Avrupa Birliği Fikri Mülkiyet Ofisi (EUIPO) İcra Direktörü Christian Archambeau, “Bazı tahminlere göre, 2023 yılına kadar gezegende AI teknolojilerini kullanan yaklaşık 29 milyar bağlı cihaz olacak ve altta yatan algoritmalar her zamankinden daha merkezi hale geliyor” diye yazdı. ) içinde AI ve IP ihlallerine ilişkin 2022 AB raporu.
“Dördüncü Sanayi Devrimi’nin (4IR) ekonominin ve toplumun neredeyse her alanını dönüştürdüğü bir zamanda, bu dönüşümlerin sonuçlarını anlamak hayati önem taşıyor.”