AB’nin Yeni Yapay Zeka Ofisi Haziran’da Faaliyete Başlayacak


Yapay Zeka ve Makine Öğrenimi, Yeni Nesil Teknolojiler ve Güvenli Geliştirme

Ofis, Avrupa Birliği Yapay Zeka Yasasının Uygulanmasını Denetleyecek

Akşaya Asokan (asokan_akshaya) •
29 Mayıs 2024

AB'nin Yeni Yapay Zeka Ofisi Haziran'da Faaliyete Başlayacak
Avrupa Yapay Zeka Ofisi Haziran 2024’te faaliyete geçecek. (Resim: Shutterstock)

Yapay zekaya ilişkin ilk bağlayıcı düzenleme olan Yapay Zeka Yasasının uygulanmasını denetlemekle görevli Avrupa Yapay Zeka Ofisi, önümüzdeki ay faaliyete geçecek.

Ayrıca bakınız: Uygulamalarınızı Güvenceye Alın: Yapay Zeka Tarafından Oluşturulan Kod Riskini Nasıl Önleyeceğinizi Öğrenin

Yapay Zeka Ofisi, daha önce Avrupa Komisyonu İletişim Ağları, İçerik ve Teknoloji Genel Müdürlüğü’nde yapay zeka ve dijital endüstri şefi olarak görev yapan Lucilla Sioli tarafından yönetilecek.

Yapay Zeka Yasası, işyerinde ve okullarda duygu tanıma gibi yüksek riskli yapay zeka uygulamalarının kullanımını yasaklıyor. Ayrıca yüz tanıma veritabanları oluşturmak için sosyal puanlamayı ve CCTV görüntülerinin kazınmasını da yasaklıyor. Herhangi bir ihlal, şirketlere 35 milyon Euro’ya veya şirketin yıllık cirosunun %7’sine kadar zarar verebilir (bkz.: AB Parlamentosu Yapay Zeka Yasasını Onayladı).

Ofis, model risk değerlendirmesi gibi faaliyetleri denetleyecek ve olası ihlalleri araştıracak teknoloji ve politika uzmanları, avukatlar ve ekonomistlerden oluşan 140 personel tarafından desteklenecek.

16 Haziran’da açılması planlanan ofis, yakında genel amaçlı yapay zekaya ilişkin kurallar önerecek ve bu yılın sonuna doğru devreye girecek yapay zeka sistemleri ve yasaklara ilişkin yönergeleri yayınlayacak.

Avrupa Birliği’nin çabaları, yapay zekaya ilişkin kaygıların arttığı bir dönemde ortaya çıktı. Amerika Birleşik Devletleri ve Birleşik Krallık da dahil olmak üzere pek çok hükümet, gelişen endüstri üzerindeki korkuluklar için gönüllü uygulama kurallarına güveniyor.

Bunlar arasında Microsoft’un da aralarında bulunduğu şirketler ve ChatGPT üreticisi OpenAI tarafından imzalanan ve şirketlerin yapay zeka algoritmalarını piyasaya sürmeden önce model değerlendirmesi gibi bir dizi güvenlik uygulamasına uymayı kabul ettiği Bletchley Deklarasyonu da yer alıyor. Aynı şirketler, Güney Kore’deki Yapay Zeka Seul Zirvesi’nde, şirketlerin yapay zeka sistemlerinin kötüye kullanımını önlemek için eşikler geliştirmesini zorunlu kılmayı ve yapay zeka yönetişim çerçevelerini gözden geçirmeyi ve diğer önlemleri içeren benzer bir gönüllü taahhüt imzaladı.

İki gönüllü beyana benzer şekilde Yapay Zeka Ofisi, diğer önlemlerin yanı sıra modellerin gerçek dünyada test edilmesini sağlayarak ve yapay zeka sanal alanlarına erişim sağlayarak güvenilir yapay zeka geliştirmeye odaklanacak.

Eleştirmenler, önemli bir sınırlama modeli değerlendirmesinin, algoritmaların daha geniş uygulama bağlamında değil silolar halinde test edilmesi olduğunu ve bunun da kaydedilen sonuçları sınırladığını söylüyor.

Yapay Zeka Yasası, genel amaçlı yapay zeka ve diğer yüksek riskli yapay zeka sistemlerinin model değerlendirmeleri, sistemik risk değerlendirmeleri ve hafifletme ve güvenlik olaylarının raporlanması gibi uyumluluk önlemlerinden geçmesini gerektirse de yapay zeka gizlilik grupları, yasadaki boşlukların yapay zeka şirketlerinin kendilerini kategorilere ayırmasına izin verdiğini söylüyor “düşük riskli” olarak nitelendiriyor ve bu da onların güvenlik değerlendirmelerini atlamalarına olanak tanıyor.

Ada Lovelace Enstitüsü’nden araştırmacılar, “Mevcut değerlendirme uygulamaları, kamu veya düzenleyicilerden ziyade şirketlerin çıkarlarına daha uygundur” dedi. “Büyük teknoloji şirketlerinde ticari teşvikler, onları (toplumsal açıdan daha önemli bir etkiye sahip olabilecek güvenlik sorunları yerine) itibar riski oluşturan performans ve güvenlik sorunlarına ilişkin değerlendirmelere öncelik vermeye yöneltiyor.”





Source link