Avrupa Komisyonu, sistemik risklere sahip olduğunu belirlediği AI modellerine yardımcı olmak için yönergeler belirlemiştir ve Avrupa Birliği Yapay Zeka Düzenlemesi’ne (AI Yasası) uygun potansiyel tehditleri azaltmak için daha zor yükümlülüklerle karşılaşmıştır.
Hareket, bazı şirketlerden AI Yasası ve düzenleyici yük hakkında eleştirilere karşı koymayı ve işletmelere daha fazla netlik sağlayan, 7,5 milyon Euro (13.3 milyon $) veya cironun yüzde 1,5’ine 35 milyon avroya veya küresel cironun yüzde yedi’sine kadar değişen para cezalarıyla karşı karşıya.
Geçen yıl yasa haline gelen AI Yasası, sistemik risklere sahip AI modelleri ve Google, Openai, Meta Platformları, Antropik ve Mistral tarafından yapılanlar gibi temel modeller için 2 Ağustos’ta uygulanacak. Şirketler, mevzuata uymak için gelecek yıl 2 Ağustos’a kadar var.
Komisyon, sistemik riskli AI modellerini, halk sağlığı, güvenlik, temel haklar veya toplum üzerinde önemli bir etkiye sahip olabilecek çok gelişmiş bilgi işlem yeteneklerine sahip olanlar olarak tanımlamaktadır.
İlk model grubu, model değerlendirmelerini gerçekleştirmek, riskleri değerlendirmek ve azaltmak, çekişmeli testler yapmak, komisyona ciddi olayları bildirmek ve hırsızlık ve kötüye kullanıma karşı yeterli siber güvenlik korumasını sağlamak zorunda kalacaktır.
Genel amaçlı AI (GPAI) veya temel modelleri, teknik belgelerin hazırlanması, telif hakkı politikalarının benimsenmesi ve algoritma eğitimi için kullanılan içerik hakkında ayrıntılı özetler sunma gibi şeffaflık gereksinimlerine tabi olacaktır.
AB teknoloji şefi Henna Virkkunen yaptığı açıklamada, “Bugünün yönergeleriyle komisyon AI Yasası’nın sorunsuz ve etkili uygulamasını destekliyor.” Dedi.