Yönetişim yoluyla yapay zekaya olan güveni geri kazanmak


Yapay Zeka ve Makine Öğrenimi, Etkinlikler, Yeni Nesil Teknolojiler ve Güvenli Geliştirme

Etik tasarım ve AB AI Yasası’nın rolü üzerine Ulla Coester

Rahul Neel Mani (@rneelman) •
5 Mayıs 2025


Ulla Coester, Proje Direktörü, Fresenius Uygulamalı Bilimler Üniversitesi

Belirsiz tehditler ve öngörülemeyen davranış, AI’ya küresel güveni zorlaştırıyor. Fresenius Uygulamalı Bilimler Üniversitesi proje direktörü Ulla Coester, uyarlanabilir yönetişim yoluyla ortak bir anlayış oluşturmanın toplumlar arasında sorumlu kalkınma için tutarlı beklentiler yaratmaya yardımcı olduğunu söyledi.

Ayrıca bakınız: Güvenlik İş Akışı Otomasyonu Karmaşıklığı Keser

“Bu nedenle yönetişim davranışa uyarlanabilir olmalıdır. Bu bağlamda ortaya çıkan soru, ‘Bekletme riski altında olan – AI’ya güven veya toplumun gücüne ve kendi kendine anlaşılmasına olan güven?’ Coester, AB AI Yasası gibi yönetişim önlemlerini, kalkınmanın gitmesi gereken veya gitmesi gereken yön hakkında ortak bir anlayış oluşturmak için kullanmamız önemlidir. “Dedi.

Disiplinler arası işbirliği, AI’yi küresel değerlerle hizalamak için kritik öneme sahiptir. Coester, AI’nın etik değerlendirmesinin çözümün kritiklik seviyesini tanımlamaya başlaması gerektiğini ve ekiplerin en başından beri kültürel ve düzenleyici farklılıkları açıklayan yol haritaları oluşturmaları gerektiğini söyledi.

RSAC Konferansı 2025 Coester’daki Bilgi Güvenliği Medya Grubu ile yapılan bu video röportajında ​​da tartışıldı:

Coester, dijital dönüşüm bağlamında hem şirketin etik değerleriyle hem de toplumsal taleplerle uyumlu şirket kültürlerini geliştirir. Yapay zeka tabanlı uygulamalara ve kullanıcı kabulünü artırmak için etik hususlara özel bir odaklanarak dijitalleşme projelerinin uygulanması için hedefli destek sağlar.





Source link