Yapay Zeka Düzenlemesine Proaktif Olarak Hazırlanın: Rapor


Yapay Zeka ve Makine Öğrenimi, Yeni Nesil Teknolojiler ve Güvenli Geliştirme

KPMG, Montaj Düzenlemesinin Uyumluluğa Karmaşıklık Katacağını Söyledi

Rashmi Ramesh (raşmiramesh_) •
5 Eylül 2023

Yapay Zeka Düzenlemesine Proaktif Olarak Hazırlanın: Rapor
Resim: Shutterstock

Danışmanlık şirketi KPMG, şirketlere riski yönetmek için proaktif olarak korkuluklar kurmalarını tavsiye eden bir raporda, yapay zekaya ilişkin düzenleyici incelemelerin artacağı konusunda uyarıyor.

Ayrıca bakınız: Web Semineri | Üretken Yapay Zeka Kullanımının Organizasyonel Risklerini Azaltma: İyi, Kötü ve Çirkin

KPMG müdürü Amy Matsuo Salı günü yayınlanan bir raporda, düzenleyici rejimlerin yokluğunda bile “şirketlerin proaktif olarak uygun risk ve uyumluluk korkuluklarını belirlemesi gerektiğini” söyledi.

Firma, itibar riskinin tek başına şirketlerin veri zehirlenmesi, içeriden gelen tehditler ve model tersine mühendislik gibi güvenlik risklerine hızla tepki vermesi gerektiği anlamına geldiğini söyledi (bkz: Birleşik Krallık Siber Ajansı, Yapay Zekada Ani Enjeksiyon Saldırıları Konusunda Uyardı).

Avrupa Birliği, yapay zeka sistemlerinin dağıtımına ilişkin kıta çapındaki kuralları tamamlamaya yaklaşıyor ve ABD federal hükümeti, ayrımcılık ve önyargıya karşı mevcut yasaların algoritmik süreçler için geçerli olduğunu söyledi. Birleşik Krallık’taki kanun yapıcılar başbakanı kapsamlı bir yapay zeka politikası belirlemeye çağırdı (bkz: Yapay Zeka Risklerinin Azaltılması: Birleşik Krallık, Sağlam Korkuluklar Çağrısında Bulundu).

KPMG, gelecekteki düzenlemelerin yapay zeka sistemlerinin istenmeyen sonuçlarını, şeffaflığı, tüketici bilgilerine erişim sınırlamalarını ve veri korumalarını ele alabileceğini söyledi. Şirket, düzenlemenin “yapay zekaya yönelik artan kurumlar arası ve yetki alanları arası odaklanmaya karmaşıklık katacağını” ve uyumluluğun sağlanmasının giderek daha karmaşık hale geleceğini söyledi.

KPMG, yapay zeka yaşam döngüsünün tamamını kapsayan, kurumsal çapta bir yaklaşım öneriyor. “Faydalar, riskler, sınırlamalar ve kısıtlamalar da dahil olmak üzere yapay zekayı anlama konusunda kurum çapında kapasiteyi geliştirmek için yapay zeka yaşam döngüsü boyunca iç paydaşlarla etkileşime geçin; bağlam ve kullanıma ilişkin varsayımları kontrol edin ve arızaların, yanlış bilgilerin veya kötüye kullanımın tanınmasını sağlayın.”

Danışmanlık firması ayrıca firmaların yapay zeka sistemlerinin tasarımı, geliştirilmesi, dağıtımı ve değerlendirilmesi sırasında bir “risk yönetimi kültürü” uygulaması gerektiğini söyledi. Bunu yapmak için şirketlerin yapay zekanın organizasyonda nasıl ve kim tarafından kullanıldığını yöneten politikalar geliştirmeye odaklanması, paydaşları ortaya çıkan riskler ve uygun kullanım politikaları konusunda eğitmesi, düzenleyici gelişmeleri izlemesi ve bunlara uyulmasını sağlaması gerekiyor.

Amerika Birleşik Devletleri’nde, hükümetin otomatik sistemlerdeki önyargılarla mücadele etmek için mevcut yasal otoriteleri kullanacağına ilişkin politika açıklamasına ek olarak, Beyaz Saray bir yapay zeka haklar bildirgesi için bir plan yayınladı ve Ulusal Standartlar ve Teknoloji Enstitüsü gönüllü bir rapor yayınladı. Yapay zeka risk yönetimi çerçevesi. Menkul Kıymetler ve Borsa Komisyonu, tahmine dayalı veri analitiğinin kullanılmasıyla ortaya çıkan çıkar çatışmalarına ilişkin yeni kurallar önerdi. Nisan ayında Biden yönetimi, bir “Yapay Zeka sorumluluk ekosistemi” yaratabilecek denetimler, raporlama, test etme ve değerlendirme gibi mekanizmalar hakkında yorum yapılmasını talep etti (bkz: Federaller Yapay Zeka Sistemlerinin Doğruluğunun Onaylanması ve Değerlendirilmesi Çağrısında Bulundu).





Source link