TUC, işçileri yapay zekadan korumak için yasa teklifi yayınladı


Sendikalar Kongresi (TUC), işyerinde yapay zekayı (AI) düzenlemek için “kullanıma hazır” bir yasa yayınladı ve otomatik karar vermenin iş üzerindeki olumsuz etkilerini yönetmek için bir dizi yeni yasal hak ve koruma belirledi. işçiler.

Avrupa Birliği’nin yakın zamanda kabul ettiği Yapay Zeka Yasasında benimsediği yaklaşıma benzer bir risk temelli yaklaşım uygulayan TUC’nin Yapay Zeka (İstihdam ve Düzenleme) Yasa Tasarısı, büyük ölçüde yapay zekanın “yüksek riskli” karar alma için kullanılmasıyla ilgilidir. bir sistemin “yasal etkiler veya diğer benzer önemli etkiler” yaratması olarak tanımlamaktadır.

TUC, yapay zekanın ekonomi genelinde insanlar hakkında, iş bulup bulmadıkları, işlerini nasıl yapacakları, nerede yapacakları ve ödüllendirilip ödüllendirilmeyecekleri, disipline edilecekleri veya işten çıkarılıp çıkarılmayacakları gibi önemli kararlar vermek için kullanıldığını söyledi.

İşçileri bu şekilde algoritmik olarak yönetmek için yapay zeka sistemlerinin kullanılmasının zaten onlar üzerinde “önemli bir etkiye” sahip olduğunu ve ayrımcı ve adil olmayan sonuçlara, veriler üzerinde kontrol eksikliğine, mahremiyet kaybına ve genel iş yoğunlaşmasına yol açtığını ekledi.

“Birleşik Krallık iş hukuku, teknolojik değişimin hızlı hızına ayak uydurmakta başarısız oluyor. TUC genel sekreter yardımcısı Kate Bell, işyerinde yapay zekayı düzenleme yarışını kaybediyoruz” dedi.

Birleşik Krallık iş hukuku, teknolojik değişimin hızlı hızına ayak uydurmakta başarısız oluyor. İşyerinde yapay zekayı düzenleme yarışını kaybediyoruz

Kate Bell, TUC

“Yapay zeka halihazırda iş yerinde insanların nasıl işe alındığı, performansın nasıl yönetildiği ve işten çıkarıldığı da dahil olmak üzere hayat değiştiren çağrılar yapıyor. İşçileri sömürü ve ayrımcılıktan korumak için acilen yeni korkuluklar yerleştirmemiz gerekiyor. Bu ulusal bir öncelik olmalı.”

Yapay Zeka (İstihdam ve Düzenleme) Tasarısının hazırlanmasında yer alan Connected by Data kampanya grubunun kampanya ve politika başkanı Adam Cantwell Corn şunları ekledi: “Yapay zekanın nasıl daha güvenli hale getirileceği konusundaki tartışmada, belirsizliğin ötesine geçmeliyiz. fikirleri ve değerleri ve ilkeleri eyleme geçirilebilir haklara ve sorumluluklara dönüştürün. Tasarı tam olarak bunu yapıyor ve bundan sonra ne olacağına dair önemli bir işaret koyuyor.”

Birleşik Krallık hükümeti şu anda en yüksek riskli yapay zeka sistemleri için bağlayıcı kuralların getirilebileceğini söylese de, şimdiye kadar yapay zeka için yasa oluşturma konusunda isteksiz davrandı ve birçok kez zamanı gelene kadar yasa çıkarmayacağını belirtti.

Uygulanabilir haklar ve sorumluluklar

İşçiler, çalışanlar, iş arayanlar ve sendikalar için koruma ve hakların yanı sıra işverenler ve potansiyel işverenler için yükümlülükler sağlamaya odaklanan tasarının temel hükümleri arasında, işverenlerin hem iş öncesi hem de sonrası ayrıntılı İşyeri Yapay Zeka Risk Değerlendirmeleri (WAIRA’lar) gerçekleştirmelerinin sağlanması yer alıyor. konuşlandırma, faaliyette olan yapay zeka karar verme sistemlerinin kayıtlarını oluşturma ve iş yerinde yapay zeka ayrımcılığını kanıtlamayı kolaylaştırmak için istihdam davalarındaki kanıt yükünü tersine çevirme.

WAIRA çerçevesi kapsamında tasarı aynı zamanda işçilerle istişare süreçleri oluşturacak, herhangi bir yüksek riskli görevlendirmeden önce sendikalara danışılması için yasal bir hak sağlayacak ve işçileri ve sendikaları zor durumda bırakacak sistemler hakkında kara kutu bilgilerine erişim sağlayacak. Sistemlerin nasıl çalıştığını anlamak için daha iyi bir konum.

Diğer hükümler arasında, sözde bilimsel duygu tanımanın tamamen yasaklanması, yapay zeka gelişiminin güvenli bir ortamda devam edebilmesi için yeni sistemleri test etmek üzere düzenleyici sanal alanların çalıştırılması ve işverenlerin katı koşulları yerine getirmeleri halinde ayrımcılık iddialarına karşı savunma yapmalarına olanak tanıyacak yeni bir denetim savunması yer alıyor. denetim standartları.

Tasarı aynı zamanda işçilere, yapay zekanın kendileri hakkında nasıl yüksek riskli kararlar aldığını açıklayan kişiselleştirilmiş bir beyan hakkı, otomatik kararların insan tarafından incelenmesi hakkı, bağlantıyı kesme hakkı ve sendika hakkı da dahil olmak üzere bir dizi hak verecek. Yapay zeka sistemine verilecek olan işçilerle ilgili verilerin aynısı verilecek.

TUC, bu birleşik önlemlerin işyerindeki veriler üzerindeki mevcut güç dengesizliğini gidermede uzun bir yol kat edeceğini söyledi.

Cloisters’tan Robin Allen KC ve Dee Masters ortak bir açıklamada, “Yapay zekanın faydalarının adil bir şekilde paylaşılmasını ve zararlarının önlenmesini sağlamak için yasal kurallara ve güçlü düzenlemelere acilen ihtiyaç var” dedi. “Sayısız yorumcu yapay zekanın işyerinde kontrol edilmesi gerektiğini savundu, ancak bugünden önce hiçbiri mevzuat taslağını hazırlamak için gereken ağır yükü kaldırmamıştı.”

Çok paydaşlı, işbirlikçi bir yaklaşım

Metin, Cambridge Üniversitesi Minderoo Teknoloji ve Demokrasi Merkezi’nin yardımıyla Cloisters Chambers’daki Yapay Zeka Hukuk Danışmanlığı tarafından hazırlanırken, tasarının kendisi Eylül 2023’te TUC tarafından kurulan özel bir danışma komitesi tarafından şekillendirildi.

Yapay zekanın nasıl daha güvenli hale getirilebileceğine ilişkin tartışmada, belirsiz fikirlerin ötesine geçmemiz ve değerleri ve ilkeleri eyleme geçirilebilir haklara ve sorumluluklara dönüştürmemiz gerekiyor. Tasarı tam olarak bunu yapıyor ve bundan sonra ne olacağına dair önemli bir işaret koyuyor

Adam Cantwell Mısır, Verilerle Bağlantı Kuruyor

Ada Lovelace Enstitüsü, Alan Turing Enstitüsü, Connected by Data, TechUK, British Computer Society, United Tech and Allied Workers, GMB ve partiler arası milletvekilleri dahil olmak üzere çok çeşitli paydaşlardan temsilcilerle dolu olan TUC, bu konunun önemini vurguladı. Yapay zeka politika geliştirmede işbirlikçi ve çok paydaşlı yaklaşımların önemi.

Birleşik Krallık Genel Veri Koruma Yönetmeliği (GDPR), Bilgi ve Danışma Düzenlemeleri, çeşitli sağlık ve güvenlik kuralları ve Avrupa İnsan Hakları Sözleşmesi de dahil olmak üzere işyerinde teknolojinin kullanımına uygulanan bir dizi yasanın halihazırda mevcut olduğunu ekledi. Haklar (AİHS) – mevcut yasal çerçevede hâlâ önemli boşluklar bulunmaktadır.

Bunlar arasında şeffaflık ve açıklanabilirlik eksikliği, ayrımcı algoritmalara karşı koruma eksikliği, veriler üzerindeki güç dengesizliği ve çalışanların sesinin ve istişaresinin eksikliği yer alıyor.

İşçi odaklı bir başka yapay zeka yasa tasarısı, Mayıs 2023’te İşçi Partisi Milletvekili Mick Whitely tarafından sunuldu; bu tasarı, benzer şekilde yapay zeka hakkında işçilerle anlamlı istişare ihtiyacına, zorunlu etki değerlendirmeleri ve denetimlerine olan ihtiyaca ve resmi bir bağlantıyı kesme hakkının yaratılmasına odaklanıyordu. .

Tasarı ilk kez aynı ayda okunmuş olsa da Meclis’in Kasım ayındaki ikinci okuması öncesinde Ekim 2023’te ön görüşme yapması, tasarının daha fazla ilerleme kaydedemeyeceği anlamına geliyor.

Parlamento geri döndüğünde Muhafazakar meslektaşı Lord Chris Holmes tarafından ayrı bir yapay zeka yasa tasarısı sunuldu ve bu yasa “yapay zekanın sunduğu fırsatlar ve riskler hakkında anlamlı, uzun vadeli kamu katılımı” ihtiyacını vurguladı.

Mart 2024’te Computer Weekly’ye konuşan Holmes, Birleşik Krallık hükümetinin yapay zekayı düzenlemeye yönelik “bekle ve gör” yaklaşımının, şu anda gerçek zararlar meydana gelirken yeterince iyi olmadığını söyledi.

“İnsanlar işe alımda, kısa listede, yüksek öğrenimde zaten yapay zeka kararlarının yanlış tarafındalar ve insanlar kendilerini bir yapay zeka kararının yanlış tarafında bulmakla kalmıyor, çoğu zaman durumun böyle olduğunu bile bilmiyorlar. dedi.

Birleşmiş Milletler’in (BM) Mayıs 2024’ün sonunda gerçekleşecek olan İyilik için Yapay Zeka Zirvesi öncesinde düzenlenen bir etkinlikte konuşan Uluslararası Telekomünikasyon Birliği (ITU) genel sekreteri Doreen Bogdan-Martin, Zirvenin “ilkelerden uygulamaya geçiş” olacağı belirtildi.

“Standartların yapay zekanın temel taşı olduğunu” ancak bu standartların BM gibi çok paydaşlı platformlar aracılığıyla işbirliği içinde oluşturulması gerektiğini ekledi.



Source link