İş bulmak zaten yeterince zor. Ve bir engeli olan 4 Amerikalıdan 1’i için, birini güvence altına almak daha da zor olabilir. Ancak 1990’da yasalaşan Engelli Amerikalılar Yasası (ADA) nedeniyle durum böyle olmamalı. Bu medeni haklar yasası, işler, okullar, ulaşım ve ulaşım da dahil olmak üzere kamusal yaşamın tüm alanlarında engellilere karşı ayrımcılığı yasaklıyor. genel halkın erişebileceği tüm yerler.
Öyleyse, durum buysa, ABD Adalet Bakanlığı ve Eşit İstihdam Fırsatı Komisyonu, iş başvurusunda bulunanları incelemek için popüler Yapay Zeka (AI) araçlarını kullanmadan önce neden işverenlere gerekli özeni göstermeleri için ortak bir kılavuz yayınladı? Önyargılı yapay zeka aslında engelli Amerikalıların iş bulamamasının nedeni mi? Önyargılı yapay zekanın engelli insanlara karşı haksız bir şekilde ayrımcılık yapabilme olasılığı, işverenlere bu araçlara körü körüne güvenmenin medeni haklar yasalarını ihlal edebileceği konusunda bir uyarı göndermelidir.
Önyargılı yapay zeka raporlarını ilk kez görmüyoruz. Çünkü bu, engelli bireylerin dışındaki çeşitli savunmasız gruplara kadar uzanmaktadır. Taraflı AI algoritmaları, beyaz olmayan insanlar, kadınlar, farklı yaş grupları ve daha fazlası dahil olmak üzere çok sayıda insana karşı ayrımcılık yapabilir. Neyse ki buna çözümler var ve daha fazla şirket yapay zekanın etik ve sorumlu kullanımına odaklanıyor.
AI’da önyargıya ne katkıda bulunur?
Yapay zeka tasarımında ve geliştirilmesinde etik olmayan yapay zekaya yol açabilecek eksik veriler veya yanlış beyanın bir sonucu olarak önyargılar oluşabilir. Bir takımda farklı bakış açıları, düşünce süreçleri ve yaşam deneyimleri çeşitliliği yoksa, hatalı temsiller fark edilmeyebilir. Potansiyel olarak eşit olmayan önerilere ve diğer çıktılara yol açar.
Yapay zekadaki önyargıyı düşündüğümüzde genellikle akla gelen şey, eğitim verilerindeki tercihlerin veya hariç tutmaların sonucudur. Ancak önyargı, verilerin nasıl elde edildiği, algoritmaların nasıl tasarlandığı ve yapay zeka çözümlerinin nasıl yorumlandığı ile de ortaya çıkabilir.
Her zamankinden daha fazla insanın uzaktan çalıştığı yeni dünyamızda, yalnızca fiziksel olarak ofiste çalışanlar tarafından şirket kültürüyle ilgili bir anket için veri topluyorsanız ve evden ve diğer konumlardan çalışanların yüzdesini hariç tutuyorsanız, veriler önyargılı olacaktır. Ofistekilerden alınan bilgilerle.
Bir sistem tasarlarken, odada kimin olduğu önemlidir. Farklı düşünce süreçleri ve yaşam deneyimleri, ilgili mühendisler ve programcılar aynı geçmişe ve deneyimlere sahip olsaydı, aksi takdirde fark edilmeyecek olan tutarsızlıkları yakalamak için birbiriyle örtüşür. Bu aynı zamanda çözümlerin nasıl yorumlanabileceğiyle de doğrudan bağlantılıdır, çünkü farklı görüşlere ve uzmanlığa sahip bir sistem olmadan bozuk veriler tespit edilemeyebilir ve bulunmayacaktır.
İş ortamından bir örneğe bakıldığında, çözüm olabilecek bozuk veriler, travma sonrası stres bozukluğu yaşayan biri için sessiz bir iş istasyonu gibi işbaşında barınma, hamile bir kadın için daha sık mola verme gibi durumları işbaşında kalma olarak yorumlayabilir. bir uygulamada istenmeyen özellikler. İki başvuru sahibi aynı eğitim ve deneyime sahip olsa da önyargı, engeli olmayan başvuru sahibine yönelik olacaktır. Yapay zeka çözüme geldiğinde bu farklılıklar anlaşmayı bozmamalıdır; bunlar, çalışanların işlerini başarılı bir şekilde gerçekleştirmek için çalışma koşullarını değiştirmelerine olanak tanıyan yasalarla korunan düzenlemelerdir.
Olası bir çözüm nedir?
Yapılabilecek bir işlem, önyargı ödülü denir. Yapay zekadaki önyargıları ve ayrımcılığı tespit etmenin bir yolu, kötü verileri yakalamak için önyargı ödüllerini kullanmak ve analitiğin daha fazla sapmasını önlemektir. Önyargı ödülleri, kullanıcıları, sivil hak ihlalleri haline gelmeden önce yapay zeka sistemlerindeki önyargıyı tespit ettikleri için ödüllendirmek için uygulanmaktadır.”
İnsanları denkleme geri getirin. Evet, konu üretkenlik olduğunda, telefonlarımızda Siri’nin ve evlerimizde Alexa’nın olması güzel. Ancak, bir iş için en iyi başvuranın kim olduğu veya bir birey için en iyi kapsamın ne olduğu söz konusu olduğunda yalnızca yapay zeka ve makine öğrenimine (ML) güvenmek, tasarım aşamasında temsil eksikliği varsa felaket için bir reçetedir. Ayrıca, kırmızı bayrakları çıktı haline gelmeden önce yakalamak için sisteme müdahale edebilen bir insan, işverenleri ve aileleri desteklemesi gerekenleri tartışmalı manşetlerin dışında tutabilir, bunu engelli olma korkusu olmadan yapabilme becerisi bir alan olur. geri döndüler.
Yapay zekanızın etik ve sorumlu olmasını sağlamanın başka bir yolu nedir?
Teknoloji, özellikle yapay zeka ve makine öğrenimi alanlarında ilerlemeye devam ettikçe, bu teknolojinin oluşturulmasıyla doğrudan ilgili daha geniş bir temsile ihtiyaç vardır. Programcı ekibi ne kadar çeşitli olursa, geliştirdiğiniz sistemde daha az önyargıya sahip olursunuz. Şu anda, AI’daki önyargıyı ortadan kaldırmak çok sıcak bir konu ve bunu kolaylaştırmanın en iyi yolu, çeşitliliğe, farklı kültürlere ve daha baştan daha fazla kadının dahil olmasına sahip olmaktır.
Çeşitlendirin, çeşitlendirin, çeşitlendirin, yeterince vurgulanamaz. Evet, yapay zeka ve makine öğrenimi çözümleri yürütürken herhangi bir insan varlığına sahip olmak, hiç olmamasından iyidir, ancak en iyisi, çeşitliliğe sahip ve yetenekli bir ekibe sahip olmaktır. Şu anda, Dünya Ekonomik Forumu tarafından yayınlanan bir araştırma, dünyadaki AI profesyonellerinin yalnızca %22’sinin kadın olduğunu, bu oranın erkek olan %78 olduğunu ortaya koydu.
AnitaB.org’un 2021 raporuna göre, ırka bakıldığında, Siyah kadınlar genel olarak teknoloji işgücündekilerin yalnızca %1,7’sini oluşturuyor. Ve bir bütün olarak Siyah profesyonellere bakıldığında, teknoloji iş gücünün yalnızca %7,4’ünü oluşturuyorlar. Şirketler sektörlerinde alakalı kalmak istiyorlarsa, kuruluşlarında çeşitliliği sadece kucaklamaları değil, aynı zamanda kutlamaları gerekir. Cinsiyet, ırk, yaş veya din olsun.
Herkesin doğrudan ve dolaylı olarak etkileşime gireceği bir teknoloji yaratmak, seçilmiş birkaç kişiye bırakılmamalıdır. Bu sistemler bizim adımıza önerilerde bulunuyor ve kararlar alıyor, biz (liderler ve teknoloji liderleri) toplumu daha iyi bir yer haline getirme ve halihazırda sahip olduğumuz kültürel ve toplumsal sorunları büyütmeme sorumluluğumuz var.
Zelros’ta sigorta için yapay zeka odaklı bir ürün tavsiyesi sunuyoruz ve bununla platformumuza sorumlu bir yapay zeka bileşeni olmasını sağlıyoruz. Zelros Responsible AI, algoritmada meydana gelen kasıtsız önyargıların izlenmesine, tespit edilmesine, uyarılmasına ve düzeltilmesine yardımcı olur. Toplumda istenmeyen daha büyük bir olumsuz etki oluşmadan önce, tüm kuruluşları yapay zeka ve makine öğrenimini nasıl kullandıklarını takip etmek ve raporlamak için bir Sorumlu Yapay Zeka yönetişim programı oluşturmaya ve sürdürmeye teşvik ediyoruz.
Birlikte, yalnızca teknolojik harikalarla dolu değil, aynı zamanda herkesi kapsayan erişilebilir dünyalar yaratabiliriz.
yazar hakkında
Damien Philippon, Zelros’un kurucusudur. Damien Philippon, dünyanın birçok ülkesinde BT ve dijital yazılım alanında 20 yılı aşkın deneyime sahiptir. Önde gelen bir sistem entegratöründe güçlü bir teknik BT altyapısı oluşturmak, CRM, ERP ve dış kaynak programları gibi karmaşık BT programlarına liderlik etmek için 10 yıl harcadı. Girişimci olmayı öğrenerek ve her şeyden önce teknolojinin yüzde 90’ının insanlar hakkında olduğunu öğrenerek altı yılını geçirdiği bir yönetim danışmanlığı şirketi kurdu. Zelros’u altı yıl önce kurdu çünkü yapay zekanın sigorta sektörünü daha müşteri odaklı bir sektöre dönüştürmeye yardımcı olacağına inanıyor. İklim değişikliği ve salgın hastalıklar da dahil olmak üzere gezegenimizin karşı karşıya olduğu zorlukları düşünerek, Sigortanın bu şokları absorbe etmek ve hayatlarımızı korumak için kilit bir sektör olduğuna inanıyor. Montreal Quebec’de yaşıyor.
Damien Philippon’a çevrimiçi olarak https://www.zelros.com/contact-2/ adresinden ve şirketimizin web sitesi https://www.zelros.com/ adresinden ulaşılabilir.