Yapay Zeka (AI) kullanımının tüm sektörlerde hızla artmasını göz ardı etmek mümkün değil. Yapay zeka hakkındaki duygularınız ne olursa olsun, bu modellerin kullanımı bizimle birlikte kalacak ve doğru şekilde kullanıldığında, işletmelerin verimliliği artırma, maliyetleri azaltma ve aynı zamanda müşteri deneyimini kolaylaştırma (ve umarım) iyileştirme fırsatları yaratacaktır.
Ancak yapay zekanın finansal hizmetlerde kullanımı, dikkatli bir şekilde değerlendirilmesi gereken ek zorlukları da beraberinde getiriyor. Bu zorluklardan biri, kullanılan yapay zeka modellerinin belirli nüfus gruplarına karşı ayrımcılığa yol açan haksız önyargılara dayanması riskidir. Bu, müşteriler için kötüdür ve bu tür yapay zeka modellerini kullanan işletmelere potansiyel yasal riskler getirir.
Yapay zeka modelleri nasıl önyargılı olabilir?
Bir yapay zeka modelinin (veya daha spesifik olarak modeli yönlendiren algoritmanın) gelişim aşamaları, potansiyel önyargı risklerinin anlaşılmasına yardımcı olur. Yapay zeka algoritması, yüksek düzeyde bilgisayara, erişebildiği verilere dayalı olarak bir çıktı oluşturmasına olanak tanıyan bir talimat listesi sunar.
Önyargı çeşitli şekillerde tanıtılabilir. Algoritmanın kendisi, belirli verilere daha fazla önem vererek uygulanma şekli nedeniyle önyargı yaratıyor ve dolayısıyla sonuçları çarpıtıyor olabilir. Ayrıca, yapay zeka moduna hangi veri kümelerinin dahil edileceğini veya hariç tutulacağını seçerken insanlar tarafından da kullanılabilir. Ancak önyargının ortaya çıkması için en uygun fırsat, kullanılan veri setlerinin içeriğidir.
Yapay zeka modelleri yalnızca eğitildikleri veriler kadar iyidir. Veri kümeleri çeşitli yollarla elde edilebilir. Bir işletme, bir veri kümesi oluşturmak için kendi geçmiş verilerini kullanıyor olabilir; örneğin, risk değerlendirmelerini ve prim tahminlerini iyileştirmek için tüm geçmiş sigorta hasar bilgileri. Alternatif olarak veri kümeleri, interneti veya diğer kaynakları sorgulayarak ve kazıyarak veri toplayan üçüncü taraflardan satın alınabilir. Her iki senaryoda da, kullanılan veriler çoğunlukla toplumdaki eşitsizlikleri yansıtacağından, bu tür verilerin önyargılı olma riski vardır.
Örneğin veriler, beyaz erkeklerin kadınlara veya azınlık etnik gruplara tercih edilmesini sağlayabilir. Veri kümesi azınlık etnik gruplarına karşı önyargılı olan geçmiş veriler üzerine eğitilirse, ayrımcı fiyatlandırmaya yol açabilir. Sigorta sektörü dışındaki bu önyargının iyi belgelenmiş bir örneği, Amazon’un tarihi Amazon istihdam bilgileri üzerine eğitildiği için kadınlara karşı ayrımcı olduğu tespit edilen işe alım yapay zeka modeliydi.
Yapay zeka modellerindeki önyargıyı nasıl durdurabiliriz?
İşletmelerin önyargının yapay zeka modellerine sızma riskini azaltmasının birkaç yolu vardır. Hiçbiri kusursuz değildir ancak önlemleri bütünsel olarak uygulamaya çalışmak riskleri azaltabilir.
Veri kümelerinin önyargı açısından analiz edilebilmesi için şeffaf olması gerekir. Örneğin, verilerin nasıl ve ne zaman elde edildiği ve etiketlendiği açık olmalıdır. Kritik olarak, herhangi bir veri kümesinin parçasını oluşturan bireylerin yapısını dikkate almak önemli olacaktır. Bu tür bilgiler, veri kümesinin yapay zeka modelinin amacına ne kadar uygun olduğunun ve herhangi bir ayrımcı çarpıklığın olup olmadığının belirlenmesine olanak tanıyacak.
Bu, veri kümesinin boyutuna ve veri kümesinin evde yetiştirilip yetiştirilmediğine veya üçüncü bir taraftan satın alınıp alınmadığına bağlı olacağından her zaman basit bir uygulama değildir. İkincisiyle ilgili olarak, satın alınan herhangi bir veri kümesinin kullanım şartlarını ve koşullarını anlamak, veri kümesinin gelecekte yasal sorunlara yol açması durumunda risk ve sorumluluğun nerede olduğunu açıklığa kavuşturmak açısından önemli olacaktır.
Yapay zeka modelini sürekli olarak izlemek ve değerlendirmek de önemlidir. İnsanlara yönelik yapay zeka modellerinin geliştirilmesinde belli bir yer var. Hedeflerinin önyargısız bir şekilde yerine getirilmesini sağlamak için işletmelerin yapay zeka modellerine stres testi yapması önemlidir. Bu, çıktıların adil ve ayrımcı olmadığından emin olmak için yapay zeka modelini, kullanılan veri kümelerini ve gerçek zamanlı olarak yapay zeka modeline eklenecek devam eden verileri anlayan bir iç denetim ekibine sahip olmak anlamına gelir. Yapay zeka modellerinde gerekli değişikliklerin etkili ve hızlı bir şekilde yapılabilmesini sağlamak için işletmelerde yükseltme politikaları bulunmalıdır. Bu, yapay zeka modellerinin şeffaf olmasını ve müşterilerin yararına çalışmasını sağlamakla giderek daha fazla ilgilenen düzenleyici kurumlarla kaçınılmaz etkileşimlerin sağlanması açısından özellikle önemlidir.
Sigorta sektöründe taraflı yapay zeka modellerinin riskleri
Yapay zeka modellerinde ayrımcı uygulamalar sonucunda sigorta sözleşmesi yapan kişi veya işletmelerin uğrayabileceği potansiyel zararlar bulunmaktadır. Birleşik Krallık’ta bu, bireylerin mali ombudsman veya mahkemeler aracılığıyla tazminat talep etmelerine yol açabilir.
Halihazırda bireyler tarafından Stability AI ve Open AI gibi AI devlerine karşı açılan telif hakkı davalarının çoğaldığını görüyoruz. ABD’de bunlar toplu davalardır ve eğer sigorta sektöründeki bir yapay zeka modeli ayrımcı bir bakış açısıyla geniş bir birey grubunu etkileyecekse, benzer davaların da takip etmesi mümkündür.
Göz önünde bulundurulması gereken diğer risk ise mevzuat ihlalinin artmasıdır.
Yapay zeka geliştikçe düzenleyici ortam da gelişiyor. Kısa süre içinde sonuçlanması muhtemel olan (her ne kadar yasal olarak en az 2 yıl yürürlükte olmayacak olsa da) AB’nin Yapay Zeka Yasasına büyük ilgi var ve bu yasanın amacı Avrupa Parlamentosu’nun web sitesinde şu şekilde net bir şekilde özetleniyor: “AB’de kullanılan yapay zeka sistemleri güvenli, şeffaf, izlenebilir, ayrımcı olmayan ve çevre dostudur. Zararlı sonuçları önlemek için yapay zeka sistemleri otomasyon yerine insanlar tarafından denetlenmeli”.
Birleşik Krallık ayrıca yapay zekayı AB’nin Yapay Zeka Yasası dışında düzenlemeyi düşünüyor. Yapay zeka yanlısı bir çerçeve ortaya koyuyor ancak ayrımcılık yasağı hâlâ 2023 Beyaz Kitabında merkezi bir konu. Bu, ekonominin tüm sektörlerinde yapay zekanın sorumlu bir şekilde geliştirilmesine ve kullanımına rehberlik edecek ve bilgi verecek beş ilkeyle gösterilmektedir: (i) emniyet, güvenlik ve sağlamlık; (ii) uygun şeffaflık ve açıklanabilirlik; (iii) adalet; (iv) hesap verebilirlik ve yönetişim; ve (v) itiraz edilebilirlik ve telafi.
Yapay zeka modellerinde kullanılan kişisel bilgiler ve siber güvenlik kurallarıyla ilgili GDPR’nin karışıma eklenmesi, yapay zeka modellerindeki uyumsuzluğun düzenleyici açıdan gerçekten çok maliyetli olabileceği anlamına geliyor.
Sigorta sektöründe yapay zeka modellerinin yükselişi devam edecek ancak taraflı çıktılarla sonuçlanan yapay zeka modelleri hem yasal hem de itibar açısından gerçek bir risk oluşturuyor. Yapay zeka modellerinin amaca uygun olmasını sağlamak ve dolayısıyla maliyetli yasal zorlukları mümkün olduğunca azaltmak için politikalar ve prosedürler uygulamaya konmalıdır.
Jamie Rowlands, Haseltine Lake Kempner’ın ortağıdır.