Bilgisayar hayır diyor. AI çağında adalet hayatta kalacak mı?


Hollywood’un yapay zeka (AI) hakkında renkli fikirleri var. Popüler görüntü, robot ordularının kendiliğinden kötü niyete dönüştüğü ve insanlığı yok olmaya karşı bir savaşa soktuğu bir gelecek.

Gerçekte, bugün yapay zekanın ortaya koyduğu riskler daha sinsi ve ortadan kaldırılması daha zor. Bunlar genellikle teknolojinin modern toplumdaki sonsuz gibi görünen uygulamalarının ve günlük yaşamda artan rolünün bir yan ürünüdür ve belki de en iyi Microsoft’un ChatGPT üreticisi OpenAI’ye yaptığı son milyarlarca dolarlık yatırımla vurgulanmıştır.

Her iki durumda da, AI’nın bu kadar çok tartışma yaratması şaşırtıcı değil, en azından kontrolü makinelere teslim etmek yerine teknolojide ustalaşmamızı sağlamak için düzenleyici korumaları nasıl oluşturabileceğimiz konusunda.

Şu anda yapay zekayı yasa ve yönetmeliklerin yanı sıra yasa gücü olmayan kılavuzlardan oluşan bir yamalı yapı kullanarak ele alıyoruz. Bu çerçevede, mevcut çerçevelerin muhtemelen önemli ölçüde değişeceği açıktır.

Öyleyse, cevap bekleyen soru: dünyayı yeniden şekillendirecek bir teknoloji için gelecekte ne var?

etik ikilemler

Yapay zeka tarzı araçların uygulaması endüstriler arasında hızla yayıldıkça, bu sistemlerin birinin servetini zararlı ve öngörülemez bir şekilde etkileme becerisine ilişkin endişeler kaçınılmaz olarak gündeme geldi.

Yakın zamanda bir meslektaş, yapay zeka sistemlerinin bireylerin hakları ve refahı üzerindeki potansiyel etkileri konusunda işletmeler ve düzenleyiciler arasında artan bir takdir olduğunu gözlemledi.

Artan bu farkındalık, risklerin belirlenmesine yardımcı oluyor, ancak bunlar hakkında ne yapılacağı konusunda fikir birliğinin olduğu bir döneme henüz geçmedik. Neden? Çoğu durumda, çünkü bu riskler sürekli değişiyor ve öngörmesi zor.

Çoğu zaman, iyi niyetli amaçlar için kullanılan aynı araçlar, kötü niyetler için kullanılabilir. Yüz tanımayı ele alalım; sosyal medyada mizahi filtreler uygulamak için kullanılan aynı teknoloji, baskıcı rejimler tarafından vatandaşların haklarını kısıtlamak için kullanılabilir.

Kısacası, riskler yalnızca teknolojiden değil, uygulanmasından kaynaklanır. Ve yeni uygulamaların sayısının katlanarak arttığı yapay zeka gibi bir teknolojiyle bugüne uyan çözümler yarına uymayabilir.

Öne çıkan bir örnek, Avustralya Hükümeti’nin, fazla ödeme aldığını belirlediği sosyal yardım alıcılarına otomatik olarak ve çoğu durumda yanlışlıkla borç bildirimleri gönderen karmaşık olmayan bir yapay zeka algoritması kullanan Robodebt planıdır.

Bir maliyet tasarrufu uygulaması olarak amaçlanan, ödenmemiş veya yanlış hesaplanmış borçları geri almaya yönelik ısrarlı girişimler, birçok kişinin programın borç bildirimi alıcılarının fiziksel ve zihinsel sağlığı üzerindeki etkisine ilişkin endişelerini dile getirmesine yol açtı.

Buna, süreçleri gizleyebilen veya anlaşılmaz kalıplar çıkarabilen ‘kara kutu’ AI sistemlerinin daha da karmaşıklığını ekleyin, bu da bireylere bir AI aracının nasıl ve neden bir sonuca yol açtığını açıklamayı çok zorlaştırır. Bu şeffaflığın yokluğunda, sonuçları belirleme ve bunlara itiraz etme yeteneği azalır ve herhangi bir düzeltme yolu etkili bir şekilde geri çekilir.

Boşluğu doldurmak

Diğer bir karmaşıklık ise birçok yargı alanında bu risklerin yapay zeka ile ilgili tek bir yasa veya yönetmelikle ele alınmamasıdır. Bunun yerine, istihdam, insan hakları, ayrımcılık, veri güvenliği ve veri gizliliği gibi alanları kapsayan mevcut yasaların yamalarına tabidirler.

Bunların hiçbiri özellikle yapay zekayı hedeflemese de kısa ve orta vadede risklerini ele almak için kullanılabilir. Ancak tek başlarına yeterli değillerdir.

Bir takım riskler bu mevcut yasa ve yönetmeliklerin dışında kalıyor, bu nedenle kanun koyucular yapay zekanın geniş kapsamlı sonuçlarıyla boğuşabilirken, diğer sektör kuruluşları ve diğer gruplar rehberlik, standartlar ve çerçevelerin benimsenmesine öncülük ediyor – bunlardan bazıları standart hale gelebilir kanun yaptırımı olmadan bile endüstri uygulaması.

Bir örnek, ABD Ulusal Standartlar ve Teknoloji Enstitüsü’nün “gönüllü kullanım için ve güvenilirlik hususlarını AI ürünlerinin, hizmetlerinin ve sistemler”.

Benzer şekilde, AI için Uluslararası Standardizasyon Örgütü (ISO) ortak teknik komitesi şu anda bağlayıcı olmayan 16 standardına henüz yayınlanmamış yirmiden fazla standart eklemek için çalışıyor.

AI’nın etik kullanımını çevreleyen bu girişimlerin birçoğunun mevcut odak noktası, doğrudan adalet üzerinedir. Önyargı, özellikle önemli bir unsurdur. AI karar vermenin merkezindeki algoritmalar insan olmayabilir, ancak yine de insan muhakemesine renk veren önyargıları özümseyebilirler.

Neyse ki, AB’deki politika yapıcılar bu riskin farkında gibi görünüyor. Bloğun AB Yapay Zeka Yasası taslağı, algoritmik önyargıyla ilgili bir dizi konuyu ele alıyor ve özellikle işe alma ve finans gibi bağlamlarda azınlık gruplarına karşı “tarihsel ayrımcılık modellerini” tekrarlamaktan kaçınmak için teknolojinin geliştirilmesi gerektiğini savunuyor.

Uygulamada düzenleme ve yeniliğin nasıl dengeleneceğine ilişkin görüşler ülkeden ülkeye büyük ölçüde farklılık gösterse de, diğer birçok yargı bölgesinin gelecekteki AI yasalarında bu konuyu doğrudan ele almaya çalışması beklenmektedir.

Düzenleme yarışı

İlginç olan, ABD’de daha tipik olarak benimsenen teknoloji ve düzenlemeye yönelik laissez-faire yaklaşımının aksine, AB’nin vatandaşlarının haklarını nasıl merkeze koyduğudur.

Avrupa Komisyonu, Eylül 2022’de, AI Sorumluluk Direktifi ve ayrımcılık da dahil olmak üzere bireylerin AI ile ilgili zarar gördüğü durumlarda tazminat taleplerini düzene sokacak revize edilmiş Ürün Sorumluluğu Direktifi önerileriyle Eylül 2022’de Taslak Yasa’yı daha da tamamladı.

Karşılaştırıldığında, bazı yorumcular Birleşik Krallık’ın nereye gitmek istediğinin şu anda belirsiz olduğunu iddia ediyor. Yapay zeka düzenlemesinde küresel bir lider olma arzusu, kısmen Brexit’in ardından düzenlemeleri kaldırma ve Birleşik Krallık düzenlemeleri oluşturarak diğer ülkeleri bizimle birlikte getirme arasındaki doğal gerilim nedeniyle gerçekten gerçekleşmedi.

Bununla birlikte, İngiltere’nin bu alanda küresel liderlik arayışına dair bazı işaretler var. Bilgi Komiserliği Ofisi (ICO), şirketin biraz tartışmalı yüz tanıma aracı için bireylerin çevrimiçi görüntülerini küresel bir veritabanına kazıdıktan sonra yazılım şirketi Clearview AI’ye 7,5 milyon sterlin para cezası verdi.

Clearview o zamandan beri bir temyiz başvurusunda bulundu. Ancak, kamuya açık biyometrik verilerin bile kullanımının korunmasına artan odaklanmanın altını çizmenin yanı sıra, ICO’nun eylemi piyasaya açık bir mesaj gönderiyor: Birleşik Krallık düzenleyicileri, gerekli gördükleri yerde yapay zeka risklerini ele almak için hızla harekete geçecekler.

Kutudan dışarı

Önümüzdeki beş yıl, potansiyel olarak OECD AI ilkeleri ve UNESCO’nun AI Etiği Tavsiyesi yoluyla halihazırda kaydedilen ilerlemeye dayanarak, yumuşak rehberliğin katı kanuna dönüştüğü bir uygulama aşamasına işaret edecek. Ancak birçok gözlemci, kapsamlı bir küresel AI çerçevesine benzeyen bir şeyin ortaya çıkmasının çok daha uzun süreceğini düşünüyor.

Sektördeki bazı kişiler, politika yapıcıların müdahaleci gözetiminden rahatsız olacak olsa da, bireylerin teknolojinin etik sonuçlarına ilişkin takdiri, uygulamasının yanı sıra genişlediğinden, işletmelerin sağlam ve dikkate alınan AI düzenlemesi olmadan halkın güvenini nasıl koruyabileceğini görmek zordur. .

Bu arada, ayrımcılık ve önyargı, bu teknolojinin yalnızca kötü niyetle değil, aynı zamanda istenmeyen sonuçlara yönelik özensizlikle uygulanmasının en acil risklerini göstererek dikkat çekmeye devam edecektir.

Ancak bu tür faktörler nihayetinde çok daha büyük bir yapbozun parçalarıdır. Endüstri, düzenleyiciler ve profesyonel danışmanlar, eğer bu teknolojinin ustası olarak kalmak istiyorsak, tersi değil, yasal ve etik risklerin tam resmini bir araya getirmek için yıllarca uğraşmak zorunda kalıyor.



Source link