İngiltere’nin ‘düzenleyici’ yapay zeka yaklaşımı insan haklarını korumayacak


Yapay zeka (AI) ve insan haklarına ilişkin Parlamento soruşturması, Birleşik Krallık hükümetinin yapay zekaya (AI) yönelik “düzenleyici” yaklaşımının, teknolojinin son derece ölçeklenebilir zararlarıyla baş etmekte başarısız olacağını ve halkın daha fazla haklardan mahrum kalmasına yol açabileceğini duydu.

Temmuz 2025’te başlatılan soruşturma, “yapay zeka çağında” insan haklarının nasıl korunabileceğini incelemek, özellikle mahremiyet ve veri kullanımı, ayrımcılık ve önyargıya odaklanmak ve yapay zeka sistemlerinin ihlallere neden olduğu durumlar için etkili çözüm yolları oluşturmak amacıyla oluşturuldu.

Soruşturmanın 29 Ekim 2025’teki ikinci kanıt oturumunda konuşan uzman tanıklar, Parlamentonun Ortak İnsan Hakları Komitesi’ne, mevcut haliyle, Birleşik Krallık’ın yapay zekaya yönelik “eleştirel olmayan ve kuralsızlaştırıcı” yaklaşımının, teknolojinin sunduğu açık insan hakları zararlarıyla başa çıkmada başarısız olacağını söyledi.

Bu, gizlilik, ayrımcılık yapmama ve toplanma özgürlüğü gibi hem kolektif hem de bireysel hakları çeşitli şekillerde etkileyebilen gözetim ve otomatik karar almayla ilgili zararları içerir; özellikle teknolojinin çalıştığı hız ve ölçek göz önüne alındığında.

“Yapay zeka Birleşik Krallık’ta düzenleniyor, ancak tesadüfen ve iyi değil… büyük boşlukları olan bir sisteme bakıyoruz. [regulatory] Kapsama alanı,” dedi Ada Lovelace Enstitüsü’nün hukuk ve politika direktör yardımcısı Michael Birtwistle.

“Yapay zekanın kullanıldığı birçok yüksek etkili bağlamda (istihdam, işe alım, sosyal yardımlar ve vergi idaresi gibi kamu sektörünün büyük bölümleri) düzenleyicilerimiz yok” dedi. “Örneğin, eğitim düzenleyicilerimizin okullarda teknoloji kullanımı konusunda açık bir kapsamı yok.”

Birtwistle şunları ekledi: Yapay zeka fırsatları eylem planı Hükümet tarafından Ocak 2025’te yayınlanan raporda “Yapay Zekanın benimsenmesini artırmaya yönelik önemli hedefler” özetleniyor, Yapay Zeka risklerini azaltmak için ne tür eylemler gerçekleştirilebileceğine dair çok az şey yer alıyor ve “insan haklarından bahsedilmiyor”.

Haklardan mahrumiyetin ve ayrımcılığın derinleşmesi

Toplantıya katılan uzmanlar ayrıca, hükümetin ekonomik büyümeyi ve sanayinin ticari çıkarlarını her şeyden önce desteklediğini söyledikleri mevcut yaklaşımının, sıradan insanların haklarını korumada başarısız olması ve teknolojinin onlara yukarıdan dayatıldığı hissine kapılması halinde kamunun haklarından mahrum bırakılmasını daha da derinleştirebileceği konusunda uyardı.

Tanıklar ayrıca yapay zekanın, tarihsel eşitsizlikleri veya adaletsizlikleri geleceğe yansıtacak şekilde süreçleri otomatikleştirerek başta toplumdaki ayrımcılık olmak üzere mevcut birçok sorunu daha da kötüleştirme riskinden bahsetti.

Örneğin Birtwistle, haklardan mahrum kalmanın artmasıyla ilgili olarak, kamuoyunun yapay zekaya yönelik tutumlarını inceleyen bir dizi anketin altını çizdi; bu anketlerin tümü, halkın, ekonomik faydaların, inovasyon hızının veya uluslararası rekabetle ilgili kaygıların ötesinde adalete, güvenliğe ve teknolojinin olumlu sosyal etkilerine öncelik vermek istediğini gösteriyor.

“Yapay zeka konusunda halkın haklarından mahrum bırakıldığı yönünde güçlü bir algı var” dedi. “Birçok kişi hükümetin yaptıkları konusunda söz hakkına sahip olduklarını düşünmüyor ve buna örneğin hükümetin Büyük Teknoloji ile ilişkilere öncelik verip vermeyeceği konusunda yüksek düzeyde endişeler de eşlik ediyor.”

Gizlilik kampanyası grubu Big Brother Watch’un yöneticisi Silkie Carlo (aynı zamanda hükümetin yapay zekaya ilişkin “çok iyimser ve ticari odaklı bakış açısına” da vurgu yaptı) şu ana kadar Parlamento’da Veri Kullanımı ve Erişim Yasası’nın (DUAA), “varsayılan yasağı” esasen kaldırarak ve her türlü amaç için serbestleştirerek insanların otomatik karar almaya karşı korumalarını “azalttığını” belirtti.

Hükümetin bunun yerine, diğer teknolojilerin yapamayacağı bir hızda ve ölçekte zarar veya yaralanmaya neden olabilecek yapay zekanın doğasında olan risklere daha fazla ağırlık vermesi gerektiğini ekledi.

Yüz tanıma

Birleşik Krallık polisi tarafından kullanılan yapay zeka destekli yüz tanıma örneğini veren Carlo, teknolojinin daha doğru hale geldiği ve daha az yanlış tanımlama yaptığı doğru olsa da, veri işlemenin oranı ve ölçeğinin, insanların yalnızca çok küçük bir yüzdesinin olumsuz etkilendiği, yani gerçek anlamda binlerce kişinin etkilendiği anlamına geldiğini söyledi.

“Yüz tanıma konusunda çok az sorumluluk ve şeffaflık var, ancak diğer yapay zeka türleri de var” dedi. “Bu sistemlerin çoğu tarafından işaretleniyorsanız nedenini bilmiyor olabilirsiniz ve bunun çok temel İngiliz değerleriyle çeliştiğini düşünüyorum. Bu aynı zamanda ürpertici bir etki olduğu anlamına da geliyor, çünkü devlet daireleri tarafından kullanılan gözetim sistemlerinin veya diğer yapay zeka sistemlerinin sizi izlediğini, yargıladığını, işaretlediğini, hakkınızda kararlar aldığını ve nedenini bilmiyorsanız veya buna karşı çıkamayacağınızı düşünüyorsanız, bunun adaletle ilgili çok uzun süredir devam eden değerlerimizi ve kamu yetkililerinden beklentilerimizi boşa çıkardığını düşünüyorum.”

Carlo, yapay zeka destekli kitlesel gözetlemenin “kontrolden çıkma” potansiyelinin bulunduğunu ve bir amaç için inşa edilen bir sistemin “göz açıp kapayıncaya kadar” kolayca başka bir amaç için kullanılabileceğini ekledi.

Ayrımcılık karşıtı yardım kuruluşu Glitch’in genel müdürü tèmítópé lasade-anderson, yapay zekanın sosyal sorunları ve ayrımcı sonuçları daha da kötüleştirme potansiyeline ilişkin, mevcut polis veri kümelerinin daha düşük sosyoekonomik kökenden veya belirli etnik azınlıklardan insanları büyük ölçüde aşırı temsil etme eğiliminde olduğunun altını çizdi.

Posta kodlarının farklı demografik özelliklere sahip kişilerin temsili olarak nasıl kullanıldığına dair bir örnek vererek, sosyoekonomik düzeyi düşük bölgelerin polisle daha fazla etkileşime girme eğiliminde olduğunu ekledi.

Bu daha sonra toplanan verilere yansıyor ve bu da polisin o bölgeyle daha fazla ilgilenmesine neden oluyor, toplanan veriler ve polis faaliyeti olumsuz bir geri bildirim döngüsü oluşturduğundan sorunların olduğu fikri pekiştiriliyor.

“Bu tür bir veri tabanını otomatik bir araca uyguladığınızda, muhtemelen bu bölgedeki bu kişilerin gözetlenmesi gerektiğini öne sürecektir” dedi ve veri kümelerinin “ön yargılardan arındırılmasının” yeterince iyi olmadığını “çünkü bunun, insanların ilk etapta ayrımcılığa uğradığı anlamına gelen temel sosyal sorunlarla ilgilenmeyeceğini” ekledi. “Yapay zekanın dahil olmadığı yerlerde bir tür kırmızı çizgi olması gerekiyor.”

Halkın katılımı ve etkili telafi

Tanıklar ayrıca Birleşik Krallık’ta etkili yapay zeka düzenlemesi için neye ihtiyaç duyulacağını daha ayrıntılı olarak tartıştı; bunlar arasında teknolojinin son derece bağlamsal kullanımının nüanslarıyla ilgilenen sektöre özgü kuralların oluşturulması ve bu düzenlemelerin belirli bir sistemin yaşam döngüsünün her bölümünü kapsayacak şekilde yapılandırılması yer alıyor.

Ayrıca kamuoyunda güven oluşturmak ve Silikon Vadisi veya kimliği belirsiz hükümet bürokrasileri tarafından teknolojinin “yukarıdan” dayatılmasını önlemek için “ortak yaratma” konusuna vurgu yapılması gerektiğini söylediler.

Komitenin 2 Temmuz 2025’teki ilk oturumunda konuşan Alan Turing Enstitüsü’nün etik ve sorumlu inovasyon araştırmaları direktörü David Leslie, daha önce “kamuoyunun daha az değil daha fazla yetkilendirilmesi için inovasyon ekosistemlerini şekillendirmeye” acil bir ihtiyaç olduğunu söylemişti.

“Kamuoyunun, sistemlerin kullanılması, tasarlanması ve dağıtılması ve veri toplanmasına ilişkin bu kararlara katılması gerekiyor, böylece neyin kabul edilebilir olup olmadığına dair yapısal kamusal tespitler yapılabilir” dedi.

Ancak her iki oturumda da tanıklar, tüm bunların, insanların yapay zeka sistemlerine etkili bir şekilde meydan okumasına ve haklarını korumasına olanak tanıyacak güçlü telafi mekanizmaları yaratılarak desteklenmesi gerektiği konusunda açıktı.

“ [current] Veri haklarınızı ve insan haklarınızı fiilen kullanmaya yönelik mekanizmalar çoğu insan için işlemeyecektir” diyen Birtwistle, etkisiz telafi sorununun, Birleşik Krallık’ta otomatik karar almanın izin verildiği koşullar dizisini genişleten hükümetin DUAA’sı tarafından nasıl büyütüldüğüne de dikkat çekti. “Tazmin edilmesi çok zor. Pratikte bu çok pahalıdır ve başarılı olmanız pek mümkün değildir.”

Komitenin ilk kanıt oturumu sırasında konuşan AWO avukatı ve hukuk direktörü Ravi Naik, hesap verebilirlik ve şeffaflık gibi düzenleyici unsurların önemli olduğunu ve “dahil olan aktörler zincirinin” tamamına uygulanması gerektiğini, ancak temel faktörün telafi olduğunu kabul etti; Birleşik Krallık’ın mevcut insan hakları çerçevesi ve maliyeti yüksek hukuk sistemi kapsamında zaten elde edilmesi zor olan bir şey.

Naik, insan hakları çerçevesinde bunun şu anda kamu aktörleriyle ilgili olduğunu, yapay zeka sistemlerinin ise genellikle karar alma ve geliştirme süreçlerini “kilitleme eğiliminde olan” özel teknoloji şirketleri tarafından oluşturulup kontrol edildiğini belirtti.

“Bu komiteye, düzenleyicilerin sistemlerin nasıl oluşturulduğuna ve kararların neden alındığına bakma yeteneğini dikkate almasını şiddetle tavsiye ediyorum” dedi.

“Birçok sistemin tescilli olduğu ve ticari sırlar mevzuatı kapsamında olduğu söyleniyor; ancak bu genellikle bir sis perdesidir çünkü modeller açık kaynak yoluyla, örneğin Hugging Face adlı bir platform aracılığıyla kamuya açıktır. Düzenleyicilerin soruşturma yetkisi olabilir, ancak aynı zamanda teknolojiye bakma becerisine de sahip olmaları gerekir. Bu tür bir eylemde bulunmak bireylerin sorumluluğunda olamaz.”

Naik ayrıca Birleşik Krallık’ta, özellikle de özel aktörlere karşı dava açmanın çoğu sıradan insan için yasaklayıcı olan maliyeti hakkında da yorum yaptı. “Tazminat istemeyi bırakın, sırf haklarınızı korumak için özel bir aktöre karşı dava açmak için yedi rakamlı meblağlardan bahsediyoruz” dedi. “Bu, bu alanda hesap verebilirliğin önünde önemli bir engel olmalı.

Naik, komiteye hukuki yardımın insanlara da sağlanması gerektiğini, böylece insanların sadece hükümete değil, özel aktörlere karşı da harekete geçebilmesini önerdi. “Eğer bir hükümet aktörü insan haklarına aykırı bir işlem yaparsa, çoğu kişi davalarını yürütmek için adli yardım alacaktır” dedi. “Adli yardım sistemi hükümeti hesap verebilir kılmak için var; onun amacı da bu ve hesap verebilirliği sağlamak için gerçekten güçlü bir araç.

Naik, “Adli yardımın hükümet aktörlerine uzatılmasının nedeni bir güç meselesiydi, ancak şu anda gücün kimin elinde olduğunu sorgularım” dedi. “Dijital alanda gücün büyük bir kısmı özel ellerde bulunuyor. Dolayısıyla bir yanlışı nasıl düzeltebileceğimizi düşündüğümüzde bunlar önümüzde duran bazı temel kavramlar ve engellerdir.”



Source link