Yerel konseylerin yapay zekayı sorumlu bir şekilde satın alabilmesi için ‘daha iyi desteğe’ ihtiyacı var


Mevcut hükümet rehberliği yapay zekanın kamu yararına nasıl temin edileceğine dair net veya kapsamlı bir açıklama sağlamadığından, yerel yönetimlerin yapay zeka (AI) sistemlerini sorumlu bir şekilde tedarik etmek için daha fazla desteğe ihtiyacı var., Ada Lovelace Enstitüsü (ALI) uyardı.

Sivil toplum grubu tarafından yayınlanan bir araştırma raporuna göre, konseyler mevcut kılavuz ve mevzuata yön verme konusunda önemli zorluklarla karşı karşıyadır çünkü bu belgeler yoruma açıktır ve etik hususların nasıl işlevsel hale getirileceği de dahil olmak üzere yapay zekanın temel yönleri konusunda netlikten yoksundur.

ALI, araştırmasının yapay zekanın kamu sektöründeki potansiyeline ilişkin beklentilerin ve iyimserliğin arttığı bir dönemde geldiğini söyledi ancak teknolojinin faydalarının ancak kamu sektörünün benimsenmesinin güvenli, etkili ve kamu çıkarına uygun olmasını sağlaması durumunda elde edilebileceği konusunda uyardı.

Tamamı 2010 ile 2024 yılları arasında yayınlanan, yapay zeka ve veriye dayalı sistemlerin satın alınmasıyla ilgili 16 rehber, mevzuat ve politika belgesinin analizine dayanan raporda, adalet gibi kavramların nasıl uygulanacağı konusunda “yetersiz netlik” olduğu belirtiliyor. , kamu yararının nasıl tanımlanacağı ve yapay zeka kullanımının, kullanımdan etkilenenler için şeffaf ve anlaşılır olmasının nasıl sağlanacağı.

Pek çok yapay zeka teknolojisinin özel sektör tarafından sağlanması nedeniyle, satın alma sürecinin potansiyel çözümlerin etkililiğini değerlendirmede, riskleri öngörmede ve azaltmada ve herhangi bir dağıtımın orantılı, meşru ve yasalara uygun olmasını sağlamada önemli bir rol oynayabileceğini ve oynaması gerektiğini ekledi. Daha geniş kamu sektörü görevleri.

Ancak rapor, bunun aynı zamanda yerel yönetim içindeki teknik uzmanlık (ALI’nin mevcut kılavuzda bir boşluk olduğunu söylediği) ve satın alma ekiplerinin tedarikçileri teknolojilerinin etkileri ve düzeltme yolları hakkında sorgulamak için nasıl donatılıp güçlendirilebileceği hakkında soruları da gündeme getirdiğini belirtti. satın alma süreci sırasında.

“Araştırmamız, yönergeler, sorumluluklar ve uygulanabilir telafiler konusunda daha fazla netliğe duyulan ihtiyacın altını çiziyor. ALI’de kıdemli araştırmacı olan baş yazar Anna Studman, “Tedarik ekiplerinin etkili, etik ve insanların ve toplumun yararına olan yapay zekayı temin edebilmeleri için daha iyi desteğe ve daha net rehberliğe ihtiyaçları var” dedi.

“Yapay zeka ve veriye dayalı sistemler, ürettikleri tahminler veya sonuçlar ayrımcı, zararlı veya basitçe etkisiz ise kamunun güvenine ciddi şekilde zarar verebilir ve kamu yararını azaltabilir. Tedarik, yerel otoritelere tedarikçileri teknolojilerinin olası toplumsal etkileri konusunda sorgulamaları için hayati bir fırsat sunuyor.”

ALI, yerel konseylerin yapay zeka satın alma çabalarını iyileştirmelerine yardımcı olmak için, bir sistemin satın alma yaşam döngüsü boyunca yasal yükümlülükler ve en iyi uygulamalar konusunda netlik sağlayan merkezi hükümet rehberliğinin birleştirilmesi gerektiğini söyledi; konseylerin satın alırken kullanabileceği algoritmik etki değerlendirme standardının oluşturulması; ve kamu sektörünün “adillik” ve “şeffaflık” gibi temel terimleri nasıl tanımladığı konusunda fikir birliği oluşturulması.

ALI, özellikle şeffaflık konusunda, yerel yönetim organlarının iç süreçlere ve adil rekabete, aynı zamanda toplulukların otomatik sistemler tarafından kendileriyle ilgili olarak alınan kararlara itiraz etme konusunda nasıl bilgilendirildiğine ve yetkilendirildiğine bakan bir “bütünsel yaklaşım” benimsemeleri gerektiğini ekledi. veri.

ALI direktör yardımcısı Imogen Parker, “Kamu sektöründeki tedarikçilerin satın aldıkları ürünlerden emin olmaları çok önemli; ne kendilerinin ne de halkın riske atılmaması gerekiyor” dedi.

“Düşük bütçeler bağlamında sağlam, etik bir satın alma süreci oluşturmak elbette önemli bir zorluktur. Ancak bunu yapmamanın hem finansal hem de etik açıdan maliyetini de dikkate almak önemlidir; bu, Post Office Horizon skandalının da açıkça ortaya koyduğu gibi.”

Rapor ayrıca yerel yönetim satın alma ekiplerinin yapay zeka sistemlerini nasıl kullanacakları ve denetleyecekleri konusunda becerilerinin artırılmasını ve hükümetin Algoritmik Şeffaflık Kayıt Standardını (ATRS) yalnızca merkezi hükümet departmanlarında değil tüm kamu sektöründe kullanıma sunmasını tamamlamasını önerdi.

ATRS, Kasım 2021’de hükümetin Veri Etiği ve Yenilik Merkezi ile işbirliği içinde Merkezi Dijital ve Veri Ofisi (o zamanlar Kabine Ofisi’nin bir parçası) tarafından oluşturulmuş olsa da, geniş çapta benimsenmedi ve Muhafazakar hükümet tarafından 2020’de desteklenmedi. teknolojiye yönelik yönetişim önerilerini ortaya koyan Mart 2023 AI teknik incelemesi.

ALI daha önce Ekim 2023’te kamu sektörü genelinde “temel” veya büyük dil modellerinin (LLM’ler) konuşlandırılmasıyla ilgili benzer uyarılarda bulunarak önyargı ve ayrımcılık, mahremiyet ihlalleri, yanlış bilgilendirme, güvenlik, internete aşırı güvenme gibi konuların etrafındaki risklere dikkat çekti. endüstri, işgücü zararları ve eşit olmayan erişim.

Ayrıca, bu tür modellerin bir soruna en iyi çözüm olduğu için değil, yeni bir teknoloji oldukları için kamu sektörü tarafından benimsenmesinde gerçek bir risk bulunduğunu da ekledi.

“Kamu sektörü kullanıcıları bu nedenle temel modellerini uygulamadan önce karşı olguları dikkatle değerlendirmelidir. Bu, önerilen kullanım durumlarını daha etkili olabilecek, paranın karşılığını daha iyi verebilecek veya daha az risk oluşturabilecek daha olgun ve test edilmiş alternatiflerle karşılaştırmak anlamına gelir; örneğin, bir temel model oluşturmak yerine müşteri hizmetleri sağlamak için dar bir yapay zeka sistemi veya bir insan çalışanın kullanılması -destekli sohbet robotu.”



Source link