CDEI, AI güvence teknikleri portföyünü yayınladı


Birleşik Krallık hükümetinin Veri Etiği ve İnovasyon Merkezi (CDEI), TechUK ticaret birliğiyle yaptığı işbirliğinin ardından, yapay zeka (AI) sistemlerinin denetlenmesi ve güvence altına alınmasıyla ilgili bir dizi vaka çalışması yayınladı.

“Yapay zeka güvence teknikleri portföyü”, yapay zeka sistemlerini tasarlama, geliştirme, dağıtma veya başka bir şekilde tedarik etme işinde yer alan herkesin bunu gerçek dünya denetim ve güvence tekniklerinden örnekler vererek güvenilir bir şekilde yapmasına yardımcı olmak için oluşturuldu.

CDEI, “AI güvencesi, bir AI sisteminin ilgili kriterleri karşılayıp karşılamadığını ölçerek, değerlendirerek ve ileterek AI sistemlerine güven oluşturmakla ilgilidir” dedi ve bu kriterlerin düzenlemeleri, endüstri standartlarını veya etik yönergeleri içerebileceğini ekledi.

“Güvence, yapay zeka ile ilişkili potansiyel risklerin belirlenmesinde ve yönetilmesinde de önemli bir rol oynayabilir. Yapay zeka sistemlerini etkin bir şekilde güvence altına almak için, çok çeşitli bağlamlarda, çeşitli ilgili kriterlere göre farklı türde yapay zeka sistemlerini değerlendirmek için bir dizi güvence tekniğine ihtiyacımız var.”

Portföy, sorumlu yapay zekayı teşvik etmek için farklı tekniklerin nasıl bir araya getirilebileceğini göstermek için özellikle birden fazla sektörden vaka çalışmaları ve bir dizi teknik, prosedürel ve eğitimsel yaklaşım içerir.

Bu, havacılık gibi diğer “emniyet açısından kritik” alanların “argümana dayalı” güvence yöntemini alan ve onu bir yapay zeka sisteminin etik özellikleri hakkındaki iddiaları değerlendirmek ve gerekçelendirmek için yapılandırılmış bir süreç sağlayacak şekilde genişleten Alan Turing Enstitüsü’nden örnekler içerir; otomatik istihdam karar araçları için bağımsız, üçüncü taraf, kriterlere dayalı denetimler ve sertifikalar yürüten Babl AI; ve teknoloji girişimlerine “etik beceri kazandırma ve araç geliştirme” sağlayan Digital Catapult.

Portföyde yer alan diğer vaka incelemeleri, diğerlerinin yanı sıra Citadel AI, Nvidia, Mind Foundry, Shell, Qualitest, Logically AI ve Trilateral Research’ten gelmektedir.

Bununla birlikte, CDEI, herhangi bir vaka çalışmasının dahil edilmesinin, tekniğin veya organizasyonun hükümetin onayını temsil etmediğini ve bunun yerine işletmeler için halihazırda mevcut olan olası seçenekleri göstermesi gerektiğini belirtti. Ayrıca, portföyün devam eden bir proje olduğunu ve gelecekte başka örneklerin ekleneceği de doğrulandı.

Vaka incelemelerinin her biri, CDEI’nin geniş kategorilere ayırdığı yapay zeka sistemlerini incelemeye yönelik biraz farklı bir yaklaşımı teşvik ediyor.

Bu farklı yaklaşımların örnekleri şunları içerir: belirli bir sistemin çevresel, eşitlik, insan hakları ve veri koruma etkilerini tahmin etmek için kullanılabilecek etki değerlendirmeleri; aynı şeyi ancak geriye dönük olarak yapan etki değerlendirmeleri; bir sistemin önyargı yaratıp yaratmadığını ve nasıl yarattığını belirlemek için algoritmik sistemlerin girdi ve çıktılarının değerlendirilmesini içeren önyargı denetimi; ve bağımsız bir kuruluşun belirli standartlara ulaşan sisteme onay verdiği belgelendirme.

Her örnek olay incelemesinde, ana hatları çizilen yaklaşımlar, teknoloji etrafında çevik, “yenilik yanlısı” bir çerçeve oluşturmak için düzenleyici önerilerini ortaya koyan Birleşik Krallık hükümetinin yapay zeka teknik incelemesinde ana hatlarıyla belirtilen farklı etik ilkelerle de eşleştirilir.

Hükümetin, düzenleyicilerin kendi endüstrilerinde “yapay zekanın güvenli ve yenilikçi kullanımını” kolaylaştırmak için dikkate alması gerektiğini söylediği ilkelerin kendileri arasında emniyet ve güvenlik; şeffaflık ve açıklanabilirlik; adalet; hesap verebilirlik ve yönetişim; ve itiraz edilebilirlik ve tazmin.

Portföyün lansmanı, CDEI’nin Aralık 2021’de yayınladığı ve Birleşik Krallık’ta yapay zeka güvencesi için rekabetçi, dinamik ve nihai olarak güvenilir bir pazarın yaratılmasına yardımcı olmak için altı öncelikli eylem alanı belirleyen yapay zeka güvencesi yol haritasını yayınlamasının ardından geldi.

Bununla birlikte, Kasım 2022’de Alman Marshall Fonu (GMF) düşünce kuruluşu, algoritmik denetimler yapay zeka sistemlerinin opaklığını düzeltmeye yardımcı olabilirken, kötü tasarlanmış veya yürütülen denetimlerin en iyi ihtimalle anlamsız olduğu ve en kötü ihtimalle dikkati başka yöne çekebileceği konusunda uyarıda bulunan bir rapor yayınladı. hatta hafifletmeleri gereken zararları mazur görebilirler.

Diğer bir deyişle “denetim yıkama” olarak bilinen rapor, teknoloji endüstrisinin mevcut denetim uygulamalarının çoğunun yanlış güvence sağladığını çünkü şirketlerin ya kendi öz değerlendirmelerini yürüttüklerini ya da dış kontroller olduğunda hala kendi hedeflerine göre değerlendirildiklerini söylüyor. üçüncü taraf standartlarına uygunluktan daha fazla.

Mayıs 2023’te, Barselona merkezli algoritmik denetim firması Eticas, Computer Weekly’ye CDEI örneklerinde yer almayan, ancak esasen şeffaf gözetim için çok az potansiyele sahip algoritmaları veya yapay zeka sistemlerini değerlendirme uygulaması olan “çelişkili denetim” yöntemi hakkında konuştu. veya başka bir şekilde bir şekilde “erişilemez”.

Eticas genellikle, kuruluşların belirli bir sistemin etkilerini tam olarak anlamak için hem sosyal hem de teknik yönleri dikkate alan kendi uçtan uca denetimlerini yürüttüğü iç sosyo-teknik denetimin savunucusu olsa da, rakip denetim araştırmacısı Iliyana Nalbantova, AI geliştiricilerinin, şu anda böyle bir gereklilik olmadığı için genellikle bu tür denetimleri gerçekleştirmeye istekli olmadıklarını söyledi.

O sırada, “Çekişmeli algoritmik denetim bu boşluğu dolduruyor ve normalde bu sistemlerde elde edilemeyen bir düzeyde yapay zeka şeffaflığı ve hesap verebilirliği elde etmeyi sağlıyor” dedi.



Source link