ADA Lovelace Enstitüsü’ne (ALI) göre, resmi düzenleme yerine yapay zeka (AI) güvence alanını profesyonelleştirmek için piyasa teşviklerini kullanmak kuruluşların ortak tanımlar ve uygulamalar oluşturmasını gerektirecektir.
Grup, algoritmik denetimler, kırmızı ekip ve etki değerlendirmeleri uygulaması da dahil olmak üzere AI güvencesinin profesyonelleştirilmesinin, şirketlerin bir dizi AI ürünüyle ilişkili potansiyel zararları azaltırken, şirketlerin güvenilirliği daha açık bir şekilde göstermelerine yardımcı olabileceğini söyledi.
Bununla birlikte, 10 Temmuz 2025’te yayınlanan bir raporda Ali, bugüne kadar AI güvencesinin bir dereceye kadar Avrupa Birliği’nin AI Yasası veya New York’un yerel yasası gibi düzenlemelerle teşvik edildiğini, AI üzerinde daha fazla karar verme iştahının küresel olarak deregülasyona yönelik önemli bir siyasi değişimle azaltıldığını söyledi.
Düzenleyici “uyumluluğun şirketlerin güvenceyi benimsemeleri için bir motivasyon kaynağı olarak kaldırılacağı” siyasi bir bağlamda Ali, bir dizi mevcut uygulayıcıyla, piyasa kollarının ortaya çıkan AI güvence alanının profesyonelleşmesini teşvik etmek için hala nasıl kullanılabileceği hakkında konuştu.
“Pazar odaklı güçler, değerlendirilen ve düşük performans gösteren sistemlerden kaynaklanan itibar hasarını önlemek ve müşteri güvenini artırmak gibi, şirketlerin gönüllü olarak güvence benimsemeleri için ‘rekabet avantajı’ teşviki sağlayabilir” dedi.
“Benzer şekilde, güvence kabul etmek bireysel ve kurumsal yatırımcılara bir şirketin yüksek profilli veya yüksek maliyetli başarısızlık riskini anlamlı bir şekilde azalttığını gösterebilir. Bu stratejiler zaten işletmeler için teşvikler olarak mevcuttur ve AI güvencesinin profesyonelleştirilmesi bu hedefleri daha iyi destekleyebilir.”
Ali, “belirsiz siyasi ekonomik iklim” de ekledi, ayrıca AI güvencesinin neye benzediğine dair hem teknoloji hem de büyüyen kanıt gövdesinin yanında gelişebilen “uyarlanabilir çerçeveler” ihtiyacının altını çizdi.
ALI, güvence uygulayıcıları ve kuruluşları için önerilerinde, bu tür çerçevelerin genel olarak AI sistemleri ile daha dar bağlamlar için kullanılanlar arasında, her bir sistem türünü sağlamak için gereken pratik teknik ve yasal yeterlilikler arasında ve her birine uygulanması gereken standartları ayırt etmesi gerektiğini söyledi.
“AI güvencesinin profesyonelleşmesi için, alanın uygulayıcılarının paylaşması gereken temel bilgi ve uygulamaları tanımlaması gerekiyor,” diyerek, eğer bunlar çok dar veya katı bir şekilde tanımlanmışsa, tüm risk dizisini yakalayamayabileceklerini veya AI teknolojilerinin evrimine ayak uyduramayacaklarını da sözlerine ekledi.
“Bugün geçerli olan yeterlilikler, özellikle yeni yetenekler yeni riskler getirdikçe, gelişmekte olan sistemler için yetersiz olabilir. Aynı zamanda, uygulayıcıların bilmesi ve yapması gerektiğine dair bir anlaşma olmadan, alan uyumlu bir profesyonel kimlik oluşturmak için mücadele edecek.”
ALI ayrıca, güvence uygulayıcılarının şu anda AI sistemlerini değerlendirmek için evrensel olarak kabul edilen bir standartlara sahip olmamasına rağmen, bunları kimin belirlemesi gerektiğine dair bir fikir birliği olmadığını da sözlerine ekledi.
“Standartlar, apolitik bir süreç olmaktan çok, güvencenin neyi gerektirdiğini ve kimin tanımlayacağını etkilemek isteyen paydaşlar için bir fırsat sunuyor” dedi. “Birkaç farklı kuruluşun katılımcıları kendi kuruluşlarının standart gelişmeyi sağlamak için en iyi konumlandırıldığını öne sürdüğü için kanıtlarımız bu dinamiği yansıtıyordu.”
Yapay zeka odaklı düzenlemeler yerine ALI, hem yetkinliklerin hem de standartların potansiyel olarak AI güvenliği konusunda yenilik yapan şirketler tarafından nasıl yönlendirilebileceğini vurguladı.
“Bugün tüm otomotiv araçlarına evrensel olan ‘üç noktalı’ güvenlik emniyet kemerleri, 1959’da İsveç imalat şirketi Volvo’da bir mühendis tarafından tasarlandı. Volvo, kuruluşundan bu yana bir şirketin güvenlik kültürüne öncülük etmiş ve emniyet kemerinin tasarımına patent haklarından feragat etmişti” dedi.
“Endüstri üç noktalı kemer benimsemesi etrafında birleştikçe, düzenleme yanıt verdi: İngiltere’de otomobillerde emniyet kemeri üretimi 1965’te otomobil üreticileri için sırasıyla 1983 ve 1991’de sürücüler ve yolcular için yasa haline geldi… AI güvencesi için standart ve yöntemlerin geniş yayılması benzer faydalar sağlayabilir.”
ALI, bu örnek, dahili olarak tahrik edilen güvence uygulamalarının şirket seviyesinin ötesinde nasıl fayda ve etki yaratabileceğini gösterse de, Volkswagen emisyon skandalı, iç güvence standartlarının etik dışı uygulamaları badana için nasıl kullanılabileceğine bir örnek veriyor.
“Buna göre, güvence uygulamaları, güvencenin başarısız olduğu veya engellendiği durumlarda, işletmeleri, insanları ve toplumu zarardan korumak için hesap verebilirlik ve uygulama mekanizmaları tarafından desteklenmelidir” dedi.
Bununla birlikte, Ali’nin konuştukları, düzenleme olmadan ve özellikle de, kesin kasalar kuracak ve yasal düzeltme arayan kişileri destekleyecek olan AI için yükümlülük rejimleri, güvence uygulamalarını benimsemek için yeterli teşvik olmadığı da açıktı: “Sektörde çalışan bir görüşmeci, sektör profesyonel olmak için en basit yolun denetime geleceğini düşündü.”
Nihayetinde, profesyonelleşme hükümet eylemi veya piyasa teşvikleri tarafından isteniyor olsun, en fazla etkiye sahip olmak için her ikisinin de kullanılması gerekecektir.
ALI, “Sivil toplum, endüstri organları, uluslararası standart kalkınma organizasyonları ve ulusal politika yapıcılar da dahil olmak üzere AI güvencesinin profesyonelleştirilmesini desteklemek için çok ölçekli bir aktörler koalisyonunun işbirliği yapması için önemli bir fırsat olduğu sonucuna varıyoruz” dedi.
“Tartıştığımız gibi, bu tür çabalar, politika yapıcılar ve düzenleyicilerden destek gerektirecektir – örneğin, sertifikasyon planlarının alımını desteklemek için fonlama girişimleri veya sübvansiyonlar çıkaran politika yapıcılar.”
Kasım 2024’te İngiltere hükümeti, İngiltere’nin gelişen AI güvence sektörünü desteklemek için daha geniş bir zorlamanın bir parçası olarak, ülke genelindeki işletmelerin teknolojinin ortaya koyduğu potansiyel riskleri ve zararları tanımlamasına ve azaltmasına yardımcı olmak için tasarlanmış bir AI güvence platformu başlattı.
“AI Yönetim Temelleri [AIME] Özel sektör kuruluşlarının etik, sağlam ve sorumlu yapay zekanın geliştirilmesine katılmasını destekleyen basit, özgür bir örgütsel iyi uygulamanın temelini sağlayacaktır ”dedi.
“Öz değerlendirme aracına KOBİ’ler de dahil olmak üzere çok çeşitli kuruluşlar için erişilebilir olacak. Orta vadede, özel sektörde güvence tekniklerinin ve standartlarının benimsenmesini sağlamak için bunu hükümet tedarik politikasına ve çerçevelere yerleştirmeyi istiyoruz.”