Surrey Üniversitesi’ndeki araştırmacılar, üretken yapay zeka sistemlerine artan küresel ilgiye yanıt olarak, bir yapay zeka (AI) sisteminin bir kuruluşun dijital veri tabanından elde ettiği veri miktarını değerlendirebilen bir yazılım geliştirdi.
Bu doğrulama yazılımı, bir şirketin çevrimiçi güvenlik protokolünün bir parçası olarak kullanılabilir ve bir kuruluşun bir yapay zekanın çok şey öğrenip öğrenmediğini ve hatta hassas verilere erişip erişmediğini anlamasına yardımcı olur.
Yazılım ayrıca, yapay zekanın yazılım kodundaki kusurları tespit edip etmediğini ve bu kusurlardan yararlanıp yararlanamayacağını belirleme yeteneğine de sahiptir. Örneğin, bir çevrimiçi oyun bağlamında, bir yapay zekanın bir kodlama hatasından yararlanarak çevrimiçi pokerde her zaman kazanmayı öğrenip öğrenmediğini belirleyebilir.
“Birçok uygulamada, yapay zeka sistemleri birbirleriyle veya insanlarla, örneğin otobanda sürücüsüz arabalar veya hastane robotları ile etkileşime giriyor. Surrey Üniversitesi’nde gizliliğin resmi olarak doğrulanmasında Araştırma Görevlisi ve baş yazarı Dr. kağıt.
“Doğrulama yazılımımız, yapay zekanın etkileşimlerinden ne kadar öğrenebileceğini, başarılı işbirliğini sağlayacak yeterli bilgiye sahip olup olmadıklarını ve mahremiyeti bozacak çok fazla bilgiye sahip olup olmadıklarını anlayabilir. AI’nın öğrendiklerini doğrulama yeteneği sayesinde, kuruluşlara AI’nın gücünü güvenli ayarlara güvenli bir şekilde salıverme konusunda güven verebiliriz” diye ekledi Rajaona.
Surrey Üniversitesi İnsan Merkezli Yapay Zeka Enstitüsü Direktörü Profesör Adrian Hilton şunları söyledi:
“Geçtiğimiz birkaç ay içinde, ChatGPT gibi büyük dil modellerindeki gelişmelerin körüklediği üretken yapay zeka modellerine yönelik kamu ve sektör ilgisinde büyük bir artış oldu. Üretken yapay zekanın performansını doğrulayabilen araçların oluşturulması, bunların güvenli ve sorumlu dağıtımını desteklemek için çok önemlidir. Bu araştırma, eğitimde kullanılan veri setlerinin gizliliğini ve bütünlüğünü korumaya yönelik önemli bir adımdır.”