Yapay Zeka ve Makine Öğrenimi , Coğrafi Odak: Birleşik Krallık , Jeo-Spesifik
Birleşik Krallık Düzenleyicisi, ML ve NLP Araçlarının Gerekenden Daha Fazla Kişisel Bilgi Topladığını Açıkladı
Akşaya Asokan (asokan_akshaya) •
8 Kasım 2024
Birleşik Krallık Bilgi Komiserliği Ofisi, Birleşik Krallık’taki kuruluşlar tarafından iş başvurusunda bulunanları taramak için halihazırda kullanılan yapay zeka araçlarının gizlilik riskleri oluşturduğunu ve önyargı ve doğruluk sorunlarına duyarlı olduğunu tespit etti.
Ayrıca bakınız: İşletmenizin Başarısını Artırmaya Yönelik Varsayılan Olarak Güvenli Strateji
Veri düzenleyici, bir adayın bir işe olan ilgisini tahmin etmek, iş arayanların yetkinliklerini puanlamak ve kayıtlı video röportajlarında görünen adayların dilini ve üslubunu analiz etmek gibi işe alım amacıyla kullanılan yapay zeka araçlarını denetledikten sonra sorunları ortaya çıkardı.
Çalışma esas olarak makine öğrenimi ve doğal dil işleme ile geliştirilen yapay zeka çözümlerine odaklandı ve üretken yapay zeka destekli çözümleri içermiyordu. Yapay zeka sistemleri, işletmelerin büyük veri yığınlarını daha verimli bir şekilde işlemesine yardımcı oluyor ancak ICO’nun analizi, işe alım amacıyla kullanılan modellerin “insanlara ve onların mahremiyetine yönelik doğal riskler” taşıdığını ortaya çıkardı.
ICO, “Denetimlerimiz veri koruma uyumluluğu ve gizlilik risklerinin yönetiminde iyileştirilecek alanlar buldu” dedi. “Doğruluk testinin eksik olduğu örneklere tanık olduk. Ayrıca bazı araçlardaki özellikler ayrımcılığa yol açabilir.”
Gizlilik açısından ICO, yapay zeka geliştiricilerinin bazı durumlarda yapay zeka çözümlerini eğitmek için ihtiyaç duyduklarından daha fazla veri kullandığını söyledi. ICO, örneğin, bazı yapay zeka geliştiricilerinin, aday veritabanını tutarken, adayların adları ve iletişim bilgilerine ek olarak fotoğraflar gibi daha az önemli verileri topladığını ve işlediğini söyledi.
Bu veritabanları aynı zamanda sosyal medya ve iş ağı sitelerinden alınan geniş bir kişisel bilgi yelpazesini de içeriyordu. ICO, diğer bazı durumlarda şirketlerin başka çözümler geliştirmek için kişisel verileri anonimleştirdiğini söyledi.
Bu kişisel bilgiler, Birleşik Krallık Genel Veri Koruma Yönetmeliği kapsamında temel bir gizlilik gerekliliği olan iş adaylarının yeterli izni olmadan işlendi.
Raporda ayrıca yapay zeka geliştiricilerinin araçlarının sonuçlarını doğrulamak için uygun değerlendirme metriklerini kullanmamalarından veya eğitim verilerini test verilerinden ayırmamalarından kaynaklanan doğruluk ve önyargı sorunlarına da değinildi.
Şirketler, modellerin çeşitli verilere erişimini sağlamak için örnekleme tekniklerini uygulama konusunda başarısız olduğunda, yapay zeka çözümleri, adayların filtrelenmesi ve bireylerin cinsiyet ve etnik kökenlerinin çıkarılması dahil olmak üzere taraflı sonuçlar doğurdu. ICO, “Bu çıkarılan bilgi, önyargıyı etkili bir şekilde izlemek için yeterince doğru değil” dedi.
Düzenleyici, yapay zeka modeli geliştiricilerinin Birleşik Krallık GDPR’ye uymasına ve doğruluk ve model yanlılığını ele almasına yardımcı olmak için takma ad verilmiş kişisel bilgiler kullanan yapay zeka araçları geliştirmek, yapay zekayı eğitmek ve test etmek için veri kümelerini en aza indirmek, kişisel bilgilerin saklama süresi sona erdiğinde silinmesi ve geçerliliğinin değerlendirilmesi dahil olmak üzere çeşitli adımlar önerdi. ve eğitim verilerinin doğruluğu.
Yapay Zeka Zorluklarının Ele Alınması
ICO raporu, iş arayanların gizlilik haklarını korumaya yönelik olumlu bir adım olsa da, Birleşik Krallık’ta yapay zekaya dayalı işe alımları denetleyecek sektöre özgü bir düzenleyicinin bulunmaması bir sorundur ve hükümetin acilen ele alması gereken potansiyel bir politika boşluğudur. Bağımsız bir yapay zeka araştırma kuruluşu olan Ada Lovelace Enstitüsü’nün direktör yardımcısı Michael Birtwistle şöyle konuştu:
Birtwistle, “Bu, yalnızca mevcut düzenleyicilere dayanan yapay zekayı düzenlemeye yönelik herhangi bir yaklaşımda endişe verici bir boşluk bırakıyor. Bu aynı zamanda, özellikle otomatik karar alma konusunda veri koruma yasasındaki mevcut önlemlerin önemini de vurguluyor.” dedi.
Dijital haklar örgütü Big Brother Watch’un hukuk ve politika sorumlusu Susannah Copson, ICO raporunun “veriye aç sistemlerin” veri koruma kurallarını aşma girişimlerini vurguladığını söyledi.
Copson, Birleşik Krallık hükümetinin önyargı ve mahremiyet risklerini ele almak için algoritmik etki değerlendirmeleri gibi AI şeffaflığını ve hesap verebilirlik önlemlerini acilen uygulaması gerektiğini söyledi. “Bu tür adımlar, iş adaylarının ve işe alım görevlilerinin hatalı algoritmaların kurbanı olmasını önlemek için gereklidir” diye ekledi.
Muhafazakar hükümet daha önce Birleşik Krallık’ta bağlayıcı bir yapay zeka düzenlemesi getirmeyeceğini belirtmiş olsa da, Çarşamba günü yeni seçilen Çalışma Teknolojileri Bakanı Peter Kyle, hükümetinin büyük olasılıkla gelecek yıl yapay zeka güvenlik kurallarını uygulamaya koyacağını söyledi.