NSW hükümeti, AI risk değerlendirme çerçevesini güncelleyerek departmanların ve kurumların eyaletin “daha net rehberliğine” dayalı daha katı bir karar alma sürecine uymasını zorunlu kıldı.

NSW Yapay Zeka Ofisi yaptığı açıklamada, yeni değerlendirme çerçevesinin “uzun, öznel öz değerlendirmelerin yerini daha hızlı, standartlara uygun bir yaklaşımla değiştirdiğini” söyledi.
Yaklaşım, devletin uygulamalarını diğer ulusal ve uluslararası organlarla uyumlu hale getirir.
Ayrıca departmanlara ve kurumlara, riske göre uygun gözetim seviyelerini “otomatik olarak” belirleyen bir değerlendirme süreci sağlayarak, düşük riskli dağıtımlar için onayları hızlandırabilir.
NSW Müşteri Hizmetleri ve Dijital Hükümet Bakanı Cihad Dib, yapay zeka kullanımının devlet daireleri ve kurumları genelinde “her zamanki gibi iş” haline gelmesi nedeniyle çerçevenin hayati önem taşıyacağını söyledi.
Dib, “Yapay zeka devlet hizmetlerini dönüştürebilir, ancak onu güvenli bir şekilde kullanma sorumluluğumuz var” dedi.
“Sistemimizi ulusal ve uluslararası standartlarla uyumlu hale getirerek gelecek için güvenilir bir dijital hükümet inşa ediyoruz.”
Yeni çerçevenin yayınlanmasını desteklemek için eyalet, departmanların ve kurumların değerlendirme yürütmesine yardımcı olmak üzere tasarlanmış Excel elektronik tablo modeli biçiminde bir araç yayınladı.
NSW hükümeti, CSIRO’nun Data61’iyle birlikte tasarlanan yeni aracın, departmanların yapay zeka dağıtımlarını gerekli koruma düzeyini belirleyen risk kategorilerine hızla kategorize etmesine yardımcı olacağını söyledi.
NSW Yapay Zeka Ofisi, “Düşük riskli sistemlerin süreçte hızlı bir şekilde ilerleyebilmesi sayesinde değerlendirme süresini günlerden 30 dakikanın altına indirirken, yüksek riskli veya kritik sistemler incelenmek üzere otomatik olarak belirleniyor” dedi.
Düşük riskli sistemler değerlendirme süreci boyunca hızla ilerleyebilirken, yüksek riskli uygulamalar zorunlu incelemeleri ve önlemleri tetikler.
Buna karşılık, hassas kişisel bilgileri toplayan veya tavsiyeleri etkileyen, halka açık yapay zeka sohbet robotları, yeni sistem kapsamında otomatik olarak yüksek riskli olarak sınıflandırılıyor.
Bu tür uygulamalar, devreye alınmadan önce zorunlu gizlilik etki değerlendirmelerini, siber güvenlik incelemelerini, yasal incelemeleri ve erişilebilirlik gereksinimlerini tetikler. Ayrıca bağımsız denetim için Yapay Zeka İnceleme Komitesine sunulurlar.
Ofis, çerçevenin, “önyargı testleri, erişilebilirlik kontrolleri ve insan hakları taraması da dahil olmak üzere daha sıkı kontrollere olan ihtiyacı artırabilecek faktörleri belirleyerek güvenliği artıracağını, yani uygun önlemlerin konuşlandırmadan önce uygulanabileceği anlamına geldiğini” söyledi.
iTnews Kapsam, risk ve özelliklerinde önceki değerlendirmeden bu yana büyük bir değişiklik olmaması koşuluyla, mevcut yapay zeka dağıtımlarının yeni çerçeve kapsamında yeniden değerlendirilmesinin gerekmeyeceğini anlıyor.