Güvenlik şirketleri, gelişmiş yapay zekadan (AI) yararlanan ürün ve özellikler yayınlamaya devam ederken bile, araştırmacılar bu tür teknolojinin yarattığı güvenlik açıkları ve tehlikeler konusunda uyarılarda bulunmaya devam ediyor. Ulusal Standartlar ve Teknoloji Enstitüsü (NIST), üretken yapay zekanın özellikle daha güvenli bir şekilde nasıl uygulanacağına ilişkin rehberliğin formüle edilmesine yardımcı olmak için yeni bir çalışma grubu kurulduğunu duyurdu.
AI Risk Yönetimi Çerçevesinin (AI RMF 1.0) Ocak ayında yayınlanmasının ve Güvenilir ve Sorumlu Yapay Zeka Kaynak Merkezinin Mart ayında piyasaya sürülmesinin ardından NIST, çerçevenin yeni sistemlere nasıl uygulanacağını ele almak için 22 Haziran’da Üretken Yapay Zeka üzerine Kamu Çalışma Grubunu başlattı. uygulamalar. Grup, çalışmalarına yapay zeka kullanım senaryoları için bir profil geliştirerek başlayacak, ardından üretken yapay zekayı test etmeye geçecek ve sağlık, iklim değişikliği ve diğer çevresel kaygılardaki küresel sorunları ele almak için nasıl kullanılabileceğini değerlendirerek bitirecek.
Üretken yapay zeka, son zamanlarda, özellikle de ChatGPT’nin Kasım ayında piyasaya sürülmesinden bu yana en son teknolojiyi halkın gözüne soktuğundan beri bir deney, endişe ve yoğun ticari ilgi kaynağı oldu. NIST, çalışma grubunun geliştirici ve güvenlik topluluğunun mevcut sıcaklığını almasını sağlamak için 11 Ağustos’ta Las Vegas’ta düzenlenecek DEF CON 2023’te AI Village’a katılacağını söyledi.
NIST üretken AI çalışma grubu hakkında daha fazla bilgi, endüstri figürleriyle bir dizi görüntülü görüşme de dahil olmak üzere web sitesinde mevcuttur. Ulusal Yapay Zeka Danışma Komitesi’nin yeni 1. Yıl Raporu’nun tamamını okumak için NAIAC sitesini ziyaret edin.