Open AI, şirket direktörleri Bret Taylor, Adam D’Angelo, Nicole Seligman ve CEO Sam Altman tarafından yönetilen bir emniyet ve güvenlik komitesi oluşturuyor.
Komite, tüm yönetim kuruluna tavsiyelerde bulunmak üzere oluşturuluyor güvenlik önlemleri ve güvenlik kararları için OpenAI projeleri ve operasyonları.
onun içinde komitenin duyurulmasıOpenAI bunun başladığını kaydetti bir sonraki yinelemeyi eğitmek ChatGPT’nin temelini oluşturan geniş dil modelinin, yapay zeka güvenliği konusunda “bu önemli anda güçlü bir tartışmayı memnuniyetle karşıladığını” belirtti.
Grup ilk olarak önümüzdeki 90 gün boyunca şirketin süreçlerini ve güvenlik önlemlerini değerlendirmek ve geliştirmekle görevlendirilecek; ardından komite, tavsiyelerini kamuoyuyla paylaşılmadan önce gözden geçirilmek üzere yönetim kuruluyla paylaşacak.
Komitenin oluşumu, eski bir OpenAI güvenlik yöneticisi olan Jan Leike’nin, güvenlik çalışmalarına yeterince yatırım yapılmadığı yönündeki eleştiriler ve liderlikle yaşanan gerilimler nedeniyle şirketten istifa etmesinden sonra geldi. Bu aynı zamanda “süper hizalama” güvenlik gözetim ekibinin üyeleriyle birlikte dağıtılmasının ardından geldi. başka bir yere atandı.
Siber güvenlik uzmanı ve girişimci Ilia Kolochenko, şirketteki bu değişikliğin sonuçta topluma nasıl fayda sağlayacağı konusunda şüpheleri artırıyor.
“Bu hamle kesinlikle memnuniyetle karşılansa da, topluma nihai faydası büyük ölçüde belirsiz. Yapay zeka modellerini güvenli hale getirmeÖrneğin, bunların kötüye kullanımını veya tehlikeli halüsinasyonları önlemek çok önemlidir” diyor Kolochenko. “Ancak güvenlik, GenAI tedarikçilerinin ele alması gereken birçok risk yönünden sadece bir tanesidir. … Güvende olmak mutlaka güvende olmak anlamına gelmez doğru, güvenilir, adil, şeffaf, açıklanabilir ve ayrımcı olmayan — GenAI çözümlerinin kesinlikle önemli özellikleri.”