ABD Yapay Zeka Güvenlik Kurumu, OpenAI’nin Yeni Modeline Erken Erişim Sağlayacak


Yapay Zeka ve Makine Öğrenmesi, Yeni Nesil Teknolojiler ve Güvenli Geliştirme

OpenAI Daha Önce Güvenlikten Çok Karı Önceliklendirmek Nedeniyle Eleştirilmişti

Rashmi Ramesh (raşmiramesh_) •
2 Ağustos 2024

ABD Yapay Zeka Güvenlik Kurumu, OpenAI'nin Yeni Modeline Erken Erişim Sağlayacak
OpenAI, bir sonraki temel modelini ABD Yapay Zeka Güvenlik Enstitüsü’ne açıkladı. (Görsel: Shutterstock)

OpenAI’nin kurucusu Sam Altman, Perşembe günü yaptığı açıklamada, teknolojinin güvenliğini değerlendiren bir ABD federal kurumuna bir sonraki yapay zeka temel modeline erken erişim sağlamaktan “heyecan duyduğunu” söyledi.

Ayrıca bakınız: İsteğe Bağlı | Elastic ve Google Cloud ile AI destekli güvenlik analitiğiyle SOC’nizi hızlandırın

Altman’ın X’te, eski adıyla Twitter’da, şirketin ABD AI Güvenlik Enstitüsü ile “AI değerlendirmelerinin bilimini ilerletmek” için yaptığı anlaşma hakkında yaptığı paylaşım ayrıntılar açısından yetersizdi. En son anlaşma ve buna benzer bir anlaşma yapılmış Birleşik Krallık ile yapılan anlaşmanın, şirketin güvenlikten çok güçlü ve karlı bir yapay zeka teknolojisi geliştirmeye öncelik verdiği yönündeki eleştirilere yanıt olduğu anlaşılıyor.

Duyuru, OpenAI’nin Yapay Zeka Güvenlik Enstitüsü’ne yapay zeka modelleri için standartlar ve yönergeler belirleme yetkisi veren Yeniliğin Geleceği Yasası adlı bir Senato tasarısını onaylamasının hemen ardından geldi. OpenAI’nin küresel işler başkan yardımcısı Anna Makanju, Çarşamba günü LinkedIn’de yaptığı paylaşımda “ABD Yapay Zeka Güvenlik Enstitüsü’nün bu yeni alanda küresel lider olmasını istiyoruz ve diğer ülkelerdeki meslektaşlarıyla büyüyen iş birliğini memnuniyetle karşılıyoruz” dedi.

Şirketin, çalışanların yetersiz güvenlik testleri konusundaki endişelerine rağmen, ChatGPT’yi destekleyen en son yapay zeka modelinin Mayıs ayındaki son teslim tarihine yetişmesi için çalışmalarını hızlandırdığı bildiriliyor. Şirket, Beyaz Saray’a teknolojisinin kötüye kullanılamayacağından emin olmak için yeni sürümleri sıkı bir güvenlik testinden geçireceğine dair söz verdikten sadece birkaç ay sonra bunu başardı.

OpenAI’nin güvenliğe yaklaşımına yönelik eleştiriler, şirketin AI sistemlerinin kontrolden çıkmasını önlemek için kurulan bir “süper hizalama” güvenlik ekibini dağıtması ışığında da geliyor. Ekibin liderleri, OpenAI’nin kurucu ortağı İlya Sutskever ve Jan Leike, güvenliğe yönelik yaklaşımıyla ilgili anlaşmazlıkları nedeniyle şirketten ayrıldı, politika araştırmacısı Gretchen Krueger de öyle. Hem Sutskever hem de Leike, şirketin ve teknolojinin karşı karşıya olduğu uzun vadeli güvenlik risklerini ele almak için çalıştı ve Leike, bir sosyal medya gönderisinde OpenAI’nin süper hizalama güvenlik ekibine verdiği desteğin eksikliğini eleştirdi.

Leike o zamanlar “Geçtiğimiz yıllarda güvenlik kültürü ve süreçleri parlak ürünlere göre ikinci planda kaldı” demişti. Sutskever, Kasım ayında Sam Altman’ı OpenAI’den alıp beş gün sonra CEO olarak yeniden göreve getiren yönetim kurulu üyeleri arasındaydı. Krueger, diğer iki meslektaşından birkaç saat önce istifa etmeye karar verdiğini, çünkü onların güvenlik endişelerini paylaştığını söyledi.

Geçtiğimiz ay, şirketin, bir bilgisayar korsanının iç mesajlaşma sistemlerine girerek yeni teknolojilere ilişkin bilgileri çaldığı bildirilen bir veri ihlalini açıklamadığı ortaya çıkmıştı.

Altman son gönderisinde OpenAI’nin ayrıca çalışanların federal yetkililere bilgi ifşa etmeden önce şirketin onayını almasını gerektiren aşırı kısıtlayıcı ihbarcı politikasını da ortadan kaldıracağını söyledi. Şirketin ihbarcılarının geçen ay ABD Menkul Kıymetler ve Borsa Komisyonu’na yazdıkları yedi sayfalık mektupta şirketin çalışanların düzenleyicileri AI teknolojisinin insanlık için potansiyel riskleri konusunda uyarmasını yasadışı bir şekilde kısıtladığını iddia ederek şikayette bulundukları bildirildi.

Altman, “Mevcut ve eski çalışanların endişelerini dile getirebilmelerini ve bunu yaparken kendilerini rahat hissetmelerini istiyoruz. Bu her şirket için çok önemli, ancak bizim için özellikle önemli ve güvenlik planımızın önemli bir parçası,” dedi. Şirket, Mayıs ayında mevcut ve eski çalışanlar için karalama yapmama şartlarını ve OpenAI’ye devredilmiş sermayeyi iptal etme hakkı veren hükümleri iptal etti, bu seçeneğin “asla kullanılmadığını” söyledi.

Altman, OpenAI’ın hesaplama gücünün %20’sini güvenlik araştırmalarına ayıracağını da sözlerine ekledi. Bu, dağılan güvenlik ekibinin verdiği bir sözdü ancak yerine getirilmedi.





Source link