Çalışanlar OpenAI’nin Muhabirleri Düzenleyicilerden Koruduğunu Söylüyor


Yapay Zeka ve Makine Öğrenmesi, Yönetim ve Risk Yönetimi, Yeni Nesil Teknolojiler ve Güvenli Geliştirme

Şikayet, SEC’in Muhalif Bildirim Uygulamaları ve Mali Ceza Soruşturmasını İstiyor

Rashmi Ramesh (raşmiramesh_) •
15 Temmuz 2024

Çalışanlar OpenAI'nin Muhabirleri Düzenleyicilerden Koruduğunu Söylüyor
Resim: Shutterstock

OpenAI’dan ihbarcıların, şirketin çalışanlarının yapay zeka teknolojisinin insanlık için potansiyel riskleri konusunda düzenleyicileri uyarmasını hukuka aykırı bir şekilde kısıtladığı gerekçesiyle ABD Menkul Kıymetler ve Borsa Komisyonu’na şikayette bulundukları bildirildi.

Ayrıca bakınız: Güvenlik Stratejinizdeki Boşlukları Kapatın

The Washington Post, SEC Başkanı Gary Gensler’e gönderilen yedi sayfalık bir mektuba atıfta bulunarak, muhbirlerin bu uygulamalara ilişkin bir soruşturma talep ettiğini bildirdi.

Çalışanlar, OpenAI’nin, çalışanların ihbarcı tazminatlarına ilişkin federal haklarından feragat eden ve federal yetkililere bilgi açıklamadan önce şirketin onayını almalarını gerektiren aşırı kısıtlayıcı istihdam, tazminat ve gizlilik anlaşmaları dayattığını iddia ediyor.

İhbarcılar, anlaşmaların, şirket suistimallerini misilleme korkusu olmadan anonim olarak bildirmek isteyenleri korumak için tasarlanmış federal yasaları ihlal ettiğini söyledi.

“Bu sözleşmeler ‘çalışanların federal düzenleyicilerle konuşmasını istemiyoruz’ mesajını gönderdi,” dedi bir ihbarcı The Washington Post’a anonim olarak, misilleme korkusunu dile getirerek. “Yapay zeka şirketleri kendilerini incelemeden ve muhalefetten korurlarsa güvenli ve kamu yararına olan teknolojiyi inşa edemezler.”

OpenAI sözcüsü Hannah Wong iddiaları reddederek şirketin “bu teknoloji hakkında sıkı bir tartışmanın gerekli olduğuna inandığını ve karalama içermeyen terimleri kaldırmak için ayrılma sürecimizde önemli değişiklikler yaptığını” söyledi.

Haber, OpenAI’nin federal kolluk kuvvetlerine bir veri ihlali bildirmediği veya haberi kamuoyuna duyurmadığı yönündeki son iddiaların ardından geldi. Şirket, hiçbir müşteri bilgisinin çalınmadığına ve olayın ulusal güvenlik tehdidi oluşturmadığına inandığını söyledi. Bazı çalışanlar bu açıklamayı eleştirerek OpenAI’nin siber güvenliğe olan bağlılığı ve Çin gibi rakip ülkelerin AI bilgilerini çalma potansiyeli konusunda endişelerini dile getirdi (bkz: OpenAI 2023 İhlalini Federal Hükümete ve Kamuoyuna Açıklamadı: Rapor).

OpenAI kâr amacı gütmeyen bir kuruluş olarak kuruldu ancak hızla büyüyen bir ticari işletmeyi kontrol ediyor. Eleştirmenler, OpenAI’nin güvenlikten çok kârı önceliklendirebileceği konusunda endişelerini dile getirdiler. Şirketin, çalışanların yetersiz güvenlik testleri konusundaki endişelerine rağmen, ChatGPT’yi destekleyen en son AI modelinin Mayıs ayındaki son teslim tarihine yetişmesi için piyasaya sürülmesini hızlandırdığı bildirildi; bu, Beyaz Saray’a teknolojisinin kötüye kullanılamayacağından emin olmak için yeni sürümleri titizlikle güvenlik testine tabi tutma sözü vermesinden sadece birkaç ay sonraydı. Şirket, AI sistemlerinin kontrolden çıkmasını önlemeye adanmış “süper hizalama” güvenlik ekibini dağıttıktan sonra, Mayıs ayında tüm projeleri için “kritik” güvenlik ve emniyet kararları almak üzere bir komite bile kurdu (bkz: OpenAI, ‘Felaket Risklerini’ Azaltmak İçin Çerçeve Oluşturuyor.)

Süper hizalama güvenlik ekibinin liderleri – OpenAI kurucu ortağı İlya Sutskever ve Jan Leike – güvenlik yaklaşımındaki anlaşmazlıkları nedeniyle şirketten ayrıldılar, aynı şekilde politika araştırmacısı Gretchen Krueger de istifa etti.

Hem Sutskever hem de Leike, şirketin ve teknolojinin karşı karşıya olduğu uzun vadeli güvenlik risklerini ele almak için çalıştı ve Leike, sosyal medyada yaptığı bir paylaşımda OpenAI’nin süper hizalama güvenlik ekibine verdiği desteğin eksikliğini eleştirdi. Leike, “Geçtiğimiz yıllarda güvenlik kültürü ve süreçleri parlak ürünlere göre ikinci planda kaldı,” dedi. Sutskever, Kasım ayında Sam Altman’ı OpenAI’den alıp beş gün sonra CEO olarak yeniden göreve başlayan yönetim kurulu üyeleri arasındaydı. Krueger, diğer iki meslektaşından birkaç saat önce istifa etmeye karar verdiğini, çünkü onların güvenlik endişelerini paylaştığını söyledi.

Senatör Chuck Grassley, Post’a yaptığı açıklamada, “OpenAI’nin politikaları ve uygulamaları, ihbarcıların konuşma ve korunan ifşaları için gereken tazminatı alma hakları üzerinde caydırıcı bir etki yaratıyor gibi görünüyor.” dedi.

ABD’deki AI şirketlerinin odaklanmış düzenleyici çerçeveleri yok, bu da düzenleyicileri bilgilendirmek için ihbarcıların rolünü daha da önemli hale getiriyor. ABD Dışişleri Bakanlığı tarafından görevlendirilen bir raporda, “Mevcut sınır AI gelişimi ulusal güvenlik için acil ve artan riskler oluşturuyor. Gelişmiş AI ve yapay genel zekanın yükselişi, nükleer silahların tanıtılmasına benzer şekillerde küresel güvenliği istikrarsızlaştırma potansiyeline sahip” denildi.

Muhalifler, SEC’den OpenAI’nin gizlilik maddeleri içeren tüm istihdam, kıdem tazminatı ve yatırımcı sözleşmelerini incelemeye sunmasını ve tüm geçmiş ve mevcut çalışanları şikayetlerini gizlilik içinde yapma hakları konusunda bilgilendirmelerini istedi. Ayrıca SEC’den OpenAI’yi her uygunsuz sözleşme için cezalandırmasını istediler.





Source link