Güvenlik Kaygıları ve OpenAI’nin Kâr Amaçlı Planına Geri Dönme


Rakipler Yeniden Yapılanmanın OpenAI’nin Güvenlik Taahhütlerini Baltalayacağını Söylüyor

Rashmi Ramesh (raşmiramesh_) •
31 Aralık 2024

Güvenlik Kaygıları ve OpenAI'nin Kâr Amaçlı Planına Geri Dönme
Resim: Shutterstock

OpenAI’nin kâr amacı güden bir şirkete dönüşme girişimi, geçişin teknoloji devinin yapay zeka geliştirme ve dağıtımını güvence altına alma taahhüdünü “baltalayacağını” iddia eden rakiplerin ve yapay zeka güvenlik aktivistlerinin muhalefetiyle karşı karşıya.

Ayrıca bakınız: Active Directory Güvenliği Operasyonel Dayanıklılığı Nasıl Artırır?

Kâr amacı gütmeyen kuruluş Encode, Cuma günü ABD Kaliforniya Kuzey Bölgesi Bölge Mahkemesinden, Elon Musk’un OpenAI’nin planlanan geçişini önlemek için ihtiyati tedbir talebini destekleyen bir dost brifingi sunmasına izin vermesini talep etti (bkz: OpenAI Çıkışları, Randevuları ve Yeni Kurumsal Model.

Gönüllü ağı Encode, Kaliforniya Valisi Gavin Newsom tarafından veto edilen yapay zeka güvenlik tasarısının destekçisidir ve Beyaz Saray’ın Yapay Zeka Hakları Bildirgesi’ne ve Başkan Joe Biden’ın Yapay Zeka yönetim emrine katkıda bulunmuştur.

Kâr amacı gütmeyen günlerinde OpenAI’ye ilk katkıda bulunanlardan biri olan Musk, Kasım ayında şirketi rekabet karşıtı olmakla ve hayırseverlik misyonunu terk etmekle suçlayarak, geçişin ölçeğini küçültmesini talep eden bir dava açtı. OpenAI, Musk’ın iddiasını bir ekşi üzüm vakası olarak nitelendirdi.

Encode’un geçen hafta sonlarına doğru sunduğu brifingde, Musk’un ihtiyati tedbir dilekçesini desteklemeye çalıştığı, çünkü OpenAI’nin kâr amacı güden bir şirket haline gelmesinin “dönüştürücü teknolojiyi kamu için güvenli ve faydalı bir şekilde” geliştirme ve dağıtma misyonunu “zayıflayacağı” söylendi.

“OpenAI ve CEO’su Sam Altman, toplumu dönüştüren teknolojiyi geliştirdiklerini iddia ediyor ve bu iddiaların ciddiye alınması gerekiyor” dedi. “Eğer dünya gerçekten yeni bir genel yapay zeka çağının eşiğindeyse, o zaman halkın, bu teknolojinin, yasal olarak güvenliğe ve kamu yararına öncelik veren bir kuruluştan ziyade, kamuya ait bir hayır kurumu tarafından kontrol edilmesinde derin bir çıkarı vardır.” birkaç ayrıcalıklı yatırımcı için finansal getiriler.”

OpenAI, 2015 yılında kar amacı gütmeyen bir araştırma laboratuvarı olarak kuruldu, ancak önemli miktarda fon gerektiren projeleri finanse etmek için hibrit bir yapıya geçti. Kar amacı gütmeyen gözetimi sürdürürken Microsoft dahil şirketlerin yatırımlarına izin veren bir “sınırlandırılmış kar” modelini benimsedi. Kuruluş şimdi kar amacı gütmeyen bölümünü, adi hisse senetleri ihraç edecek bir Delaware kamu yararına çalışan şirkete dönüştürmeyi planlıyor. Kâr amacı gütmeyen şube varlığını sürdürecek olsa da OpenAI, PBC’deki sahiplik hisseleri için kontrolünü elinde bulunduracak.

Encode’un avukatları, OpenAI’nin AGI’ye yaklaşan “değer odaklı, güvenlik bilincine sahip projelerle” rekabet etmeme sözü veren kar amacı gütmeyen bölümünün, kar amacı gütmeyen yapı kapsamında bu tür taahhütler için motivasyonunu kaybedebileceğini savundu. Encode’un brifinginde, şirket yönetim kurulu üyelerinin güvenlik nedeniyle yatırımcı özsermayesini iptal etme yetkisinin de yeniden yapılandırmanın ardından ortadan kaldırılacağı belirtildi.

“Güvenlik odaklı, misyonu kısıtlı, kâr amacı gütmeyen bir kuruluşun, bu kadar dönüştürücü bir şeyin kontrolünü, ne pahasına olursa olsun, güvenlik konusunda uygulanabilir bir taahhüdü olmayan kâr amaçlı bir kuruluşa bırakması, kamu çıkarına zarar verecektir” dedi.

Diğer şirketler de geçişi engellemeye çalıştı.

Bu ayın başlarında Meta’nın Kaliforniya başsavcısı Rob Bonta’ya yazdığı ve dönüşümün “Silikon Vadisi için sismik etkileri” olacağını söylediği bildirildi.

OpenAI’nin üst düzey yöneticilerinin birçoğu, şirketin güvenlikten ziyade kâra öncelik vermesiyle ilgili endişeleri gerekçe göstererek şirketten ayrıldı.

Şirket, yapay zeka sistemlerinin kötüye gitmesini önlemeye adanmış “süper hizalama” güvenlik ekibini dağıttıktan sonra Mayıs ayında tüm projeleri için “kritik” emniyet ve güvenlik kararları verecek bir komite kurdu (bkz: OpenAI ‘Felaket Risklerini’ Azaltacak Çerçeveyi Formüle Ediyor).

OpenAI kurucu ortakları İlya Sutskever ve Jan Leike, politika araştırmacısı Gretchen Krueger gibi güvenlik yaklaşımı konusundaki anlaşmazlıkları nedeniyle şirketten ayrıldı. Hem Sutskever hem de Leike, OpenAI’nin artık dağılmış olan süper hizalama güvenlik ekibinin bir parçasıydı ve şirketin ve teknolojinin karşı karşıya olduğu uzun vadeli güvenlik risklerini ele almak için çalışıyordu. Krueger, güvenlik endişelerini paylaştığı için diğer iki meslektaşından birkaç saat önce istifa etmeye karar verdiğini söyledi.

Leike bir sosyal medya gönderisinde OpenAI’nin süper hizalama güvenlik ekibine destek vermemesini eleştirdi. Leike, “Geçtiğimiz yıllarda güvenlik kültürü ve süreçleri parlak ürünlerin gerisinde kaldı” dedi.

Ekim ayında şirketten ayrılan politika araştırmacısı Miles Brundage, sosyal medyada OpenAI’nin kar amacı gütmeyen kuruluşunun “ek bir konu” haline gelmesinden endişe duyduğunu söyledi.

OpenAI’nin kar amacı güden bir şirket olarak faaliyet göstermesine izin verilirse Encode, Sam Altman liderliğindeki firmanın “insanlığa karşı vaaz edilen vekalet görevinin buharlaşacağını, çünkü Delaware yasasının PBC yöneticilerinin kamuya karşı hiçbir görevi olmadığının açık olduğunu” söyledi. “





Source link