Yapay zeka firmalarına risk bilgilerini gönüllü olarak paylaşma konusunda güvenilemez


Mevcut ve eski çalışanlar, ihbarcıların daha fazla korunması için açık çağrıda bulunurken, yapay zeka (AI) şirketlerinin sistem yetenekleri ve riskleri hakkında gönüllü olarak bilgi paylaşma konusunda güvenilemeyeceğini söylüyorlar.

Seul’deki ikinci küresel Yapay Zeka Zirvesi sırasında 16 şirket, örneğin sürecin her aşamasında modellerinin oluşturduğu riskleri değerlendirerek teknolojiyi nasıl güvenli bir şekilde geliştireceklerine ilişkin gönüllü bir dizi önlem olan Sınır Yapay Zeka Güvenlik Taahhütlerini imzaladı. En ciddi tehditlerle başa çıkmak için kabul edilemez risk eşikleri belirleyerek ve tüm risk değerlendirme süreci boyunca kamuya açık şeffaflık sağlayarak tüm yapay zeka yaşam döngüsünü yönetiriz.

Temel gönüllü taahhütlerden biri kapsamında şirketler, risklerin yeterince azaltılamaması durumunda yapay zeka sistemleri geliştirmeyeceklerini veya dağıtmayacaklarını da söyledi.

Ancak zirvenin üzerinden iki haftadan kısa bir süre geçtikten sonra OpenAI, Anthropic ve DeepMind’den (ilk ikisi Seul’de güvenlik taahhütlerini imzalayan) mevcut ve eski çalışanlardan oluşan bir grup, mevcut gönüllü düzenlemelerin etkili bir gözetim sağlamak için yeterli olmayacağını söyledi. Yapay zeka geliştiren şirketlerin

Şirketlerin, hükümetlerin ve diğer yapay zeka uzmanlarının yanı sıra, teknolojinin yarattığı açık riskleri kabul ettiklerini de sözlerine eklediler; bu riskler “mevcut eşitsizliklerin daha da derinleşmesi, manipülasyon ve yanlış bilgilendirme, otonom yapay zekanın kontrolünün kaybedilmesine kadar uzanıyor” Potansiyel olarak insanlığın yok olmasına neden olan sistemler” – firmaların etkin gözetimden kaçınmak için “güçlü mali teşvikleri” vardır.

4 Haziran 2024 tarihli açık mektupta “Kurumsal yönetimin özel yapılarının bunu değiştirmek için yeterli olduğuna inanmıyoruz” diye yazdılar.

“Yapay zeka şirketleri, sistemlerinin yetenekleri ve sınırlamaları, koruyucu önlemlerinin yeterliliği ve farklı türdeki zararların risk seviyeleri hakkında kamuya açık olmayan önemli bilgilere sahip. Ancak şu anda bu bilgilerin bir kısmını hükümetlerle paylaşma konusunda zayıf yükümlülüklere sahipler, sivil toplumla ise hiçbirini paylaşmıyorlar. Gönüllü olarak paylaşma konusunda hepsinin güvenilebileceğini düşünmüyoruz.”

Gizlilik anlaşmaları

Hem isimsiz hem de adı geçen çalışanlar tarafından imzalanan mektupta, “geniş gizlilik anlaşmalarının”, “bu sorunları ele almada başarısız olabilecek şirketler dışında” endişelerini dile getirmelerini engellediği belirtildi.

“Sıradan ihbarcı korumaları yetersiz çünkü yasa dışı faaliyetlere odaklanıyorlar, oysa endişe duyduğumuz risklerin çoğu henüz düzenlenmemiş” diye eklediler. “Sektördeki bu tür vakaların geçmişi göz önüne alındığında, bazılarımız makul olarak çeşitli misilleme biçimlerinden korkuyor. Bu sorunlarla ilk karşılaşan ve bu konuları konuşan biz değiliz.”

Mektup, riskle ilgili kaygıların eleştirisini yasaklayan herhangi bir anlaşmaya girmeyecekleri veya bunları uygulamayacakları da dahil olmak üzere, şirketlerden daha fazla şeffaflık ve hesap verebilirlik talep edilmesi çağrılarıyla bitiyor; çalışanların endişelerini dile getirmeleri için isimsiz bir süreç kolaylaştırmak; ve hem mevcut hem de eski çalışanların endişelerini geniş bir grupla dile getirmesine olanak tanıyan açık eleştiriye dayalı iç kültürleri destekleyin.

Aynı zamanda şirketlere, diğer süreçler başarısız olduktan sonra riskle ilgili gizli bilgileri kamuya açık olarak paylaşan mevcut ve eski çalışanlara karşı misilleme yapmamaları çağrısında bulunur: “Riskle ilgili endişeleri bildirmeye yönelik her türlü çabanın, gizli bilgilerin gereksiz yere ifşa edilmesinden kaçınması gerektiğini kabul ediyoruz. Bu nedenle, kaygıların şirketin yönetim kuruluna, düzenleyici kurumlara ve ilgili uzmanlığa sahip uygun bağımsız bir kuruluşa isimsiz olarak iletilmesine yönelik yeterli bir süreç mevcut olduğunda, endişelerin başlangıçta böyle bir süreç aracılığıyla dile getirilmesi gerektiğini kabul ediyoruz.

Ancak böyle bir süreç olmadığı sürece mevcut ve eski çalışanların kaygılarını kamuoyuna bildirme özgürlükleri saklı kalmalı.”

Mektup aynı zamanda önde gelen yapay zeka uzmanları Stuart Russell, Geoffrey Hinton ve Yoshua Bengio tarafından da imzalandı; Bunlardan ikincisi, ilk küresel yapay zeka zirvesi sırasında 27 ülke tarafından ilk sınır yapay zekaya liderlik etmek üzere seçildi Bilimin durumu Teknolojinin riskleri ve yetenekleri hakkındaki mevcut araştırmaları değerlendiren rapor.

O dönemde 16 yapay zeka firmasının verdiği güvenlik taahhütleri hakkında yorum yapan Bengio, bu kadar çok sayıda önde gelen yapay zeka şirketinin kaydolduğunu görmekten memnuniyet duyduğunu ve özellikle aşırı riskler sundukları modelleri durdurma taahhütlerini memnuniyetle karşıladığını söyledi. ileride daha resmi düzenleyici önlemlerle desteklenecektir. “Bu gönüllü taahhüdün elbette diğer düzenleyici önlemlerle birlikte yapılması gerekecek, ancak yine de bu, yapay zeka güvenliğini teşvik etmek için uluslararası bir yönetişim rejiminin oluşturulmasında ileriye doğru atılmış önemli bir adıma işaret ediyor” dedi.

Computer Weekly, Bengio’nun zorunlu önlemlerin gerekliliğine ilişkin yorumları konusunda Bilim, Yenilik ve Teknoloji Departmanı ile temasa geçti, ancak kayıtlara geçmiş bir yanıt alamadı.

Birleşik Krallık hükümeti, inovasyonun engellenmesi korkusuyla yapay zeka konusunda yasa çıkarmayacağını defalarca söylese de, Şubat 2024’te en güçlü yapay zeka sistemlerini geliştiren seçkin şirketler için bağlayıcı gerekliliklerin getirilmesine ilişkin “ilk düşüncesini” özetledi ve herhangi bir gönüllü önlemin alınamayacağını belirtti. Yapay zeka şirketleri için bu durum muhtemelen en gelişmiş yeteneklerin sunduğu “riskle orantısız” olacaktır.

Mektuba yanıt veren bir OpenAI sözcüsü şunları söyledi: “En yetenekli ve en güvenli yapay zeka sistemlerini sağlama geçmişimizle gurur duyuyoruz ve riski ele alma konusundaki bilimsel yaklaşımımıza inanıyoruz. Bu teknolojinin önemi göz önüne alındığında, sıkı tartışmaların hayati önem taşıdığı konusunda hemfikiriz ve dünya çapındaki hükümetler, sivil toplum ve diğer topluluklarla yakın ilişkiler kurmaya devam edeceğiz.

“İşte bu nedenle çalışanlarımızın endişelerini ifade edebilecekleri, isimsiz bir dürüstlük yardım hattı ve yönetim kurulu üyelerimiz ve şirketteki güvenlik liderleri tarafından yönetilen bir Güvenlik ve Güvenlik Komitesi dahil olmak üzere çeşitli yollara sahibiz.”

Sözcü, güvenli ve güvenilir sistemler oluşturmanın OpenAI’nin iş modeli için kritik öneme sahip olduğunu ve Fortune 500’ün %92’sinin OpenAI araçlarını kullandığını ekledi; onlara göre modeller güvenli veya yetenekli olmasaydı bu gerçekleşmezdi.

Ayrıca OpenAI’nin sektörde yapay zekaya yönelik hükümet düzenlemesi çağrısında bulunan ilk şirketlerden biri olduğunu ve hem mevcut hem de eski çalışanların görüşlerini paylaşacak birçok yola sahip olduğunu eklediler.

Bunun, liderlik çalışma saatleri, isimsiz bir dürüstlük yardım hattı, yönetim kuruluyla Soru-Cevap oturumları ve yöneticileriyle devam eden iletişimler aracılığıyla düşüncelerini dile getirme becerisini içerdiğini söylediler.

Bununla birlikte, kötü niyetli aktörlere fayda sağlayabilecek yetkisiz ifşaatlar da dahil olmak üzere, inşa edilmekte olan teknolojinin gizliliğinin korunmasının da önemli olduğunu söylediler. Özellikle yapay zeka teknolojisinde ABD’nin öncülüğünü geride bırakmayı amaçlayan ülkeleri örnek gösterdiler.

Computer Weekly ayrıca DeepMind ve Anthropic ile temasa geçti ancak herhangi bir yanıt alamadı.



Source link