Google Drops AI silahları geliştirmemeye söz veriyor


Google ebeveyn şirketi Alphabet, silah sistemlerinde veya gözetim araçlarında yapay zeka (AI) kullanmama taahhüdünü düşürdü ve ulusal “demokrasilerin” güvenliğini destekleme ihtiyacı belirtti.

Google CEO’su Sundar Pichai, Haziran 2018’de yayınlanan bir blog yazısında, daha önce şirketin “genel zarar vermesi veya genel zarara neden olacağı” ve özellikle silahlar veya diğerleri geliştirmemeye kararlı AI uygulamalarını nasıl “takip etmeyeceğini” özetledi. Başlıca amacı veya uygulaması insanlara zarar vermek veya doğrudan yaralanmaya neden olan teknolojiler ”.

Google’ın ayrıca “uluslararası kabul görmüş normları ihlal eden gözetim için bilgi toplayan veya kullanan teknolojiler” de yapmayacağını da sözlerine ekledi.

Google-şirket sloganı 2015 yılında ‘Doğru Şey’ ile değiştirildi-Google DeepMind CEO’su Demis Hassabis tarafından yazılan bir blog yazısında bu hedefleri AI ilkeleri web sayfasından kaldırma kararını savundu ; ve şirketin teknoloji ve toplum kıdemli başkan yardımcısı James Manyika.

“Giderek karmaşıklaşan jeopolitik bir manzarada AI liderliği için küresel bir rekabet var. Demokrasilerin özgürlük, eşitlik ve insan haklarına saygı gibi temel değerlerin yönlendirdiği AI gelişimine yol açması gerektiğine inanıyoruz ”dedi.

“Ve bu değerleri paylaşan şirketlerin, hükümetlerin ve kuruluşların insanları koruyan, küresel büyümeyi teşvik eden ve ulusal güvenliği destekleyen AI oluşturmak için birlikte çalışması gerektiğine inanıyoruz.”

Google’ın AI ilkelerinin artık “insan çabasının hemen hemen her alanında insanlara yardım etmeyi, güçlendirmeyi ve ilham vermeyi” ve insanlığın en büyük zorluklarına hitap etmeyi amaçlayan “cesur inovasyon” da dahil olmak üzere üç temel kiracıya odaklanacağını eklediler; “Sorumlu Kalkınma ve Dağıtım”, yani AI’yı bir sistem boyunca sorumlu bir şekilde takip etmek anlamına gelir; ve “diğerlerini olumlu bir şekilde kullanma konusunda güçlendirmeye” odaklanan “işbirlikçi ilerleme”.

Google’ın politika değişikliği hakkında yorum yapan Elke Schwarz – Queen Mary University London’da bir siyaset teorisi profesörü ve yazarı Ölüm Makineleri: Şiddetli Teknolojilerin Etiği – Şirketin zaten ABD ordusuna (ve IDF’ye) bulut hizmetlerine tedarik ettiği göz önüne alındığında, “hiç şaşırtıcı olmasa da”, büyük teknoloji firmaları arasında askeri AI’ya doğru değişen ruh hali konusunda endişe duyduğunu söyledi; Bunların çoğu şimdi bu bağlam için AI uygulamaları geliştirmenin “takılmamasının etik olmadığını” savunuyor.

“Google, önemli bir tepki veya yansımalarla karşılaşmadan bu kadar önemli bir kamu değişikliği yapacak kadar rahat hissediyor, şiddetten vurgunluk konusunda (biraz kabaca koymak için) nerede olduğumuzu hissettiriyor. Bu, bir savaş ekonomisi oluşturmanın endişe verici bir şekilde kabul edildiğini gösteriyor ”dedi. Computer Weekly, Google’ın politika değişikliğinin küresel teknoloji endüstrisinin artık küresel bir askeri endüstri olduğu açık bir değişim olduğunu söyledi.

“Her şeyin tecrit edici bir militarizasyonunu öneriyor. Ayrıca, yapay zeka yapmak için önemli bir pazar pozisyonu olduğunu ve mevcut üst düzey şirketlerin rekabet ettiği kapmalar için önemli bir finansal kazanç payı olduğuna işaret ediyor. Bu sürüşün askeri amaçlarla yapay zekaya ne kadar yararlı olduğu hala çok spekülatif. ”

Askeri yapay zeka uzmanları, ölümcül kuvvetin alıcı ucundaki insanlar bir ekrandaki veri noktalarına ve sayılara düşürüldüğünde insanlıktan çıkarma potansiyeli de dahil olmak üzere, algoritmik olarak etkin öldürmenin etik sonuçları hakkında endişeleri artırmışlardır; Kullanılan programlama veya kriterlerdeki önyargılar nedeniyle hedef seçim sırasında ayrımcılık riski; operatörlerin eylemlerinin insan sonuçlarından duygusal ve psikolojik müfrezesi.

Otomasyon yanlılığının birleşimi ve bu tür silahların savaşın hızını insan bilişinin ötesine nasıl artırması nedeniyle, otonom silah sistemleri (AWS) üzerinde anlamlı insan kontrolü olup olmadığı konusunda da endişeler de var.

2024 boyunca, Openai, Antropik ve Meta dahil olmak üzere bir dizi diğer AI geliştiricisi, istihbarat ve savunma ajanslarının AI sistemlerini kullanmasına izin vermek için kendi AI kullanım politikalarını geri çekti. Hala AI’larının insanlara zarar vermesine izin vermediklerini iddia ediyorlar.

Bilgisayar haftalık olarak Google’a, AI gelişimine ulusal güvenlik bağlamında sorumlu bir şekilde nasıl yaklaşmayı planladığı ve AI sistemlerinin kullanılabileceği, ancak yanıt alamaması durumunda herhangi bir sınır yerleştirmeyi planlıyorsa, değişim hakkında iletişime geçti.

‘Kötü olma’

Google’ın hareketi, özerk silahlar veya kitlesel gözetim için AI kullanımı konusunda endişe duyan insan hakları örgütleri de dahil olmak üzere güçlü eleştiriler çekti. Örneğin Uluslararası Af Örgütü kararı “utanç verici” olarak nitelendirdi ve bunun “tehlikeli” bir emsal oluşturacağını söyledi.

AI ve insan hakları danışmanı ve insan hakları danışmanı ve insan hakları danışmanı olan Matt Mahmoudi, “Yapay zeka destekli teknolojiler büyük bir ölçekte gözetim ve ölümcül öldürme sistemlerini genişletebilir, potansiyel olarak kitlesel ihlallere yol açabilir ve temel gizlilik hakkını ihlal edebilir” dedi.

“Google’ın yapay zeka silahlarına yönelik yasağını tersine çevirme kararı, şirketin kitle gözetimi, yarı otomatik imza grevleri için geliştirilen dronlar ve öldürme kararını hızlandırmak için tasarlanmış hedef üretim yazılımı dahil olmak üzere güç teknolojilerini satmasını sağlıyor.

“Google, AI ilkelerindeki son değişiklikleri acilen tersine çevirmeli ve ciddi insan hakları ihlallerini sağlayabilecek sistemleri geliştirmekten veya satmaktan kaçınmayı önermelidir. Devlet aktörlerinin insan hakları ilkelerine dayanan bu teknolojilerin konuşlandırılmasını düzenleyen bağlayıcı düzenlemeler oluşturmaları da önemlidir. Teknoloji şirketleri tarafından sürdürülen öz düzenleme cephesi, insan haklarını koruyan sağlam mevzuat yaratma ihtiyacından bizi rahatsız etmemelidir. ”

İnsan Hakları İzleme Örgütü benzer şekilde gönüllü ilkeler yoluyla öz düzenlemenin sorunlu doğasını vurgulamıştır.

“Google gibi küresel bir endüstri liderinin aniden kendini ilan eden yasak uygulamaları terk edebileceği, gönüllü yönergelerin neden düzenleme ve uygulanabilir yasanın yerini almadığını vurgulamaktadır. Mevcut uluslararası insan hakları hukuku ve standartları AI kullanımında geçerlidir ve düzenleme, normları uygulamaya çevirmede çok önemli olabilir ”dedi. En az sorumsuz AI uygulamalarına geri dönerken onları belirtebildi.

Örneğin, Eylül 2022’de, Google çalışanları ve Filistinli aktivistler, teknoloji devini, İsrail hükümetine AI ve Makine Öğrenme (ML) araçlarının sağlanmasını içeren gizli proje Nimbus bulut bilişim sözleşmesine dahil olmaya çağırdı.

Özellikle teknoloji devini “İsrail apartheidinde karmaşıklığa” suçladılar ve teknolojinin Filistinlilere karşı nasıl kullanılacağından korktuklarını ve Google’ın kendi AI ilkelerine atıfta bulunarak söylediler. Bir Google sözcüsü şu anda Computer Weekly’ye şunları söyledi: “Proje, Google Cloud platformunu devlet kurumları için finans, sağlık, ulaşım ve eğitim gibi günlük iş yükleri için kullanılabilir hale getirmeyi içeriyor, ancak son derece hassas veya sınıflandırılmış iş yüklerine yönlendirilmiyor.”

İnsan Hakları İzleme Örgütü ekledi: “Google’ın silahlar için yapay zeka kurmayı reddetmesinden, ulusal güvenlik girişimlerini destekleyen AI yaratma niyetini belirtmek için pivot. Milliesler, eksik veya hatalı verilere olan güvenlerinin ve kusurlu hesaplamaların sivil zarar riskini artırdığı savaşta yapay zeka kullanıyorlar. Bu tür dijital araçlar, yaşam-ya da ölüm sonuçları olabilecek savaş alanı kararları için hesap verebilirliği karmaşıklaştırıyor. ”

Ülkelerin büyük çoğunluğu AI destekli silah sistemlerinde çok taraflı kontroller lehine olsa da, Avrupa dışişleri bakanları ve sivil toplum temsilcileri, Viyana’daki bir Nisan 2024 konferansında İngiltere, ABD ve İsrail dahil olmak üzere az sayıda güçlü oyuncunun- bağlayıcı önlemlere karşı çıkmak için seçkin birkaç ülkenin bir parçası olarak ilerlemeyi geri çekiyorlar.

Sierra Leone’deki Dışişleri ve Uluslararası İşbirliği Bakanı Timothy Musa Kabba, çok taraflılığın modern dünyada çalışması için, BM Güvenlik Konseyi’nde reform yapmak için acil bir ihtiyaç olduğunu söyledi. Beş daimi üye (Çin, Fransa, Rusya, İngiltere ve ABD).

“İklim değişikliğinden otonom silah sistemlerine kadar yeni gerçeklerin ortaya çıkmasıyla, çok taraflılığa bir kez daha bakmamız gerekiyor” dedi ve yeni veya reformlu kurumların kapsayıcı, demokratik ve uyarlanabilir olması gerekeceğini belirtti.



Source link