Lords, AI’ya asla savaş kararları üzerinde kontrol veremeyeceğini söyledi


Lordlara, silah sistemlerine özerkliğin getirilmesinin, yapay zeka (AI) algoritmalarının karmaşık bağlamsal faktörleri ayrıştırmadaki teknik yetersizliği nedeniyle silahlı çatışmanın öngörülemezliğini artıracağı söylendi.

Ocak 2023’ün sonunda otonom silah sistemlerini (AWS) geliştirme ve dağıtma etiğini araştırmak için kurulan Lordlar Kamarası AI silah komitesinin son oturumunda hukuk uzmanları ve yazılım mühendisleri Lords’a mevcut AI sistemlerinin olduğunu söyledi. belirli bir askeri harekatın uygun veya orantılı olup olmadığını değerlendiremezler ve muhtemelen hiçbir zaman da yapamayacaklardır.

Yapay zekanın askeri kararların sorumluluğunu üstlenmek için asla yeterince özerk olmayacağını, sınırlı özerkliğin bile artan öngörülemezlik ve “otomasyon yanlılığının” ortaya çıkması açısından yeni sorunlar ortaya çıkaracağını eklediler.

Bunun yerine, AI destekli silah sistemlerinin her zaman “anlamlı insan kontrolü” olması gerektiğini savundular. “Özerklik gerçekleştiğinde, sisteme başka türde bir aktör getirdiniz. Stanza Systems’ın baş yazılım mühendisi ve Stop Killer Robots kampanyasının bir üyesi olan Laura Nolan, “İnsanlar, içinde faaliyet gösterdiğimiz bağlama göre tipik olarak hassas olan çeşitli şekillerde davranırlar.” bir durum bağlamında, en gelişmiş AI sistemleri bile şu anda mümkün değil.

“Hangi bağlamda ne yapmaları gerektiğini yazmanız gerekiyor ve makine öğrenimi bileşenleri genellikle çevreyi ve bir hedef profili algılamakla ilgili – ancak karar bağlama uygun değil.”

Ayrıca otonom silahların operatörler ve komutanlar için saldırıların yerini ve zamanlamasını kontrol etmeyi ve bu nedenle orantılı olup olmadığını veya tali hasar olup olmayacağını tahmin etmeyi “son derece zorlaştırdığını” da sözlerine ekledi.

“Komutanlardan, tam olarak kontrol edemedikleri veya tam olarak tahmin edemeyecekleri bir saldırının etkilerini tahmin etmelerini istiyorsunuz” dedi. “Karmaşık sistem teorisinin temel ilkelerinden biri, birden fazla bileşene sahip sistemleriniz olduğunda, birden fazla aktörün etkileşimde bulunduğunda … potansiyel sonuçların sayısının katlanarak arttığını söylüyor. O zaman bu etkileri tahmin etmek çok ama çok zor hale geliyor.”

Otomasyon yanlılığı

Ayrıca, Nolan’ın tamamen ortadan kaldırılmasının bir “boş rüya” olacağını söylediği otomasyon yanlılığı (insanların otomatik sistemlerin çıktılarına başka bir kaynaktan gelen bilgilere güveneceklerinden daha fazla güvenme eğilimine atıfta bulunarak) ek sorunu var.

“Bu, otomasyon yanlılığının nasıl azaltılacağı veya ortadan kaldırılacağı konusunda son derece aktif ve uzun süredir devam eden bir insan faktörleri araştırması alanı ve nasıl yapılacağını bilmiyoruz” dedi.

Yapay zeka destekli bir silahın savaş kararlarının orantılılığını otonom olarak değerlendirip değerlendiremeyeceği konusunda Nolan, genel stratejik bağlamı yalnızca bir insan değerlendirebileceğinden, bir makinenin bu tür belirlemeler yapmasının “kesinlikle imkansız” olduğuna inandığını söyledi.

“Eylemin beklenen stratejik askeri değerini bilmeniz gerekiyor ve bir silahın bunu bilmesine imkan yok” dedi. “Sahada bir silah var, belki bazı resimlere bakıyor, bir çeşit makine öğrenimi ve algı meselesi. Hiçbir şey bilmiyor. Sadece askeri değerle gerçekten herhangi bir ilişki sunmayan bazı hesaplamalar yapıyor.”

Cambridge Üniversitesi’nin Varoluşsal Risk Çalışmaları Merkezi’nde misafir araştırmacı olan Taniel Yusef, yapay zeka modellerinin görüntülerin içeriğini tanımlamak için pikselleri matematiksel olarak nasıl tahsis ettiğini açıklarken, her AWS’nin sahada canlı bir yayından yapması gerekirdi. Temel matematik “doğru” olabilir, bu sonuçların mutlaka “doğru” olacağı anlamına gelmez.

Kedi ve köpek görüntülerini ayırt etmek için tasarlanmış bir algoritmayı test ettiği örneği veren Yusef, bunun gibi basit görevlerin bile ters gidebileceğini ve ters gidebileceğini söyledi.

“Kedinin bir köpek olduğuna karar verdi” dedi. “Beni endişelendiren şu ki, bu olay sahada olduğunda, sahada bu sivillerin öldürüldüğünü söyleyen insanlar olacak ve ‘Ama matematiğe bakın’ diye geri bildirim yapan silahtan bir rapor alacaksınız.

“Matematik, askeri bir üs olan bir hedef olduğunu söylüyor… çünkü matematik öyle söylüyor ve biz matematiğe çok önem veriyoruz çünkü matematik çok özeldir ve matematik doğru olacaktır. Doğru ve doğru arasında bir fark var. Kesin ve doğru arasında bir fark var. Doğru kodlandığı için matematik doğru olacak ama sahada doğru olmayacak” dedi.

“Öyleyse orantılılık ve bunun teknik olarak mümkün olup olmadığı hakkında soru sorduğunuzda [to delegate responsibility to AI]hayır, teknik olarak mümkün değil, çünkü bir sistemin sonucunu, kodladığınız hedefe nasıl ulaşacağını, bunu yapana kadar bilemezsiniz ve oraya nasıl geldiğini bilemezsiniz” dedi. söz konusu.

Akran ünlemi

Bir akran, “Geçen gün kedi zannettiğim bir köpek gördüm” şeklinde araya girerek insanların benzer hatalar yapabileceğini söyleyince Yusef, “Onu sen vurmadın” yanıtını verdi.

Southampton Üniversitesi’nde uluslararası ilişkiler profesörü olan Christian Enemark şunları söyledi: [discrimination and proportionality] insan olmayan bir varlık için felsefi bir saçmalık, tartışmalı bir şekilde.

Kararları veren ve onlar için sorumluluk alan kişinin her zaman bir insan aracı olması gerektiğini ve AWS hakkındaki genel konuşmanın, kullanılabilecekleri diğer pratik alanları da içerecek şekilde genişletilmesi gerektiğini ekledi.

“Silahlar silahlı çatışma dışında kullanılabilir, ancak konuşma öncelikle silahlı çatışmaya ve silahlı çatışmayı yöneten uluslararası insancıl hukuk olan yasaya yöneliktir” dedi. “Ancak bu kadar kısıtlanmasına gerek yok ve tartışmalı bir şekilde, örneğin kolluk kuvvetleri amaçlarıyla devlet tarafından şiddet kullanımını içerecek şekilde genişletilmesi gerekiyor – AI entegrasyonunun sonuçlarının ne olabileceğini düşünmemiz gerekiyor. bağlam.

“Silahlı çatışma bağlamından çıktığımızda, insancıl hukuk hakkında konuşmakla sınırlı kalmıyoruz. Artık uluslararası insan hakları hukukundan da ilham almaya ve rehberlik etmeye açığız.”

İlk kanıt oturumunda komite, yapay zekayı silah sistemlerinde ve askeri operasyonlarda kullanmanın potansiyel faydalarının, daha iyi uluslararası insancıl hukuk uyumluluğu ile birleştirilmemesi gerektiğini duydu; yasa dışı veya gereksiz bir saldırıyı önleme yeteneği.

O oturumdaki bilirkişiler ayrıca, AI silahlarının konuşlandırılmasının şiddet kullanımını azaltmak yerine daha sık hale getirebileceğini, çünkü kuvvete başvurma eşiğinin önemli ölçüde daha düşük olacağını belirtti.



Source link