Hız ve kontrol arasında gerginliğe yakalanan askeri yapay zeka


Askeri planlamacılar ve endüstri rakamları, yapay zekanın (AI) İngiltere’nin silahlı kuvvetleri için arka ofis verimliliğinin kilidini açabileceğini ve komutanların daha hızlı, daha iyi bilgilendirilmiş kararlar almasına yardımcı olabileceğini, ancak teknolojiye pişirilen “inatçı sorunların” askeri hesap verebilirliği daha da azaltabileceğini söylüyor.

Alan Turing Enstitüsü’nde savaşta otonom teknolojileri kullanmanın etiği hakkında bir panelde konuşan Mart ortasında AI UK etkinliği, endüstri figürleri ve emekli bir kıdemli İngiliz ordu subayı AI’yi orduya dağıtmak için etik bir zorunluluk olduğunu iddia etti.

Birleşik Krallık savunması boyunca AI’nın çoğalmasının gelecekteki çatışmayı caydıracağını, kaynakları serbest bırakacağını, askeri planlama ve hedef seçimi de dahil olmak üzere çeşitli karar verme süreçlerini iyileştireceğini ve ülkenin geri dönüşü olmayan bir şekilde rakiplerinin arkasına düşmesini engelleyeceğini savundular.

Bu konuşmacılar, askeri yapay zekanın anlamlı insan gözetimi sağlamanın önemini ve bu bağlamda “kontrol edilemeyen” AI sistemlerinin çoğalmasını sınırlamak için küresel düzenleme ihtiyacını vurgularken, Kraliçe Mary Üniversitesi Londra’da siyaset teorisi profesörü olan ve yazarı Elke Schwarz Ölüm Makineleri: Şiddetli Teknolojilerin Etiğiözerklik ve kontrol arasında teknolojiye pişirilen açık bir gerilim olduğunu savundu.

Bu “inatçı problemi” AI ile ekledi, insanların askeri karar verme döngüsünden daha fazla alınma riski olduğu anlamına geliyor, bu da hesap verebilirliği azalttı ve şiddete başvurma eşiğini düşürdü.

AI’nın askeri potansiyeli

Örneğin, Binbaşı General Rupert Jones, AI’nın daha fazla kullanımının, İngiltere savunmasının daha az tanımlanmış düşman ve vekil çatışmalarla karakterize edilen modern savaşın “çamurlu bağlamında” daha iyi gezinmesine yardımcı olabileceğini savundu.

“Savaş daha karmaşıklaştı. Zafer ve başarının tanımlanması daha zordur,” diyen AI’nın en yüksek potansiyel kullanımını ekleyerek, komutanların en azından mümkün olan en iyi kararları vermesine nasıl yardımcı olabileceğidir.

“Savunmaya aşina olmayanlar için gerçekten bir ırktır – olabildiğince daha hızlı kararlar almaları için düşmanınızı yarışıyorsunuz. Size daha hızlı kararlar alırlarsa, mükemmel pozisyonlar olmasalar bile, muhtemelen sizin üzerinden ivme kazanabilecekler.”

Karar verme ile, bir insan karar vericisinin yeteneklerini ve bilişsel kapasitelerini değiştirmek için çok sağlam, güvenilir ve her zaman güncel verilere sahip olmanız gerekir.

Elke Schwarz, Kraliçe Mary Üniversitesi Londra

Teknolojinin karar verme potansiyelinin yanı sıra Jones, savunma organizasyonlarının “son derece pahalı” doğasının, AI’nın arka ofis verimliliğini artırmak için kullanılabileceğini ve bunun da cephe özelliklerinde kullanım için daha fazla fonun kilidini açacağını söyledi.

“AI size büyük bir verimlilik veriyor, insanları döngüden çıkarıyor, para serbest bırakıyor – ve şu anda İngiltere savunmasında ihtiyacımız olan bir şey, ön ucu modernize edebilmemiz için biraz para kazanmaktır” dedi.

Bununla birlikte, teknolojinin karar vermeyi ve arka ofis verimliliğini geliştirme potansiyelinin, İngiltere savunmasının temel veri uygulamalarını iyileştirme yeteneğine dayanacağını ve böylece sahip olduğu çok sayıda bilgiden AI tarafından etkili bir şekilde sömürülebileceğini belirtti.

Jones, İngiltere savunma organizasyonlarının, otonom silahlar ve diğer AI ile çalışan diğer cephe sistemleri gibi daha karmaşık kullanım durumlarına geçmeden önce teknolojiyi kullanma konusunda güvenlerini oluşturmak için önce arka ofise konuşmaya başlaması gerektiğini de sözlerine ekledi: “Büyüyebileceğiniz bir AI taban çizgisi oluşturun.”

Schwarz, AI’nın arka ofis görevleri için ordu için en yararlı olacağını kabul etse de, bunun teknolojinin ölümcül kullanım durumları için yeterince iyi olmaması ve karar vermede AI kullanımının suları daha da çamurlayacağı görüşünü aldı.

“Örneğin karar verme ile, bir insan karar vericisinin yeteneklerini ve bilişsel kapasitelerini değiştirmek için çok sağlam, güvenilir ve her zaman güncel verilere sahip olmanız gerekir” dedi.

Schwarz, “Bir yandan, ‘Eh, bu sistemleri kullanmanın tüm noktalarında anlamlı insan kontrolüne sahip olmalıyız’ diyoruz, ancak sonuçta bu sistemler için Raison d’être insanı döngüden daha fazla çıkarmak, bu yüzden her zaman gerginlik var” dedi.

“İnsanın döngüden daha ileri götürülmesinin nedeni, sistemin mantığının, insanlar olarak verileri nasıl işlediğimizin bilişsel mantığı ile o kadar iyi bir şekilde uyumlu olmamasıdır.”

Elke, biliş hızı ve anlamlı insan kontrolü arasındaki bariz gerginliğin üstünde, otomasyon yanlılığı sorunu da olduğunu, böylece insanların bilgisayar çıkışlarına güvenme olasılığının daha yüksek olduğunu, çünkü sonuçların doğal olarak objektif olduğu yanlış bir his var.

“Makine kararına, bir insan kararı vermek için zamanında tam bir zihinsel tablo oluşturamayacağımız daha az zamanımız olduğu konusunda daha az zamanımız olduğu daha muhtemeldir – dijital sistemlere daha fazla gömüldüğümüz için, bunlar yakında hiçbir zaman uzaklaştığını görmediğim gerginliklerdir.” Dedi.

“Bu bizi etik ve sorusu, insan çıkarıldığında etik kararlarla ne yapıyoruz?”

Schwarz, AI Savunma Başlangıcı Helsing’in yardımcı direktörü Henry Gates, aşırı derecede dikkatli olmasına rağmen, İngiltere’nin “diğer hain aktörler” in geride kalmaması ve otonom askeri sistemlerin nasıl düzenlendiği konusunda daha büyük bir söz sahibi olabilmesi için askeri AI’nın gelişimi ile “hızlı hareket etme” gereksinim olduğunu söyledi.

“Sadece bu silahlardan hiçbirine sahip olmayan bir ülkeysek… insanlar gerçekten bizi dinlemeyecek” dedi ve askeri AI ile hızla hareket etmenin de alternatif bir caydırıcılık oluşturmaya yardımcı olabileceğini de sözlerine ekledi.

“Aynı şekilde nükleer savaştan caydırıcı olarak nükleer silahlarımız var, AI potansiyel olarak silahlı çatışmayı azaltan geleneksel caydırıcılığa doğru bir yol sunuyor.”

Ancak Schwarz, “tüm yumurtalarımızı AI sepetine savaşı caydırmak için koymaya” karşı uyardı ve diyalog, güven ve diplomasi için insan yeteneklerine daha fazla yatırım yapması gerektiğini savundu.

Ayrıca, caydırıcı olarak hareket etmek yerine, AI’nın sosyo-teknik doğası-belirli bir sistemin teknik bileşenlerinin sosyal süreçler tarafından bilgilendirildiği ve bunun tersi-insanların birbirlerine bakış açılarını olumsuz olarak şekillendirebileceği anlamına geliyor.

“Sonuçta, her zaman böyle olmuştur [with] Onlara ne kadar çok güvenirsek, bizim hakkımızdaki ve diğerleri hakkındaki bakış açılarımızı o kadar fazla şekillendirirler. ”Dedi, bu da bunu ekleyerek, bu kesinlikle AI’da, fiziksel protez olarak kullanılan tanklar veya silahlar gibi diğer savaş araçlarından farklı olarak, teknoloji bilişsel bir protez gibi davranıyor.

“Tüm bunların mantığı nedir? Peki, bir AI sistemi diğer insanları nesneler olarak görür, mutlaka – kenarlar ve izler – o zaman örtük bir nesneleştirir, bu da ilişkiler kurmak istiyorsak sorunludur.”

İnsan bilişinin ötesinde

Anlamlı insan kontrolü konusunda, Gates göz önünde bulundurulması gereken üç şey var: karar vermenin AI’ya ne ölçüde devredildiği, modellerin amaçlarından “sürüklenmemesini” sağlamak için performans izleme ve insanları AI sistemlerinin nasıl geliştirildiğini tam kontrol altında tutma.

Aynı şekilde nükleer savaştan caydırıcı olarak nükleer silahlarımız var, AI potansiyel olarak silahlı çatışmayı azaltan geleneksel caydırıcılık yoluna doğru bir yol sağlar.

Henry Gates, Helsing

Bununla birlikte, Fujitsu’nun Bilişsel ve İleri Teknolojiler Merkezi genel müdürü Keith Dear, AI yeteneklerinin o kadar kısa bir süre içinde geldiğini savundu, yakında insanlardan savaş yasalarını kararlarına nasıl uygulayacağı konusunda daha iyi performans gösterebileceğini savundu.

“Bir hedefin silahlı çatışma yasası uyarınca haklı olması için, olumlu olarak tanımlanması, gerekli olması gerekir… orantılı olmalı, insancıl olmalı, kontrolsüz etki yok ve yasal olmamalı. Tüm bu şeyler, bir AI’ya bir asker, yelkenli veya bir havacı hizmetine uygulayabileceğiniz testlerdir”.

“Otoriteyi devreddiğinizde, bizi bu şeylerden daha iyi performans göstermeli ve eğer bunu temel alabileceğiniz ve karşılaştırabileceğiniz rollerde bizi daha iyi performans gösteriyorsa, otoriteyi bu kararları vermede bizden daha düşük yanlış negatif olan makineye devredmemek etik dışı hale gelir.”

Modern hisse senedi ticaretinin hızının büyük ölçüde bilgisayarlara bırakıldığı anlamına geldiğini vurgulayan sevgili AI, savaşta benzer bir durum yaratacağını, çünkü insan bilişinin hızını, karar verme bu özerk sistemlere bırakılmalı ve bırakılmalıdır.

“AI izleyen bir AI. Döngüden önce insanlarınız olabilir, ancak savaş hızlandıkça ve AGI’ya geldiğimiz fikri [artificial general intelligence]döngüde biri sapkın olacak – bence kaybedecek bir seçim ”dedi.

Yapay zekanın çatışmada insanın acısını azaltacağı ve insan dronlarının orduları arasında savaşların yapıldığı bir gelecek yaratacağı fikrine yorum yaparak, Gates olası olmadığını, savaş karakterini değiştirebilse de, bir grubun diğerine “iradesini nasıl dayatabileceğini” değiştirmediğini belirtti.

Jones, bir AI’nın ortada oturup oturmadığını belirterek, fikrin diğer taraftaki insanlara “zarar vermek” olduğunu belirtti. “Hâlâ nüfusu, siyasi karar vericileri, askerleri etkilemeye çalışıyorsunuz” dedi.

Sevgili için, savaş alanındaki insanlar için bir rol olmayacak. “Makineleriniz savaşmayı bitirdiğinde ve bir taraf kazandığında, savaş alanında kazanan bir insan ordusuna sahip olmaktan farklı olmayacak – o zaman şu ki [either way] Teslim etmek veya bir imha savaşıyla yüzleşmekten başka seçeneğiniz yok ”dedi.

Ancak Schwarz, bugünün AI sistemlerinin çoğunun henüz çok iyi olmadığı gerçeğini vurguladı ve savaş da dahil olmak üzere, teknolojinin yaşamın her alanında devrimci etkileri hakkında “çılgınca iyimser” iddialarda bulunmaya karşı uyardı. “Kesinlikle her şey için bir her derde deva değil” dedi.



Source link