Lords AI silah komitesi ilk kanıt oturumunu düzenledi


Lordlara, silah sistemlerinde ve askeri operasyonlarda yapay zeka (AI) kullanmanın potansiyel faydalarının, daha iyi uluslararası insancıl hukuk (IHL) uyumluluğu ile birleştirilmemesi gerektiği söylendi.

31 Ocak 2023’te kurulan Lordlar Kamarası Silah Sistemlerinde Yapay Zeka Komitesi, otonom silah sistemlerini (AWS) geliştirme ve konuşlandırma etiğini, bunların nasıl güvenli ve güvenilir bir şekilde kullanılabileceği, çatışmayı tırmandırma potansiyelleri ve uluslararası yasalara uygunluk.

Ölümcül otonom silah sistemleri (LAWS) olarak da bilinen bu sistemler, insan müdahalesi çok az olan veya hiç olmayan hedefleri seçebilen, tespit edebilen ve ateş edebilen silah sistemleridir.

23 Mart 2023’teki ilk kanıt oturumunda Lords, uzman tanıklardan silah sistemlerinde yapay zeka kullanımının IHL’ye uyumu iyileştirip iyileştirmeyeceğini veya kötüleştireceğini duydu.

Örneğin, Queen Mary University of London School of Law’da kıdemli bir öğretim görevlisi ve IHSS Üyesi olan Daragh Murray, burada AI kullanımının IHL ile uyumluluğu iyileştirme “olasılığı” olduğunu belirtti.

“Çok daha fazla bilgiyi hesaba katabilir, yorgunluk, adrenalin veya intikamdan muzdarip değildir, bu nedenle düzgün tasarlanmışsa, neden bazı durumlarda daha iyi olamayacağını anlamıyorum” dedi.

“Benim için en büyük engel, yapay zeka sistemlerine her şeye uyan tek bir bakış açısıyla yaklaşma eğiliminde olmamız ve ondan her şeyi yapmasını bekliyoruz, ancak belirli durumlarda – belki bir düşman tankını tanımlayarak – bozarsak veya gelen bir rokete yanıt vermek – bir yapay zeka sistemi çok daha iyi olabilir.”

Bununla birlikte, yapay zeka destekli bir silah sistemleri operasyonu için herhangi bir sorumluluğun, konuşlandırma parametrelerini belirleyen insanlara ait olması gerektiği konusunda netti.

Uluslararası Kızılhaç Komitesi’nde (ICRC) hukuk danışmanı olan Georgia Hinds, AWS’nin sunduğu artan operasyonel hız gibi potansiyel askeri faydaları anladığını ancak bu faydaları gelişmiş IHL uyumluluğuyla birleştirmemeye şiddetle dikkat edeceğini söyledi. .

“Gibi bir şey [improved operational] hız aslında IHL’ye uyum için gerçek bir risk oluşturabilir” dedi. “İnsan operatörler, süreçleri izleme ve müdahale etme konusunda gerçek yeteneğe sahip değilse, insan kavrayışının ötesinde hızlanırlarsa, bu, yasa dışı veya gereksiz bir saldırıyı önleyemeyecekleri anlamına gelir – ve bu aslında bir IHL şartı.”

AWS’nin öfkeye, intikama, yorgunluğa ve benzerlerine tabi olmadığına ilişkin argümanların, onları destekleyecek ampirik kanıtlardan yoksun olduğunu da sözlerine ekledi.

“Bunun yerine, bir insan operatörün verdiği kötü bir kararı bir makine sürecinden kaynaklanan varsayımsal olarak iyi bir sonuçla karşılaştırdığımız varsayımlarla meşgul oluyoruz” dedi.

“Bence bu argümanda öne sürülen pek çok varsayım var, bunlardan en önemlisi insanların zorunlu olarak kötü kararlar verdiği, [and] nihayetinde insanlara IHL’ye uyma sorumluluğunun verildiği gerçeğini görmezden geliyor.”

Essex Hukuk Okulu’nda profesör olan Noam Lubell, Hinds ile aynı fikirdeydi ve askeri yapay zekanın faydalarının nerede tahakkuk edeceğini sorguladı.

Kimin için daha iyi? Askeri taraf ve insani taraf aynı şeyi her zaman daha iyi olarak görmeyebilir” dedi. “Hızdan bahsedildi, ancak örneğin doğruluk, denklemin her iki tarafının da – askeri ve insani – doğruluğun iyi bir şey olduğu konusunda bir argüman oluşturabileceğini düşünüyorum.”

Hassas silahlar tartışması

Lubell, insansız hava araçları gibi “hassas silahların” kullanımıyla ilgili olarak son on yılda benzer bir tartışmanın yaşandığına dikkat çekti – kullanımı Obama yönetimi altında büyük ölçüde genişletildi.

“Görebilirsiniz ki, bir yandan bir tartışma yapılıyor: ‘Tali hasar daha az olacak, bu yüzden onları kullanmak daha iyi’. Ancak aynı zamanda, çok fazla tali hasar olacağı için daha önce hukuka aykırı olacağı durumlarda askeri saldırıların gerçekleştirilmesine yol açtığı da iddia edilebilir” dedi.

“Şimdi bir saldırı gerçekleştiriyorsunuz çünkü hassas bir silahınız olduğunu hissediyorsunuz ve yasal olmasına rağmen bir miktar tali hasar var, ancak o silaha sahip olmasaydınız, saldırıyı hiç gerçekleştirmezdiniz.”

Askeri AI etiği hakkında Computer Weekly ile konuşan, siyaset teorisi profesörü ve yazarı Ölüm makineleri: Şiddet içeren teknolojilerin etiği Elke Schwarz benzer bir noktaya değinerek, on yılı aşkın bir süredir insansız hava aracı savaşının, teknolojinin sağladığı kolaylık aslında kuvvete başvurma eşiğini düşürdüğünden, daha fazla “kesinliğin” daha az sivil kayba yol açmadığını gösterdiğine işaret ederek benzer bir noktaya değindi.

“Bize büyük mesafe sağlayan bu silahlara sahibiz ve mesafe ile bir taraf için risksizlik gelir, ancak bu diğerleri için mutlaka daha az risk anlamına gelmez – yalnızca onları çok kesin bir şekilde kullanırsanız, ki bu hiçbir zaman mümkün olmaz.” Savaşta olur” dedi ve bunun etkilerinin açık olduğunu ekledi: “Bazı hayatlar bağışlandı, bazıları ise bağışlanmadı.”

Kesinlik argümanları konusunda Hinds, AWS’lerin genellikle daha doğru olmakla eş tutulduğunu, ancak ICRC’nin görüşüne göre bunun tersinin geçerli olduğunu belirtti.

“Otonom bir silahın kullanımı, tanımı gereği, hassasiyeti azaltır çünkü kullanıcı aslında belirli bir hedef seçmiyor – genelleştirilmiş bir hedef profiline veya bir nesne kategorisine göre tetiklenmek üzere tasarlanmış bir silahı ateşliyorlar. dedi.

“Bence hassas işitme referansı genellikle bir hedefe daha iyi odaklanma ve belki daha küçük bir yük kullanma yeteneği ile ilgilidir, ancak bu, özellikle silahların otonom işlevine bağlı değildir.”

İnsan sorumluluğu

Lubell, bir Lord’un karar verme sorumluluğunu askeri bir yapay zeka sistemine “delege etmenin” uygun olup olmayacağına ilişkin sorusuna yanıt olarak, bundan bahsetmediğimizi söyledi. Terminatörbir yapay zekanın kendi görevlerini belirlediği ve bunları başarmaya çalıştığı ve insana benzeyen dile karşı uyarıda bulunduğu stil senaryosu.

“Bahsettiğimiz sistemler bu anlamda karar vermiyor. İnsan dilini bir araç olarak kullanıyoruz – bir işlevi yerine getiriyor ama bu anlamda bir karar vermiyor. Şahsen ona herhangi bir yetki verdiğimiz fikrinden rahatsızım” dedi.

“Bu, diğer herhangi bir araç gibi bir araçtır, tüm silahlar birer araçtır, biz bir araç kullanıyoruz… hesap verebilirlik sorununa, bunların aracıdan ziyade araç olduğunun anlaşılmasına dayanan çözümler var.”

Murray, bu bağlamda ‘delege’ kelimesini kullanmakta da çok tereddüt edeceğini söyledi: “Sanırım konuşlandırma parametrelerini insanların belirlediğini hatırlamamız gerekiyor. Bu yüzden araç analojisinin gerçekten önemli olduğunu düşünüyorum.”

Hinds ayrıca, IHL değerlendirmelerinin, özellikle de beklenen askeri avantajla orantılılığı dengelemeye yönelik değerlendirmelerin, değer yargılarına ve bağlama özgü mülahazalara çok fazla dayandığını da sözlerine ekledi.

“Birinin teslim olduğunu fark ettiğinizde, orantılılığı hesaplamanız gerektiğinde, bu bir sayı oyunu değildir. Bu, beklenen askeri avantajın ne olduğu ile ilgili” dedi.

“Algoritmalar bağlamı değerlendirmede iyi değiller, hızla değişen koşullarda iyi değiller ve oldukça kırılgan olabilirler. Bence bu koşullarda, niteliksel değerlendirmeleri bu unsurlara pek iyi yanıt vermeyen nicel kodlara kodlamaya çalıştığınızda, IHL uyumluluğu için daha iyi bir sonuç olacağını nasıl söylediğimizi gerçekten sorgularım.”

Nihayetinde, IHL’nin “sonuçlarla değil süreçlerle” ilgili olduğunu ve “insan yargısının” asla dışarıdan temin edilemeyeceğini söyledi.

Genel askeri operasyonlar için AI

Tüm tanıklar, AI’nın silah sistemlerindeki rolüne dar bir şekilde bakmanın, AI’nın askeri olarak konuşlandırılabileceği ve ölümcül güç kullanımına katkıda bulunabileceği diğer yolları tam olarak açıklamakta başarısız olacağı konusunda hemfikirdi ve AI’nın kullanımı konusunda özellikle endişe duyduklarını söylediler. istihbarat ve karar verme amaçları.

Lubell, “Bunu silahlarla sınırlamazdım” dedi. “Yapay zeka, belirli bir silahın dışında bile kimin veya neyin hedef alınacağı konusunda kritik bir rol oynayabilir.”

Lubell, askeri operasyonların erken istihbarat analizi aşamalarında yapay zekanın kullanımı ve bunun karar vermeyi nasıl etkileyeceği konusunda endişe duyduğunu da sözlerine ekledi.

Tarihsel olarak önyargılı polislik verilerinin kullanılması nedeniyle ceza adaleti sistemindeki mevcut ayrımcılık kalıplarını daha da sağlamlaştırdığı gösterilen kolluk kuvvetlerinde yapay zeka örneğini veren Lubell, Daha önceki zeka analizi aşamalarında yapay zeka [of military planning]”.

Oturumda bulunan Lordlar bunu dikkate aldılar ve araştırmalarının kapsamını, özellikle sadece silah sistemlerinde değil, ordu genelinde AI kullanımına bakacak şekilde genişleteceklerini söylediler.



Source link