Silah Sistemleri Komitesinde Lordlar Kamarası Yapay Zeka (AI), otonom silahların kullanımına ilişkin soruşturmasının bir parçası olarak bir kanıt çağrısı yayınladı.
Ölümcül otonom silah sistemleri (LAWS) olarak da bilinen otonom silah sistemleri (AWS), insan müdahalesi çok az olan veya hiç olmayan hedefleri seçebilen, tespit edebilen ve angaje edebilen silah sistemleridir.
31 Ocak 2023’te kurulan komite, nasıl güvenli ve güvenilir bir şekilde kullanılabilecekleri, çatışmaları tırmandırma potansiyelleri ve uluslararası yasalara uygunlukları dahil olmak üzere otonom silahların geliştirilmesi ve konuşlandırılmasına ilişkin etiği araştıracak.
Komite ayrıca AWS kullanımını kontrol etmek için gerekli olan teknik, yasal ve etik güvencelerin yanı sıra genel olarak bu alandaki mevcut Birleşik Krallık politikasının yeterliliği ve uluslararası politika oluşturma durumuna da özel olarak bakacaktır.
“Yapay zeka, silahlı çatışmalar da dahil olmak üzere hayatın birçok alanında karşımıza çıkıyor. AI’nın savunmadaki en tartışmalı kullanımlarından biri, bir insan operatörün doğrudan kontrolü veya denetimi olmadan bir hedefi seçip angaje edebilen otonom silah sistemlerinin oluşturulmasıdır” dedi.
“Bu sistemlerin etiği, kullanımlarının pratikliği, savaşları daha hızlı tırmandırma riskine sahip olup olmadığı ve uluslararası insancıl hukuka uygunluğu hakkında ortaya çıkan endişeleri incelemeyi planlıyoruz.
“Çalışmamız, çok çeşitli bireylerin girdilerine dayanıyor ve mümkün olduğu kadar çeşitli bakış açıları ve deneyimlerle bilgilendirildiğinde en etkili oluyor. Bu acil ve kritik konu hakkında uzman ve uzman olmayan herkesi 10 Nisan 2023 tarihine kadar delil çağrımıza yanıt vermeye davet ediyoruz.”
Kanıtların sunulmasının ardından komite, genel soruşturmasını Kasım 2023’e kadar tamamlamak amacıyla Mart ve Temmuz ayları arasında halka açık oturumlarda tanıklarla görüşmeye başlayacak. Kısa bir süre sonra Ocak 2024’te İngiltere hükümetinin yanıt vermesi bekleniyor.
Birleşik Krallık hükümeti yaklaşımı
Haziran 2022’de Savunma Bakanlığı (MoD), Savunma yapay zeka stratejisi Birleşik Krallık’ın “Silahlı Kuvvetler yeteneklerimizde devrim yaratmak” amacıyla yapay zekada araştırma, geliştirme ve deneylere öncelik vermek için özel sektörle nasıl yakın çalışacağının ana hatlarını çiziyor.
HUKUK’un kullanımıyla ilgili olarak strateji, Birleşik Krallık’ın “çok taraflılığa derinden bağlı olduğunu” ve bu nedenle Birleşmiş Milletler (BM) Belirli Konvansiyonel Silahlar Sözleşmesi (CCW) ile ilişki kurmaya devam edeceğini iddia etti.
Otonom yaklaşımına ilişkin ayrıntılar 72 sayfalık strateji belgesinde hafif olmasına rağmen, beraberindeki bir politika belgesinde YASALAR ile ilgili bir ek, “bağlama uygun insan müdahalesi” olmadan hedefleri tanımlayabilen, seçebilen ve saldırabilen sistemlerin kabul edilemez olacağını söyledi.
Açıklamada, “Dünyanın dört bir yanındaki hükümetlerin ve yapay zeka uzmanlarının endişelerini paylaşarak, yaşam döngüleri boyunca anlamlı ve bağlama uygun insan katılımı olmadan çalışacak sistemlerin oluşturulmasına ve kullanılmasına karşı çıkıyoruz” denildi.
“Bu tür silahların kullanılması, Uluslararası İnsancıl Hukukun temel ilkelerini veya AI Etik İlkelerimizde ifade edilen kendi değerlerimizi ve standartlarımızı karşılayamaz. Bir sistemdeki yapay zeka veya özerklik düzeyine bakılmaksızın, insanın sorumluluğu ve hesap verebilirliği ortadan kaldırılamaz.”
Birleşik Krallık hükümetinin, YASALAR etrafındaki “fırsatları ve riskleri” ele almak için uluslararası müttefikler ve ortaklarla çalışmaya devam edeceğini de sözlerine ekledi.
Birleşik Krallık’ta Katil Robotları Durdur kampanyası o dönemde, hükümetin YASALARIN kullanımı etrafında çizgiler çekilmesi gerektiğini kabul etmesi önemli olmakla birlikte, “bağlama uygun insan katılımının” nasıl değerlendirileceğine veya anlaşılacağına dair hiçbir gösterge vermediğini söyledi.
“Bu yeni formülasyonda, ‘bağlama uygun insan katılımı’ neredeyse her anlama gelebilir ve Birleşik Krallık’ın çizgiyi nerede çizdiğiyle ilgili ayrıntı eksikliği, ordu tarafından Birleşik Krallık kamuoyuna neyin uygun olduğunu ‘bize bırakın’ söylenmesi anlamına gelir. ” o dedi.
“Bu, daha önceki endişelerimizin simgesidir, bu politika pozisyonunun yanı sıra daha geniş Savunma AI stratejisikamuoyuna danışılmadan veya bakanların bu konuda ulusal bir görüşme yapma girişimi olmadan formüle edildi.”
Uluslararası konsensüs eksikliği
Bununla birlikte, Temmuz 2022’de HUKUK kapsamındaki uluslararası işbirliğinin mevcut durumu hakkında yorum yapan Alman Uluslararası ve Güvenlik İşleri Enstitüsü, BM düzeyindeki uzman görüşmelerinin başarısızlıkla karşı karşıya olduğunu söyledi.
“Hükümet Uzmanları Grubu [GGE] 2017’den beri BM silah kontrolü bağlamında AWS’yi tartışıyor” dedi. “AWS Yönetmeliği giderek daha uzak bir ihtimal ve hatta bazı temsilciler özel olarak görüşmelerin başarısız olmuş olabileceğini kabul ediyor.”
GGE’nin karar almak için oybirliği gerektirmesi nedeniyle, Rusya’nın Şubat 2022’de Ukrayna’yı işgalinden bu yana müzakerelere dahil olmamasının, YASALAR etrafındaki uluslararası tartışma için alternatif forumların bulunması gerekeceği anlamına geldiğini de sözlerine ekledi.
Bununla birlikte, Rusya’nın Ukrayna’daki eylemlerinden önce bile, kesin tanımlar ve terminoloji konusundaki anlaşmazlıklar da dahil olmak üzere, “öz farklılıklarının … hızlı anlaşmayı engellediği açıktı” kaydetti.
Bir diğer fay hattı ise ABD, Rusya ve Çin arasında özellikle yeni teknolojiler alanında belirginleşen silahlanma yarışıdır.
Kongre Araştırma Servisi tarafından Kasım 2022’de yayınlanan “gelişmekte olan askeri teknolojiler” konulu bir raporda analistler, kabaca 30 ülke ve 165 sivil toplum kuruluşunun (STK), çevredeki etik kaygılar nedeniyle YASALARIN kullanımına yönelik önleyici bir yasak çağrısında bulunduğunu kaydetti. potansiyel sorumluluk eksikliği ve çatışmayla ilgili uluslararası yasalara uymama dahil olmak üzere bunların kullanımı.
Justin Haner ve Denise Garcia tarafından Eylül 2019’da yapılan bir araştırma, teknolojinin “hızla çoğalması, terörist taktikleri geliştirmesi, otoriter yöneticileri güçlendirmesi, demokratik barışı baltalaması ve önyargıya karşı savunmasız olması” nedeniyle otonom silah yeteneklerinin gözetiminin “kritik derecede önemli” olduğunu söyledi. bilgisayar korsanlığı ve arıza”.
Ayrıca teknolojiyi küresel olarak zorlayan ana oyuncuların ABD, Çin, Rusya, Güney Kore ve Avrupa Birliği olduğunu da buldular.
“ABD, otonom donanım geliştirme ve yatırım kapasitesinde açık ara lider. 2010 yılına kadar ABD, AWS’yi araştırmak için şimdiden 4 milyar dolar yatırım yaptı ve 2020’ye kadar özerklik gelişimi için ayrılan 18 milyar dolar daha” dediler.
YASALAR etrafında açık uluslararası kurallar ve güvenceler bulunmamasına rağmen, savaş durumlarında otonom silahların konuşlandırıldığına dair raporlar var.
Örneğin, Mart 2021’de yayınlanan bir BM Güvenlik Konseyi raporu, Libya’nın Trablus kentindeki Ulusal Anlaşmaya Bağlı Kuvvetler Hükümeti (BM tarafından desteklenen GNA-AF) ile Hafter’e Bağlı Kuvvetler (HAF) arasındaki bir angajmanı anlatıyor.
“Lojistik konvoyları ve geri çekilen HAF, daha sonra insansız savaş hava araçları veya STM Kargu-2 ve diğer aylak aylak mühimmatlar gibi ölümcül otonom silah sistemleri tarafından yakalandı ve uzaktan devreye alındı.”
“Ölümcül otonom silah sistemleri, operatör ile mühimmat arasında veri bağlantısı gerektirmeden hedeflere saldırmak üzere programlandı: aslında gerçek bir ‘ateş, unut ve bul’ yeteneği.”
HAF birimlerinin “bu yeni teknolojinin etkili kullanımına karşı savunma yapmak için ne eğitildiğini ne de motive edildiğini ve genellikle kargaşa içinde geri çekildiğini” ekledi. Geri çekildikten sonra, insansız savaş hava araçları ve ölümcül otonom silah sistemleri tarafından sürekli tacize maruz kaldılar.”
Bununla birlikte, bu silah sistemlerinin ne düzeyde özerkliğe sahip olduğu ifadeden net değildir ve insanların kullanımları sonucunda öldürülüp öldürülmediği açıkça belirtilmez.
New Scientist Haziran 2021’de İsrail Savunma Kuvvetlerinin (IDF) ayrıca Gazze’deki hedefleri tespit etmek, tespit etmek ve saldırmak için yapay zeka destekli bir insansız hava aracı sürüsü kullandığını bildirdi.