Otonom silahlar ahlaki failliği azaltır ve insan yaşamının değerini düşürür


Askeri teknoloji uzmanlarına göre, insanları hedef almak için otonom silah sistemlerinin (AWS) kullanılması, ahlaki failliği aşındıracak ve yaşamın genel olarak değersizleştirilmesine yol açacaktır.

30 Nisan 2024’te Avusturya hükümeti tarafından yapay zeka (AI) destekli silahların yol açtığı devam eden ahlaki, etik, yasal ve insani zorlukları tartışmak için kurulan bir forum olan Otonom Silah Sistemleri Viyana Konferansı’nda konuşan uzmanlar, bunun etkisinden bahsetti AWS’nin insan onuru üzerindeki etkisi ve algoritmik olarak etkinleştirilen şiddetin sonuçta hem hedeflerini hem de operatörlerini nasıl insanlıktan çıkaracağı.

Konferans boyunca uzmanların dile getirdiği spesifik endişeler arasında, ölümcül güce maruz kalan kişilerin ekrandaki veri noktalarına ve sayılara indirgenmesi durumunda insanlıktan çıkma potansiyeli; kullanılan programlama veya kriterlerdeki önyargılar nedeniyle hedef seçimi sırasında ayrımcılık riski; operatörlerin eylemlerinin insani sonuçlarından duygusal ve psikolojik olarak uzaklaşması.

Konuşmacılar ayrıca, otomasyon yanlılığının bir araya gelmesi ve bu tür silahların savaşın hızını insanın kavrayışının ötesinde nasıl arttırdığı nedeniyle AWS üzerinde anlamlı bir insan kontrolünün olup olamayacağına da değindi.

Algoritmik öldürmenin etiği

Kopenhag Askeri Araştırmalar Merkezi’nde araştırmacı olan Neil Renic, akademisyen Elke Schwarz ile otonom silahların etiği üzerine yaptığı çalışmalara vurgu yaparak, AWS ile ilgili en büyük endişenin, halihazırda içine yerleştirilmiş olan daha geniş şiddet sistemlerini nasıl daha da yoğunlaştırabilecekleri olduğunu söyledi. .

“Otonom silahlar ve bunların mümkün kılacağı ve hızlandıracağı sistematik öldürme, muhtemelen insan onurunu iki farklı şekilde baskı altına alacaktır; ilki, hedeflenenin ahlaki açıdan değersizleştirilmesini teşvik ederek”, insanların AWS kapsamında “aşırı sistemleştirilmesinin” de sözlerine ekledi. önceden belirlenmiş ve aşırı geniş hedefleme kategorilerinin benimsenmesini doğrudan empoze edecek veya en azından teşvik edecektir.

“İnsanların bu kaba ve topyekun nesneleştirilmesi, çok kolay bir şekilde temel kısıtlamaların kaybolmasına, dolayısıyla hedeflenen kişinin temel haklarının ve onurunun elinden alınmasına yol açıyor. Ve bu etkileri sistematik cinayetlerin tarihini inceleyerek gözlemleyebiliriz.”

Xiamen Üniversitesi Hukuk Fakültesi’nde uluslararası hukuk alanında yardımcı doçent olan Fan Yang’a göre AWS’deki önyargı sorunu, hem sistemleri eğitmek için kullanılan veriler hem de insanların onlarla nasıl etkileşimde bulunduğu açısından ortaya çıkıyor.

AWS’deki önyargının muhtemelen doğrudan insan kayıplarına yol açacağını belirten Yang, bunun örneğin bir perakende algoritmasında fiyat ayrımcılığının kurbanı olmaktan çok daha kötü olduğunu söyledi.

“Teknik olarak AWS’nin tasarımı ve geliştirilmesindeki önyargıları ortadan kaldırmak imkansızdır” dedi. “Nihai kodda bir insan kontrolü unsuru bulunsa bile önyargı muhtemelen devam edecektir çünkü psikolojik olarak insan komutanlar ve operatörler, bir AWS tarafından önerilen seçenek veya karara aşırı güvenme eğilimindedir.”

Yang, herhangi bir ayrımcı hedeflemenin (ister verilere eklenen önyargıların, ister insan operatörlerin makinelerin çıktılarına güvenme konusundaki önyargılarının bir sonucu olsun) belirli grup veya toplulukları daha da marjinalleştirerek çatışmayı muhtemelen daha da kötüleştireceğini, bunun da sonuçta şiddeti artırabileceğini ve barışı zayıflatabileceğini ekledi. çözümler.

İnsan eyleminin erozyonu

Renic, AWS tarafından uygulanan şiddetin sistemik ve algoritmik doğasının, aynı zamanda silahları kullanan operatörlerin “ahlaki failliğini” yıpratma potansiyeline sahip olduğunu da sözlerine ekledi.

“Yoğunlaştırılmış şiddet sistemleri içinde, insanlar genellikle ahlaki failler olarak yetkisiz hale getiriliyor veya kendilerinin yetkisiz hale getiriliyor” dedi. “Savaş alanında ve algoritmik şiddet sistemleri içinde, kendilerini yansıtma, anlamlı ahlaki yargılarda bulunma kapasitelerini kaybediyorlar veya teslim oluyorlar, bu duruma dahil olanların kararlarını gitgide daha fazla algoritmaların otoritesine teslim ettiklerini göreceğiz.”

Otonom silahlar insan müdahalesine son vermeyecek [but] Şiddetle insan ilişkisini potansiyel olarak daha kötü yönde yeniden düzenleyecek ve çarpıtacaklar

Neil Renic, Askeri Araştırmalar Merkezi

Renic ayrıca, bilgisayarlı öldürmenin teşvik ettiği “rutinleştirme süreçleri” yoluyla, AWS operatörlerinin bu tür sistemleri ahlaki açıdan sorgulama kapasitesini ve eğilimini kaybettiğini ve bunun da farklı türde bir insanlıktan çıkarılmaya yol açtığını ekledi.

AWS’nin operatörleri üzerindeki zararlı etkileri hakkında yorum yapan Fas Uluslararası Yapay Zeka Merkezi’nin idari başkanı Amal El Fallah Seghrouchni, “sanallık” ve “hız” arasında ikili bir sorun olduğunu söyledi.

Askeri bir AWS kullanıcısı ile teknolojinin konuşlandırıldığı operasyonel alan arasındaki fiziksel mesafeyi vurgulayarak, otomatik ölümcül kararların sonuçlarının aynı şekilde görülmediğini ve bu sistemler tarafından alınan kararların hızının, Farkındalık eksikliği olan operatörler.

Hedeflerin AWS tarafından özelliklerine göre özerk bir şekilde belirlenmesi gerekip gerekmediği sorusuna olumlu yanıt veren bir konuşmacı çıkmadı.

Örneğin Elektrik ve Elektronik Mühendisleri Enstitüsü’nün (IEEE) küresel pazar geliştirme ve sınır teknolojileri direktörü Anja Kaspersen, genel olarak yapay zeka ve makine öğrenimi ile sistemlerin genellikle kabul edilebilir bir hata oranına sahip olacağını söyledi.

“%90 doğruluğa sahipsiniz, sorun değil. Ama operasyonel olarak [combat] Tiyatronun yüzde 10’unu kaybetmek çok, çok, çok hayat kaybetmek anlamına geliyor’ dedi. “Hedeflemeyi kabul etmek, insan hayatındaki bu kaybı kabul etmek anlamına gelir; bu kabul edilemez.”

Renic, AWS’nin hedeflerini daha özgürce seçebildiği bazı daha az sorunlu senaryolar (tanımlanan özelliğin bir geminin güvertesindeki üniformalı bir düşman olduğu, sivillerden uzak bir deniz ortamı gibi) olabileceğini ancak kötü niyetli sayısız senaryonun da bulunduğunu ekledi. Tanımlanmış veya tartışılabilir özellikler, korkunç sonuçlarla “hedeflenen düşman” kategorisini oluşturacak şekilde hesaplanabilir.

“Burada, ‘askerlik çağındaki erkek’ özelliğinin ne kadar sefalet ve haksız zarar ürettiğini düşünüyorum” dedi. “Askerlik çağındaki erkeklerin, örneğin otonom bir silaha sabit kodlanmış olma özelliğinden endişeleniyorum. Bence bu, bu tartışmalarda bizi gerçekten rahatsız etmesi gereken türden bir ahlaki meydan okumadır.”

Renic ve diğer konuşmacılar arasındaki fikir birliği, AWS’nin ortaya çıkardığı öldürmeye yönelik sistematik yaklaşımın ve çeşitli aktörlerin bu tür sistemleri konuşlandırma kolaylığının sonuçta şiddete başvurma eşiğini düşüreceği yönündeydi.

Renic, “Buradaki meselemiz insanlığın silinmesi değil; otonom silahlar insan müdahalesine son vermeyecek” dedi. “Ancak yapacakları şey, daha geniş anlamda askeri yapay zekayla birlikte, insanların şiddet ile olan ilişkisini potansiyel olarak daha da kötüye doğru yeniden düzenlemek ve çarpıtmak olacak.”

Teknolojinin düzenlenmesi açısından fikir birliği, tamamen otonom silahların tamamen yasaklanması gerektiği, hedef seçim süreci, belirli bir durumda konuşlandırılan kuvvetin ölçeği ve AWS’nin diğer tüm tür ve yönlerinin sıkı bir şekilde düzenlenmesi gerektiği yönündeydi. İnsanların anlamlı müdahale etme yeteneği.



Source link