Hükümet, askeri yapay zeka konusunda 'sorumlu' davrandığı konusunda ısrar ediyor


Birleşik Krallık hükümeti, Lord'un “dikkatli hareket edin” yönündeki uyarısının ardından ölümcül otonom silah sistemlerinin (LAWS) ve askeri yapay zekanın (AI) geliştirilmesinde zaten “sorumlu” davrandığı konusunda ısrar ediyor.

Ancak eleştirmenler, hükümetin alternatif etik perspektiflerle ilgilenmede başarısız olduğunu ve bu tepkinin yalnızca önceden kararlaştırılan eylem planına olan bağlılığı teyit ettiğini söylüyor.

Ocak 2023'te askeri yapay zeka ve YASALARI geliştirme ve konuşlandırma etiğini araştırmak üzere kurulan Lord'un Silah Sistemlerinde Yapay Zeka komitesi, 1 Aralık'ta hükümetin askeri yapay zekaya “iddialı, güvenli ve sorumlu” bir şekilde yaklaşma vaadinin yerine getirilmediği sonucuna vardı. gerçeğe kadar.

Lords, özellikle LAWS ve genel olarak askeri yapay zeka hakkındaki tartışmaların “gündem arayışı ve anlayış eksikliği nedeniyle altüst olduğunu” belirtti ve hükümeti yapay zekayı askeri amaçlar için kullanırken “dikkatli hareket etmesi” konusunda uyardı.

Komitenin bulgularına yanıt veren hükümet, halihazırda sorumlu bir şekilde hareket ettiğini ve Savunma Bakanlığı'nın (MoD) yapay zeka konusundaki önceliğinin, potansiyel düşmanlar karşısında askeri kapasiteyi en üst düzeye çıkarmak olduğunu söyledi. sorumlu”.

Hükümet, “kapsamlı ve düşündürücü analizi” memnuniyetle karşılarken, komitenin ihtiyatlı ilerlemesi gerektiği yönündeki genel mesajının “MoD'un yapay zekanın benimsenmesine yönelik yaklaşımını yansıttığını” ekledi.

Ayrıca “askeri alanda yapay zekanın güvenli ve sorumlu bir şekilde kullanılmasına kararlı” olduğunu ve “ulusal ve uluslararası yasal yükümlülüklerimize her zaman uyacağını” belirtti.

Özel öneriler

Hükümetin tepkisi, komite tarafından yapılan ve birçoğu gözetimi iyileştirmeye ve askeri yapay zeka için demokratik destek oluşturmaya odaklanan, uygun incelemenin gerçekleşmesi için Parlamento'ya daha fazla bilgi sunulmasının yanı sıra kamuoyunun anlaşılması için çalışmalar yapılması da dahil olmak üzere komite tarafından yapılan spesifik tavsiyelere yönelikti. tutumlar.

Komite ayrıca yapay zekanın nükleer komuta, kontrol ve iletişimde kullanımının özel olarak yasaklanması çağrısında bulundu; Yapay zeka silah sisteminin yaşam döngüsünün her aşamasında anlamlı insan kontrolü; ve anlamlı politika kararlarının alınabilmesi için AWS'nin operasyonel, teknolojiden bağımsız bir tanımının benimsenmesi.

“[The UK government] Komite başkanı Lord Lisvane, “kamuoyunun anlayışını ve demokratik onayı elde ederken, tasarım, geliştirme ve uygulamanın tüm aşamalarında etik ve yasal ilkelere yer vermelidir” dedi. “Teknoloji avantajlı olduğunda kullanılmalı, ancak Birleşik Krallık'ın ahlaki ilkelerine kabul edilemez bir maliyet getirmemelidir.”

Yanıt ayrıntıları

Konuya hâlihazırda ihtiyatla yaklaştığına dair örnekler veren hükümet, silah sistemleri üzerinde anlamlı bir insan kontrolüne sahip olma taahhüdünü zaten ortaya koyduğunu ve insan kontrolünün en etkili biçimlerine yönelik aktif olarak araştırma yürüttüğünü söyledi; ve halihazırda nükleer cephaneliği üzerinde “insani siyasi kontrolü” sürdürme taahhüdünde bulunmuştur.

Etik ilkelere nasıl bağlı kalacağını ve sorumlu askeri yapay zeka alanında nasıl lider olacağını açık bir şekilde özetlemesi gerektiğine dair tavsiyeler hakkında doğrudan yorum yapan hükümet, bu sonuçları elde etmek için halihazırda “somut adımlar” attığını söyledi.

“Yapay zekayı güvenli ve sorumlu bir şekilde benimsemeye kararlıyız çünkü başka hiçbir yaklaşım İngiliz halkının değerleriyle uyumlu olamaz; güvenlik ve yasal uyumluluk konusundaki mevcut katı yaklaşımımızın taleplerini karşılamak; veya ihtiyacımız olan yapay zeka destekli yeteneği geliştirmemize izin verin” dedi.

“Yeni teknolojilerin ve yeteneklerin benimsenmesinin ve entegrasyonunun Savunma için yeni bir zorluk olmadığının açık olması önemlidir. Herhangi bir askeri yeteneğin yaşam döngüsü boyunca yerleşik, net hesap verebilirlik çizgileri ve güvence ve kontrol çerçeveleri içeren etkili risk yönetimi sistemleri kurduk.

“Yapay zekanın doğası veya işlevselliği nedeniyle benzersiz gereksinimlerin gerekli olduğu durumlarda, mümkün olan her yerde yerleşik çerçevelerle çalışarak bu yaklaşımları gözden geçirip geliştireceğiz.”

Askeri kapasiteyi en üst düzeye çıkarmak

Hükümet, uluslararası hukuku ve kendi etik ilkelerini koruma ihtiyacının bilincinde olmakla birlikte, “önceliğimizin büyüyen tehditler karşısında askeri kapasitemizi en üst düzeye çıkarmak olduğunu” söyledi.

Bu öncelik göz önüne alındığında, AWS'nin tanımının gerekliliği konusunda komiteyle aynı fikirde olmadığını ve bu nedenle bir tanım benimseme niyetinde olmadığını, çünkü “Komitenin haklı olarak endişe duyduğu sorumsuz ve etik olmayan davranışlar ve sonuçlar” olduğunu söyledi. mevcut koşullar altında zaten yasaktır [international] Yasal mekanizmalar”.

Belirli sistem türlerini yasaklayan yeni bir yasal belge için başlangıç ​​noktası olarak LAWS tanımını kullanmanın (bazılarının iddia ettiği gibi, ancak komitenin değil) “Birleşik Krallık Savunma çıkarlarına bir tehdit teşkil ettiğini ve göz önüne alındığında, mümkün olan en kötü zamanda” ekledi. Rusya'nın Ukrayna'daki eylemi ve potansiyel düşmanların saldırganlığında genel bir artış”.

“Bağlama uygun insan katılımı yoluyla uygulanan anlamlı insan kontrolünün her zaman bir sistemin tüm yaşam döngüsü boyunca dikkate alınması gerektiğini savunuyoruz” dedi. “Biz ve kilit ortaklarımız, başka şekilde çalışacak AWS'nin oluşturulmasına ve kullanılmasına karşı olduğumuzu açıkça belirttik, ancak benzer taahhütlerde bulunmayan ve bu kadar sorumlu olma ihtimali olmayan potansiyel düşmanlarla karşı karşıyayız.

“Bunun yerine, diğer alanlarda da gördüğümüz gibi, rakipler, güvenli olmayan ve sorumsuz kullanım durumlarını aktif olarak takip ederken meşru araştırma ve geliştirmeyi kısıtlamak için uluslararası baskı ve yasal araçları kullanmaya çalışacaklar. Birleşik Krallık'ın, halkımızı ve toplumumuzu bu tür düşmanca faaliyetlere karşı korumak için yasal ve sorumlu savunma yeteneklerini geliştirmek üzere hareket özgürlüğünü sürdürmesi önemlidir.”

Hükümet, yeni teknolojilerin entegrasyonu Kalkınma Bakanlığı için yeni bir zorluk olmasa da, etik ilkelerin nasıl işlevsel hale getirilebileceğine ilişkin, özellikle yönetişim, sorumluluklar, süreçler ve raporlama mekanizmalarının ana hatlarını çizeceği daha fazla kılavuzu “kısa süre içinde” yayınlayacağını söyledi. ilkelerin uygulamaya dönüştürülmesi gerekmektedir.

Eleştirel sesler

Hükümetin tepkisi hakkında yorum yapan Sivil Toplum Kuruluşu Drone Wars'tan (Nisan 2023'te komiteye kanıt sunan) Peter Burt, yanıtta çok az yeni bilgi bulunduğunu ve bu alandaki hükümet politikasını gözlemciler için hiçbir şeyin şaşırtıcı olmayacağını söyledi. .

“Cevap, hükümetin halihazırda almayı planladığı eylem planını nasıl takip etmeyi planladığının ana hatlarını çiziyor, Savunma Yapay Zeka Stratejisi gibi geçmiş politika açıklamalarının özünü yineliyor ve Savunma Bakanlığı'nın askeri yapay zeka alanındaki son faaliyetlerini ve başarılarını şişiriyor. ” diye yazdı bir blog yazısında.

“Tahmin edilebileceği gibi yanıt, yüksek kaliteli veri setleri geliştirmek, Savunma Bakanlığı'nın yapay zeka satın alma düzenlemelerini iyileştirmek ve gelecekteki potansiyel yapay zeka yeteneklerine ilişkin araştırmalar yürütmek gibi Lordların kendi gündemiyle uyumlu tavsiyelerine destekleyici bir yaklaşım getiriyor.”

Ancak komitenin MoD yaklaşımına “büyük ölçüde” karşı çıktığı ender durumlarda, bu zorlukların sonuçta hükümet tarafından reddedildiğini, özellikle de “Birleşik Krallık'ın” kendisini Rus askeri harekâtına karşı daha savunmasız hale getirecekti. Gerçekten mi?”

Londra Queen Mary Üniversitesi'nde siyaset teorisi doçenti ve yazarı Ölüm makineleri: Şiddet teknolojilerinin etiğiElke Schwarz, Computer Weekly'ye, hükümetin tepkisinde bazı cesaret verici hamleler ve işaretler olsa da, bir etik uzmanı olarak bunu hayal kırıklığı bulduğunu söyledi.

“Etik sorunu tamamen yeterince ele alınmıyor” dedi. “Bunun yerine, son zamanlardaki 'sorumlu yapay zeka'ya yönelme, bu kavram yeterince tanımlanmamış ve aşırı kullanılmış olsa da, işin büyük yükünü çekiyor.

“Son yıllarda gördüğümüz şey, nispeten zayıf 'sorumluluk' kavramının, etikle daha derinlemesine ilgilenmenin yerine geçtiğidir. Yapay zekada, özellikle de hedefleme sistemlerinde yapay zekada açıkça mevcut olan daha çetrefilli etik sorularla uğraşmak yerine 'sorumluluğa' doğru bu yatay geçişin, AWS oluşturmak isteyen devlet aktörleri için bir takım sonuçları var.”

Schwarz, “sorumluluğa” odaklanmanın aynı zamanda sorumlu aktörler (yani Batılı güçler) ile doğası gereği sorumsuz aktörler (genellikle Çin veya Rusya) arasında stratejik açıdan yararlı bir ayrım yarattığını da sözlerine ekledi: “Bunu söylemde tekrar tekrar görüyoruz.” söz konusu. “Bu yine, olası etik tuzaklar veya bu sistemlerin gerçekten etkili olduğuna dair olası kanıt eksikliği konusunda eleştirmenlerin dile getirdiği zorlukları göz ardı etmede etkilidir.”

Burt, benzer şekilde, hükümetin askeri yapay zeka ve AWS konusunda “benzer düşüncelere sahip ülkelerle” diyaloğa yaptığı vurgunun “çok az çaba gerektirdiğini ve büyük olasılıkla sınırlı kar payı ödeyeceğini” ve farklı görüşlere sahip olanlarla etkileşime geçmenin gerçek bir değişime ulaşmak için şart olduğunu belirtti.

“Birleşik Krallık bunu uluslararası sahnede yapmak için açıkça hiçbir çaba göstermedi” dedi. “Cevap, 'Bazı düşmanların gelişmiş yapay zeka teknolojilerini kötü niyetli, güvensiz ve etik olmayan bir şekilde kullanarak kötüye kullanmaya çalışabileceğini biliyoruz' gibi yargılarla doludur ve bu da Birleşik Krallık'ın bu rakiplere karşı düşmanca bir yaklaşım benimseme niyetinde olduğunu gösterir. ve onlarla diyaloğa girmek gibi bir niyeti yok.”

Nihayetinde Schwarz, yapay zeka silahları için neyin kabul edilebilir olup olmadığı konusunda kale direklerinin ne kadar hızlı değiştiği göz önüne alındığında, hükümetin tepkisinden “biraz yorgun” hissetmemenin, bunu bir çaba olarak okumanın zor olduğunu söyledi. Ortaya çıkan etik sorunların etrafından dolaşmak ve eskisi gibi devam etmek.

“Çok fazla dilsel çarpıtma, genellemeler, belirsiz ifadeler var ve yalnızca raporda değil, bu konuyla ilgili pek çok uzman tarafından da gündeme getirilen etik sorunların ayrıntılarına çok az somut katılım var” dedi. “Bu meselede güçlü bir teyit yanlılığının iş başında olduğu hissine kapılıyoruz, bu sayede tartışmanın yalnızca hükümetin duymak istediği yönleri kabul ediliyor.”

Anahtar ortaklar

Hem Burt hem de Schwarz, hükümetin tepkisinin açıkça İsrail'i, bombalama hedeflerini belirlemek için Habsora (ya da İngilizce İncil) olarak bilinen makine öğrenimine dayalı bir sistem kullanan askeri yapay zeka konusunda “kilit ortak” olarak öne çıkardığını belirtti. Gazze'de kampanya.

Yapay zeka sisteminin Aralık 2023'ün başında kamuoyunun bilgisine sunulduğu sırada, İsrail Savunma Gücü (IDF) Gazze'de zaten 15.000'den fazla insanı öldürmüştü; Gazze Sağlık Bakanlığı'nın tahminlerine göre bu rakam yayınlandığı tarihte 30.000'in üzerindeydi.

Burt, “İsrail'i, sivil kayıpların çok artmasına yol açan hedefleme ve savaşma yöntemlerinin kullanımından sorumlu tutmak yerine, Birleşik Krallık, İsrail'in savaş çabalarını tüm kalbiyle destekliyor” dedi.

“Lordlar Komitesi'ne verilen yanıtta ortaya konulan hükümet politikaları ile Gazze'ye saldırı sırasında yaşananların gerçekliği arasındaki bu gibi boşluklar, yanıtın gerçekte ne olduğunu, yani bir halkla ilişkiler belgesini açığa çıkarıyor. Cevabın nihai amacı, Lordlar Kamarası üyelerini hükümetin onların endişelerini dinlediğine ikna etmek değil, mevcut Savunma Bakanlığı politikasını ve askeri yapay zekaya yönelik yatırımları medyaya ve kamuoyuna 'satmaktır'.”

Bunu, yapay zeka sistemlerinin insan muhakemesi üzerindeki marjinalleştirici etkisine bağlayan Scwharz, dünyanın Gazze'de IDF'de tanık olduğu olaylar göz önüne alındığında, döngüye bir insanı yerleştirmenin hiç de etkili olmayabileceğini söyledi.

“İnsan katılımı, hızlandırılmış bir onay süreci anlamına geliyor; hedeflerin çok fazla incelemeye gerek kalmadan seri olarak kabul edilmesi norm olacak” dedi. “Yapay zeka sisteminin mantığı ve sunduğu hızın cazibesi göz önüne alındığında bu, bariz bir gidişattır. Ancak bu tür insan katılımı anlamlı olmaktan çok uzaktır.”

Schwarz, hükümetin tepkisindeki eksikliklere rağmen gelecek kılavuz belgeleri görmek isteyeceği sonucuna vardı. “Hükümetin, gelecekteki bir savaş için henüz denenmiş ve test edilmiş ürünlerini satan çok güçlü ve giderek güçlenen teknoloji lobisi tarafından tamamen ikna edilmediğine dair hâlâ bir umut olabilir” dedi.



Source link