Aralık ayında yapılan testler sırasında sisteme bir çift yapay zeka programı yüklendi: Hava Kuvvetleri Araştırma Laboratuvarı’nın Otonom Hava Muharebe Operasyonları (AACO) ve Savunma İleri Araştırma Projeleri Ajansı’nın (DARPA) Hava Muharebesi Evrimi (ACE). AACO’nun AI ajanları, görsel menzilin ötesinde (BVR) tek bir düşmanla savaşa odaklanırken, ACE daha yakın, “görünür” simüle edilmiş bir düşmanla it dalaşı tarzı manevralara odaklandı.
VISTA, arka kokpitte yedek olarak sertifikalı bir pilot gerektirse de, test uçuşları sırasında, AI sistemlerinde eğitimli bir mühendis, ortaya çıkan herhangi bir teknik sorunla başa çıkmak için ön kokpitte görev yaptı. Sonunda, bu sorunlar önemsizdi. DARPA program yöneticisi Yarbay Ryan Hefron, incelikleri ayrıntılı olarak açıklayamamakla birlikte, “sanaldan canlıya geçiş sırasında herhangi bir aksaklık beklenebileceğini” açıklıyor. Sonuç olarak, Skyborg’un otonom uçakları mümkün olan en kısa sürede yerden indirme hedefini gerçekleştirme yolunda önemli bir adımdı.
Savunma Bakanlığı, AACO ve ACE’nin insan pilotları değiştirmek için değil, onları desteklemek için tasarlandığını vurguluyor. Bazı durumlarda, AI yardımcı pilot sistemleri, aktif savaşta pilotlar için bir destek mekanizması görevi görebilir. Saniyede milyonlarca veri girişini ayrıştırabilen ve kritik kavşaklarda uçağın kontrolünü ele geçirebilen AACO ve ACE ile bu, ölüm kalım durumlarında hayati olabilir. İnsan girdisi gerektirmeyen daha rutin görevler için, insan pilot için bir kokpit gerekli olmadığında uçakların burun bölümü değiştirilerek uçuşlar tamamen otonom olabilir.
“Pilotları değiştirmeye çalışmıyoruz, artırmak onlara fazladan bir alet verin,” diyor Cotting. Geçmiş seferlerdeki askerlerin savaşa at sırtında gitmesi benzetmesini yapar. “At ve insan birlikte çalışmak zorundaydı” diyor. “At arazide gerçekten iyi koşabilir, bu nedenle binici A noktasından B noktasına gitme konusunda endişelenmek zorunda kalmaz. Beyni daha büyük düşünceler düşünmek için serbest kalabilir.” Örneğin Cotting’e göre, kokpitte 100 saatlik deneyime sahip bir üsteğmen, yapay zeka güçlendirme sayesinde 1.000 saatlik uçuş deneyimine sahip çok daha yüksek rütbeli bir subayla yapay olarak aynı avantajı elde edebilir.
USAF Test Pilot Okulu’nda baş test pilotu olan Bill Gray için yapay zekayı dahil etmek, insan öğrencilerle yaptığı çalışmanın doğal bir uzantısıdır. “Ne zaman biz [pilots] mühendisler ve bilim adamlarıyla yapay zeka ajanlarını eğitmenin ve kalifiye etmenin zorlukları hakkında konuşun, genellikle bunu yeni bir sorun olarak ele alıyorlar” diyor. “Bu beni rahatsız ediyor, çünkü on yıllardır doğrusal olmayan ve öngörülemeyen doğal zeka ajanlarını -öğrencileri- eğitiyor ve uygun hale getiriyorum. Benim için soru, ‘Yapay zeka ajanlarını eğitebilir ve kalifiye edebilir miyiz?’ değil. “Neden insanları eğitip kalifiye edebiliyoruz ve bu bize aynısını yapay zeka ajanları için yapma konusunda ne öğretebilir?”
Gray, AI’nın “tüm sorunları çözebilecek harika bir araç olmadığına” inanıyor, bunun yerine maliyetli aksilikleri önlemek için yerleşik güvenlik önlemleriyle dengeli bir yaklaşımla geliştirilmesi gerektiğine inanıyor. Gray, yapay zekaya aşırı güvenmenin – “özerkliğe güvenmenin” – tehlikeli olabileceğine inanıyor ve Tesla’nın sürücünün yedek olarak direksiyon başında olması gerektiğini iddia etmesine rağmen Tesla’nın otopilot programındaki başarısızlıklara işaret ediyor. Cotting, AI programlarını VISTA’da test etme yeteneğini bir “risk azaltma planı” olarak nitelendirerek aynı fikirde. Tamamen yeni bir hava aracı inşa etmek yerine yapay zekayı VISTA X-62 gibi geleneksel sistemler üzerinde eğiterek otomatik limitler ve gerekirse güvenlik pilotu müdahalesi, yapay zekanın öğrenirken uçağı tehlikeye atmasını önlemeye yardımcı olabilir.