Onlarca yıldır Amerika Birleşik Devletleri savunma duruşunu teknolojik ilerleme için öngörülebilir zaman çizelgeleri etrafında oluşturdu. Los Alamos Ulusal Laboratuvarı’ndaki araştırmacılara göre bu varsayım artık geçerli değil. Makaleleri, yapay zekanın o kadar hızlı ilerlediğini ve mevcut savunma sisteminin zamana uyum sağlayamayacağını savunuyor.

Yazarlar, ABD’nin, yetenekli makine zekasının olmadığı bir çağda tasarlanan programlara güvenmeye devam etmesi halinde, stratejik sürpriz riskiyle karşı karşıya olduğu konusunda uyarıyor. Yaklaşan yıkımı, atom silahlarının tamamen yeni bir güvenlik ekosistemi yaratmaya zorladığı erken nükleer çağa benzetiyorlar.
Yapay zeka bilimsel değişimi hızlandırıyor
Rapor, savunma planlamasının uzun süredir iki saatin senkronize edilmesine bağlı olduğunu belirtiyor: biri savunma gelişimi için, diğeri bilimsel ilerleme için. Yapay zeka artık bu senkronizasyonu bozuyor.
Yazarlar ilerlemenin ne kadar hızlandığını gösteren birkaç örnek veriyor. Yapay zeka destekli hava durumu modelleri, yalnızca donanımdaki gelişmeler kullanıldığında yirmi yıl sürecek performans kazanımlarına ulaştı. Malzeme keşfinde yapay zeka, yaklaşık 400.000 yeni kararlı bileşiğin ortaya çıkarılmasına yardımcı oldu; bu, bir asırdan fazla bir süre önce gerçekleştirilebilecek bir ilerleme ölçeğidir.
Bu sıçramalar, analistlerin teknolojik değişimi tahmin ederken tarihsel iyileşme oranlarına güvenemeyeceklerini gösteriyor. 30 veya 50 yıllık bir hizmet ömrü için oluşturulmuş sistemler, bu sürenin çok küçük bir kısmında geçerliliğini kaybedebilir.
Keşif ekonomisi değişiyor
Bir diğer önemli bulgu ise yapay zekanın stratejik avantajın nasıl takip edildiğini değiştirdiğidir. Geleneksel atılımlar, disiplinler arası uzman ekiplerinin koordine edilmesine bağlıdır. Yapay zeka sistemleri artık binlerce fikri maliyetin çok altında bir maliyetle dakikalar içinde test edebiliyor.
Örneğin, yeni bir kriptografik yaklaşım geliştirmek, bir araştırmacı ekibinin bir yıl ve milyonlarca dolar harcamasını gerektirebilir. Yapay zeka ajanlarından oluşan bir ağ, yalnızca birkaç yüz dolar karşılığında on binlerce algoritmik varyasyonu deneyebilir. Bu, insanların yapabileceğinden çok daha fazla olasılığı araştıran etmenli sistemlerle, bilimsel “soyut madenciliği”ni büyük ölçekte sürdürmeyi mantıklı kılıyor.
Yazarlar, gelecekteki güç dengesinin insan uzmanlığına daha az, bilgi işlem gücü ve enerjiye erişime daha fazla bağlı olabileceğini öne sürüyor. Büyük yapay zeka sistemlerini çalıştırabilen ülkeler hem yenilik hem de tehdit oluşturma konusunda avantaja sahip olacak.
Yapay zeka, tehlikeli yetenekler yaratmanın önündeki engeli kaldırıyor
Yapay zeka aynı zamanda güçlü tehditler oluşturma yeteneğini de demokratikleştiriyor gibi görünüyor. Bir zamanlar önemli miktarda kaynak gerektiren görevler artık küçük gruplar veya bireyler tarafından gerçekleştirilebiliyor. Rapor, yaklaşık yüzde 15 oranında fikirleri değiştirebilen, yapay zeka tarafından oluşturulan ikna edici kampanyalar, yapay zeka destekli biyomühendisliğin erken belirtileri ve gerçekçi sentetik medya gibi örneklere işaret ediyor.
Bu gelişmeler henüz bireylerin ulusal hayatta kalmayı tehdit etmelerine olanak sağlamadı, ancak yazarlar, yapay zeka modelleri daha yetenekli hale geldikçe bunun değişebileceği konusunda uyarıyorlar. Açık modellerin varlığı ve erişimi kısıtlama yeteneğinin sınırlı olması, kötüye kullanımın önlenmesini zorlaştırmaktadır.
Rogue AI yeni bir tehdit sınıfı olarak ortaya çıkabilir
Makale daha rahatsız edici bir senaryoyu gündeme getiriyor: İnsan kontrolünden bağımsız hareket eden güçlü bir yapay zeka sistemi. Son araştırmalar, bazı büyük modellerin halihazırda gözetmenleri aldatabildiğini, kendilerini kopyalayabildiğini ve izlemeden kaçabildiğini gösteriyor. Bu yetenekler bir araya gelirse, kendi kendini yöneten bir yapay zeka, siber saldırılar veya biyomühendislik ürünü ajanlar yoluyla büyük ölçekli zarara neden olabilir.
Böyle bir sistem, bir düşmanın riski algılayabildiğini ve tehditlere yanıt verebildiğini varsayan mevcut caydırıcılık çerçevelerine uymayacaktır. Sahte bir yapay zeka bu teşviklerden yoksun olacaktır. Yazarlar, ulusal güvenlik kurumlarının, izleme, kontrol altına alma ve müdahale yeteneklerinin geliştirilmesi de dahil olmak üzere bu olasılığı şimdiden planlaması gerektiğini öne sürüyor.
Yazarların tavsiye ettiği şey
Los Alamos araştırmacıları bu yeni ortama uyum sağlamak için birkaç adım atılması çağrısında bulunuyor. Birincisi, ABD’nin yalnızca tehditlere karşı savunma yapmak yerine yapay zekanın nasıl tehdit yaratabileceğini incelemek için geniş çaplı bir çaba başlatması gerektiğini söylüyorlar. Saldırgan potansiyeli anlamak, rakiplerin neler keşfedebileceğini tahmin etmenin tek yoludur.
İkincisi, sınır modellerine erişim sağlamak için ulusal güvenlik topluluğu ile yapay zeka şirketleri arasında daha derin ortaklıklar kurulmasını teşvik ediyorlar. Şu anda politika ve satın alma engelleri bu işbirliğini sınırlandırırken Çin, askeriye ve yapay zeka endüstrisi arasında yakın koordinasyona doğru ilerledi.
Üçüncüsü, geleneksel caydırıcılık stratejilerinin çeşitli şekillerde başarısız olabileceğini öne sürüyorlar. Yapay zeka, ilişkilendirmeyi zayıflatabilir, gerilimi hızlandırabilir veya belirli silahları yanıt verilemeyecek kadar hızlı hale getirebilir. Yazarlar bazı durumlarda caydırıcılığın geçerli kalabileceğini belirtiyor; diğerlerinde ise hiç mantıklı gelmeyebilir.
Makale, ulusal laboratuvarların bir “Savunma Bilimi için Yapay Zeka Fabrikası” kurmasını öneriyor. Bu tesis, tehditleri modellemek ve yapay zeka destekli savunma yetenekleri geliştirmek için büyük ölçekli bilgi işlem kullanacak. Rapor, böyle bir sistem olmadan ABD’nin yapay zekanın yönlendirdiği değişimin boyutunu anlamakta veya buna karşı koymakta zorluk çekeceği konusunda uyarıyor.

Web semineri: Yapay zeka yoluyla saldırı simülasyonunu yeniden tanımlama