İngiltere’nin terör danışmanına göre, üretken yapay zeka (genai) sistemleri teröristlerin propaganda yayılmasına ve saldırılara hazırlanmalarına yardımcı olabilir, ancak tehdit seviyesi uygulamada kullanıldığına dair daha fazla kanıt olmadan “tamamen teorik” kalır.
En son yıllık raporunda, hükümetin bağımsız terörizm mevzuatını gözden geçiren Jonathan Hall, Genai sistemlerinin teröristler tarafından sömürülme potansiyeline sahip olsa da, teknolojinin bu bağlamda ne kadar etkili olacağını ve şu anda ne yapacağının “açık bir soru” olduğu konusunda uyardı.
Örneğin, Genai’nin bir terör grubunun propaganda faaliyetlerinin hizmetinde konuşlandırılması potansiyeli hakkında yorum yapmak, Hall, üretimini önemli ölçüde hızlandırmak ve yayılmasını arttırmak için nasıl kullanılabileceğini açıkladı ve teröristlerin çok daha az kaynak veya kısıtlamalarla kolayca paylaşılabilir görüntüler, anlatılar, anlatılar ve mesajlar oluşturmalarını sağladı.
Bununla birlikte, teröristlerin AI tarafından üretilen içeriğe sahip bilgi ortamını “su basmasının” verilmediğini ve grupların alınmasının mesajlarını zayıflatma potansiyelinin bir sonucu olarak değişebileceğini belirtti.
“Otantikliğin önemine bağlı olarak, metin veya görüntünün AI tarafından üretilmesi olasılığı mesajı baltalayabilir. SPAM benzeri propagandaların yayılması, üst düzey liderlerden otantik mesajlar üzerine prim yerleştiren” bazı terör gruplarının, bundan kaçınabileceğini ve botu delegasyona karşı delege etmesi konusunda istihdam ettiğini söyledi.
“Tersine, aşırı sağ kanat forumları, anti-semitler ve yaratıcı nastiness içinde eğlenen komplo teorisyenleri için patlama zamanı olabilir.”
Benzer şekilde, teknolojinin saldırı planlamasında kullanılma potansiyeli üzerine Hall, yardım etme potansiyeline sahip olsa da, mevcut üretken AI sistemlerinin pratikte terör gruplarına ne kadar yararlı olacağına dair açık bir soru olduğunu söyledi.
“Prensip olarak Genai, önemli olayları ve konumları hedefleme amacıyla araştırmak, güvenliği atlatma yöntemleri önermek ve silah veya terörist hücre yapısını kullanma veya uyarlama konusunda tradecraft sunmak için kullanılabilir” dedi.
“Uygun bir sohbet botuna erişim, çevrimiçi öğretim materyali indirme ve karmaşık talimatları daha erişilebilir hale getirme ihtiyacından vazgeçebilir… [while] Genai, uzman bir insan temasına güvenmek yerine gözetimden kaçınma veya bıçak vuruşlarını daha ölümcül hale getirme konusunda teknik tavsiyeler sağlayabilir. ”
Bununla birlikte, “kazançların dramatik olmaktan ziyade artımlı olabileceğini” ve muhtemelen organize gruplardan daha yalnız saldırganlarla daha alakalı olduğunu da sözlerine ekledi.
Hall ayrıca, GENAI’nin “saldırı metodolojisini genişletmek” için kullanılabilse de – örneğin, zararlı biyolojik veya kimyasal ajanların tanımlanması ve sentezi yoluyla – bunun da saldırganın laboratuvarlara veya ekipmanlara daha önce uzmanlığa, becerilere ve erişime sahip olmasını gerektireceğini de sözlerine ekledi.
“Genai’nin buradaki etkinliği şüphe edildi” dedi.
Benzer bir nokta ilk olarak Uluslararası AI Güvenlik Raporu2023 yılında Bletchley Park’ta İngiltere Hükümeti tarafından düzenlenen açılış AI Güvenlik Zirvesi sonrasında yaklaşık 100 yapay zeka uzmanından oluşan küresel bir kohort tarafından oluşturuldu.
Yeni AI modelleri, doktora düzeyinde uzmanlığı aşan patojenler ve toksinler yaratmak için adım adım kılavuzlar oluşturabilirken, biyolojik veya kimyasal silahların geliştirilmesinin önündeki engelleri düşürürken, “teknik olarak karmaşık” bir süreç olarak kaldığını, yani “acemiler için pratik fayda belirsiz kalıyor”.
Hall tarafından tanımlanan başka bir risk, AI’nın Chatbots aracılığıyla çevrimiçi radikalleşme sürecinde kullanılmasıdır, burada insan ve makine arasındaki bire bir etkileşimlerin “terörist radikalleşmenin kapalı bir döngüsü… en çok nihilizme doğru atılmış veya aşırı cevaplar arayan ve gerçek dünya ya da online karşı duruştan yoksun olan yalnız ve mutsuz bireyler” yaratabilir.
Bununla birlikte, bir modelin korkulukları olmasa ve “terörist anlatılara sempati duyan” veriler konusunda eğitilmiş olsa bile, çıktıların büyük ölçüde kullanıcının sorduğuna bağlı olacağını belirtti.
Potansiyel çözümler?
Yasal çözümler açısından Hall, Genai’nin terörizme yardımcı olmak için kullanılmasını önlemenin zorluğunu vurguladı, bu sistemlerin geliştirilmesine dahil olanlar için “yukarı akış sorumluluğu” nun sınırlı olduğunu, çünkü modellerin birçok farklı, öngörülemeyen amaç için çok geniş bir şekilde kullanılabileceğini belirtti.
Bunun yerine, terörist faaliyetlere yardımcı olmak için özel olarak tasarlanmış AI araçlarını hedefleyecek “araç tabanlı sorumluluk” tanıtımını önerdi.
Hall, hükümetin ırksal veya dini nefreti karıştırmak için tasarlanmış bilgisayar programlarının yaratılmasına veya bulundurulmasına karşı yasama yapmayı düşünmesi gerekse de, programların bu amaç için özel olarak tasarlandığını kanıtlamanın zor olacağını kabul etti.
Yetkili, geliştiricilerin bir terörizme özgü AI modeli veya chatbot’u yaratmaları halinde İngiltere terör yasaları uyarınca kovuşturulabilse de, “Genai araçlarının özel olarak terörist propaganda biçimleri oluşturmak için yaratılması pek olası görünmüyor-güçlü genel modellerin yeteneklerinin kullanılması çok daha olasıdır”.
“Bir sohbet botunun olduğunu kanıtlamada muazzam zorluklar öngörebilirim [or GenAI model] dar terör içeriği üretmek için tasarlanmıştır. Daha iyi bir kurs, ırk, din veya cinsellik gerekçesiyle nefreti karıştırmak için özel olarak tasarlanmış bir bilgisayar programı yapma suçu olurdu. ”
Yansımalarında Hall, AI’nın teröristler tarafından nasıl kullanılacağını tam olarak görüldüğünü ve durumun “tamamen teorik” kaldığını kabul etti.
“Bazıları makul bir şekilde, görülecek yeni bir şey olmadığını söyleyecek. Genai sadece başka bir teknoloji biçimidir ve bu nedenle minibüsler gibi teröristler tarafından sömürülecektir” dedi. “Mevcut yasama çerçevesinin yetersiz olduğuna dair kanıt olmadan, onu tamamen teorik kullanım vakalarıyla başa çıkmak için uyarlamak veya genişletmek için bir temel yoktur. Gerçekten de, Genai özellikli saldırıların olmaması, tüm sorunun abartılı olduğunu düşündürebilir.”
Hall, gelecekteki zararlardan kaçınmak için bir tür düzenleme gerekse bile, özellikle ekonomik büyüme ve diğer kamu yararları için bir güç olarak AI’dan yararlanmak için siyasi zorunluluk göz önüne alındığında, cezai sorumluluğun en az uygun seçenek olduğu iddia edilebilir.
“Cezai sorumluluğa alternatifler, şeffaflık raporlaması, gönüllü endüstri standartları, üçüncü taraf denetim, şüpheli faaliyet raporlaması, lisanslama, AI-Watermarking gibi ısmarlama çözümler, reklamcılık, medeni sorumluluk biçimleri ve düzenleyici yükümlülükler yer alıyor” dedi.
Hall, terör gruplarının üretken yapay zekayı ne ölçüde benimseyeceği konusunda belirsizliği ifade ederken, teknolojinin en olası etkisinin çevrimiçi dezenformasyonun yayılmasıyla desteklenen genel bir “sosyal bozulma” olduğu sonucuna varmıştır.
“Bombalardan, çekimlerden veya künt kuvvet saldırılarından uzak olmasına rağmen, hükümet güdüleri veya hedef demografilere karşı zehirli yanlış beyanlar kutuplaşma, düşmanlık ve nihai gerçek dünyadaki terörist şiddetin temellerini atabilir” dedi. “Ancak burada terör mevzuatı için bir rol yok çünkü Genai ile ilgili içerik ile nihai terörizm arasındaki herhangi bir bağlantı çok dolaylı olurdu.”
Raporda yer almasa da Hall, Geni’nin terörizm üzerindeki daha fazla “dolaylı etkisi” olabileceğini kabul etti, çünkü yaygın işsizliğe yol açabilir ve istikrarsız bir sosyal ortam yaratabilir ve “terörizme daha elverişli”.