Birincisi Uluslararası AI Güvenlik Raporu Yapay Zeka (AI) ile ilişkili çeşitli tehlikelerin nasıl hafifletileceği konusunda yaklaşan diplomatik tartışmaların bilgilendirilmesi için kullanılacak, ancak birçok tehdidin tam doğası ve bunlarla en iyi nasıl başa çıkılacağı konusunda hala yüksek derecede bir belirsizlik olduğunu vurgulamaktadır. .
Kasım 2023’te Bletchley Park’ta İngiltere Hükümeti tarafından düzenlenen ve AI Akademik Yoshua Bengio tarafından yönetilen açılış AI Güvenlik Zirvesi’nden sonra, raporda, işler ve çevre üzerindeki etkisi de dahil olmak üzere teknolojinin ortaya koyduğu çok çeşitli tehditleri kapsamaktadır. Siber saldırıları ve derin kalıntıları çoğaltma potansiyeli ve bunun sosyal önyargıları nasıl artırabileceği.
Ayrıca AI üzerindeki pazar konsantrasyonları ile ilişkili riskleri ve artan “AI Ar -Ge [Research and Development] ancak genel amaçlı AI olarak bilinen çok çeşitli görevler gerçekleştirebilen sistemler bağlamında tüm bu risklere bakmakla sınırlıdır.
Değerlendirilen birçok riskin her biri için, rapor kesin sonuçlar çıkarmaktan kaçındı ve hızlı hareket eden teknolojinin nasıl gelişeceği konusundaki yüksek belirsizliği vurguladı. Her alanda daha fazla izleme ve kanıt toplama çağrısında bulundu.
“Mevcut kanıtlar genel amaçlı AI risk yönetiminde iki merkezi zorluğa işaret ediyor” dedi. “Birincisi, ciddiyetleri ve meydana gelme olasılıkları hakkındaki belirsizlik nedeniyle risklere öncelik vermek zordur. İkincisi, AI değer zinciri boyunca uygun rolleri ve sorumlulukları belirlemek ve etkili eylemi teşvik etmek karmaşık olabilir. ”
Bununla birlikte, rapor, AI BT ana hatlarının gelecekteki tüm potansiyel etkilerinin, günümüzde toplumların ve hükümetlerin seçimleri tarafından belirlenecek olan öncelikle politik bir soru olduğu açıktır.
“Ne kadar genel amaçlı AI ve kim tarafından geliştiriliyor ve hangi sorunları çözmek için tasarlandığı, tam ekonomik potansiyelini toplayabileceğimiz, ondan yararlanamayacağımız ve kendimizi maruz bıraktığımız risk türleri- Bu ve diğer birçok soru, toplumların ve hükümetlerin bugün ve gelecekte genel amaçlı AI’nın gelişimini şekillendirmek için yaptıkları seçimlere bağlıdır ”dedi.
“Yapıcı bilimsel ve kamuoyu tartışması, toplumlar ve politika yapıcıların doğru seçimleri yapmaları için gerekli olacaktır.”
Mayıs 2024’te yayınlanan ve en büyük riskler üzerinde uzman anlaşma eksikliği gösteren geçici bir AI güvenlik raporu üzerine inşa edilen raporun bulguları, Şubat 2025’in başlarında planlanan Fransa’daki yaklaşan AI Eylem Zirvesi’nde tartışmayı bilgilendirmeyi amaçlamaktadır. Bu, Bletchley ve Seul, Güney Kore’deki önceki iki zirveden takip ediyor.
“Yapay zeka zamanımızın temel bir konusudur ve güvenliği güven oluşturmak ve evlat edinmeyi teşvik etmek için çok önemli bir temeldir. Bilimsel araştırmalar bu çabalara rehberlik eden temel sütun kalmalıdır ”diyor Fransız bakanı AI ve dijital teknolojiler delegesi Clara Chappaz.
“Bu ilk kapsamlı bilimsel değerlendirme, toplumların ve hükümetlerin AI’nın gelecekteki yönünü sorumlu bir şekilde şekillendirmeleri için gereken kanıt tabanını sunuyor. Bu içgörüler, Paris’teki yaklaşan AI Eylem Zirvesi’nde önemli tartışmaları bilgilendirecek. ”
Sistemik riskler
Yapay zeka dağıtımının daha geniş toplumsal risklerini incelerken – herhangi bir bireysel modelin yeteneklerinin ötesinde – rapor, özellikle işgücü piyasaları üzerindeki etkinin “derin olması muhtemel” olduğunu söyledi.
Yapay zekanın işgücü piyasalarını tam olarak nasıl etkileyeceği konusunda önemli bir belirsizlik olsa da, teknolojinin verimlilik kazanımlarının “farklı sektörlerdeki ücretler üzerinde karışık etkilere yol açması, bazı işçilerin diğerleri için ücretleri artırması”. En önemli yakın vadeli etkinin, esas olarak bilişsel görevlerden oluşan işler üzerinde olmasıdır.
Geliştirilmiş genel amaçlı AI yeteneklerinin, özellikle lojistik çalışanları için “sürekli izleme ve AI güdümlü iş yükü kararlarının” zararlı etkilerini vurgulayarak işçi özerkliği ve refahı için mevcut riskleri artırması muhtemeldir.
Ocak 2024’te AI’nın uluslararası para fonu (IMF) tarafından eşitsizlik üzerindeki etkilerinin değerlendirilmesi-ki bu da AI’nın siyasi müdahale olmadan eşitsizliği kötüleştirmesi muhtemeldir-rapor şunları söyledi: “AI odaklı emek otomasyonunun eşitsizliği azaltarak daha da kötüleşmesi muhtemeldir. işçilere sermaye sahiplerine göre giden tüm gelirlerin payı. ”
Raporun, teknolojinin gelişiminin güçlü dijital altyapıya sahip ülkelerde bulunan büyük ülkelerin elinde yüksek oranda yoğunlaştığı “AI Ar -Ge bölünmesi” olarak adlandırılanların bir sonucu olarak eşitsizlik daha da derinleştirilebilir.
“Örneğin, 2023’te ABD’de önemli genel amaçlı AI modellerinin (%56) çoğunluğu geliştirildi. Bu eşitsizlik birçok LMIC’yi ortaya çıkarır [low- and middle-income countries] Bağımlılık riskleri için ve mevcut eşitsizlikleri daha da kötüleştirebilir ”dedi ve bu bölünmeyi daha da şiddetlendirerek kalkınma maliyetlerinin sadece yükselmeye ayarlandığını da sözlerine ekledi.
Raporda ayrıca, AI modellerinin gelişimini desteklemek için, genellikle düşük gelirli ülkelerdeki güvencesiz koşullarda işçiler tarafından yapılan çoğunlukla gizli emeği ifade eden “hayalet çalışması” nın artan eğilimini vurguladı. Bu çalışma insanlara ekonomik fırsatlar sağlayabilirken, “bu çalışmanın sözleşme tarzı doğası, platformlar daha ucuz işgücü bulmak için pazarları döndürdüğü için genellikle az sayıda fayda ve işçi koruması ve daha az iş istikrarı sağladığını” ekledi.
Tüm bunlarla ilgili olarak, küçük bir avuç güçlü şirketin teknolojinin gelişimi ve kullanımı etrafında karar vermeye hakim olmasını sağlayan AI çevresindeki pazar yoğunluğunun “yüksek derecesi” dir.
Çevresel etki üzerinde, veri merkezli operatörler giderek daha fazla yenilenebilir enerji kaynaklarına yönelirken, küresel olarak AI eğitiminin önemli bir kısmı hala kömür veya doğal gaz gibi yüksek karbonlu enerji kaynaklarına dayanıyor ve önemli miktarda su kullanıyor.
Yalnızca AI ile ilgili donanımdaki verimlilik iyileştirmelerinin “AI’nın enerji kullanımındaki genel büyümeyi ortadan kaldırmadığını ve muhtemelen ‘geri tepme etkileri’ nedeniyle daha da hızlandırmadığını, ancak“ mevcut rakamların büyük ölçüde daha da fazla olan tahminlere dayandığını da sözlerine ekledi. Sahadaki gelişimin hızlı temposu nedeniyle geleceğe ekstrapole edildiğinde değişken ve güvenilmez ”.
Arıza riskleri
AI’nin mevcut siyasi ve sosyal önyargıları güçlendirme potansiyelinin bir sonucu olarak neden olabileceği “somut zararları” vurgulayan rapor, “eşit olmayan kaynak tahsisi, stereotiplerin takviyesi ve belirli grupların sistematik ihmali gibi ayrımcı sonuçlara yol açabileceğini söyledi. bakış açıları ”.
Çoğu AI sisteminin, İngilizce konuşan ve batı kültürlerini orantısız bir şekilde temsil eden dil ve görüntü veri kümeleri üzerinde nasıl eğitildiğini, birçok tasarım seçeneğinin başkalarının pahasına belirli dünya görüşlerine hizalandığını ve mevcut sapma azaltma tekniklerinin güvenilmez olduğunu belirtti.
“Çeşitli perspektifler ve paydaşlar içeren bütünsel ve katılımcı bir yaklaşım önyargıyı azaltmak için gereklidir” dedi.
Geçici raporun, AI sistemlerinin insan kontrol kaybı hakkındaki bulgularının yankılanması-bazılarının yok olma düzeyinde bir olaya neden olabileceğinden endişe duyan-rapor bu tür korkuları kabul etti, ancak görüşün büyük ölçüde değiştiğini belirtti.
“Bazıları bunun mantıksız olduğunu düşünüyor, bazıları bunun meydana geleceğini düşünüyor ve bazıları bunu yüksek şiddetinden dolayı dikkat gerektiren mütevazı bir olasılık riski olarak görüyor” dedi. “Daha temel olarak, rekabetçi baskılar kısmen kontrol kaybı riskini belirleyebilir… [because] Şirketler veya ülkeler arasındaki rekabet, önde kalmak için daha büyük riskleri kabul etmelerini sağlayabilir. ”
Kötü niyetli kullanım riskleri
Kötü niyetli AI kullanımı açısından rapor, siber güvenlik, derin dişler ve biyolojik veya kimyasal silahların geliştirilmesinde kullanımı ile ilgili sorunları vurguladı.
Deepfakes’da, farklı cinsel istismar ve şiddet tehditleriyle karşı karşıya olan çocuklar ve kadınlar üzerindeki özellikle zararlı etkilere dikkat çekti.
“Mevcut algılama yöntemleri ve filigran teknikleri, ilerlerken karışık sonuçlar gösteriyor ve devam eden teknik zorluklar” dedi. “Bu, şu anda zararlı AI tarafından üretilen içeriğin yayılmasını tespit etmek ve azaltmak için tek bir sağlam çözüm olmadığı anlamına geliyor. Son olarak, AI teknolojisinin hızlı ilerlemesi genellikle tespit yöntemlerini geride bırakarak sadece teknik ve reaktif müdahalelere güvenmenin potansiyel sınırlamalarını vurgular. ”
Siber güvenlik konusunda, AI sistemleri siber güvenlik açıklarını özerk olarak tanımlamada ve sömürmede önemli ilerleme göstermiş olsa da, bu riskler prensip olarak yönetilebilir, AI’nın defansif olarak kullanılabileceği gibi.
“Yeteneklerdeki hızlı gelişmeler, yakın vadede büyük ölçekli riskleri dışlamayı zorlaştırıyor, böylece bu riskleri değerlendirme ve izleme ihtiyacını vurguluyor” dedi. “Özellikle insanlar ve AI’ler birlikte çalıştıklarında gerçek dünyadaki saldırı senaryolarını anlamak için daha iyi metriklere ihtiyaç vardır. Kritik bir zorluk, savunma uygulamalarından ödün vermeden saldırı yeteneklerini azaltmaktır. ”
Yeni AI modelleri, doktora düzeyinde uzmanlığı aşan patojenler ve toksinler oluşturmak için adım adım kılavuzlar oluşturabilirken, potansiyel olarak biyolojik veya kimyasal silah geliştirme engellerinin azalmasına katkıda bulunduğunu, “teknik olarak karmaşık” bir süreç olmaya devam ettiğini, anlamına gelen “acemiler için pratik fayda belirsizliğini korumaktadır”.