Uluslararası bir Holokost araştırma laboratuvarına göre, kamuya açık mevcut yapay zeka (AI) modelleri “geçmişin karmaşıklıklarını ve nüanslarını” sağlamakta başarısız oluyor ve Holokost hakkında yalnızca aşırı basitleştirilmiş hikayeler sunuyor.
Kasım 2024’te Sussex Üniversitesi, “Dijital çağda Holokost hafızası ve eğitimi için sürdürülebilir bir gelecek sağlamak” amacıyla bir girişim olan Landecker Dijital Bellek Laboratuvarı’nı başlattı.
Laboratuvar tarafından Uluslararası Holokost Anma İttifakı’na (IHRA) sunulan araştırmaya dayalı bir politika brifingine göre, Holokost hafızasının geleceğinde yapay zekanın yeri var mı?Yapay zekanın Holokost hafızası ve eğitiminde kullanımı sorunlu çünkü ChatGPT ve Gemini gibi üretken yapay zeka (GenAI) sistemleri de dahil olmak üzere ana akım modeller Holokost hakkında “iyi verilere” sahip değil ve bu konudaki uzmanlardan “doğru temsile” ihtiyaç duyuyor. .
Laboratuvarın baş araştırmacısı Victoria Grace Richardson-Walden, Holokost hafızası ve eğitimi ile ilgili tüm paydaşlara ve politika yapıcılara acil bir çağrı yaparak, yalnızca verileri ve insan uzmanlığını dijital ortama aktararak sorunu çözmeye yardımcı olmalarını önerdi. insanları sitelerine ve müzelerine.
Dünyanın her yerindeki arşivleri, müzeleri, anma mekanlarını ve kütüphaneleri içeren Holokost hafızası ve eğitim sektörü hakkında “Çok azının net bir dijitalleştirme stratejisi var” dedi. “Sadece belirli sergiler için maddi içeriklerini veya tanıklıklarını dijitalleştiriyorlar.”
Richardson-Walden, Ukrayna ve Orta Doğu’daki savaşlara atıfta bulunarak, “Bu genel olarak miras açısından acil bir konu” dedi.
“Bütün miraslar, tüm bunlar maddi risk altında” dedi. “Tarih, siyasi yelpazenin her tarafında, farklı siyasi amaçlar doğrultusunda araçsallaştırılıyor. Bu sosyal medyada çok gürültülü hale geldiğinde nüansı kaybedersiniz. Aciliyet işte tam da bu noktadadır.”
Güvenilmez odak
Richardson-Walden, GenAI sistemlerinin “bilgi makineleri” olmadığını, çünkü bunların tarihsel ve kültürel önemlerine dayalı bir değer yerine yalnızca kelimelere ve kelime dizilerine olasılıksal sayısal değer atadıklarını vurguladı. Bu, sistemler yalnızca en ünlü hikayelere odaklanan en iyi bilinen “kanonik” çıktıları yeniden üretme eğiliminde olacağından, daha az bilinen gerçeklerin ve hikayelerin gizlenmesine yol açar.
ChatGPT’ye yapılan bir araştırmaya verilen tipik bir yanıtı açıklayarak, “Bu size bir başlık yanıtı ve madde işaretleri veriyor” dedi. “Gerçekten karmaşık geçmişleri özetleme fikri sorunlu. Altı yıl boyunca pek çok ülkede olup biten ve çok çeşitli insanları ve failleri etkileyen bir olayı özetleyemezsiniz.”
Araştırma bu karmaşık konuya yanıt aramıyor. Bunun yerine Richardson-Walden, bilişim ve mühendislik alanındaki meslektaşlarıyla yapacağı tartışmalarda alternatifler bulmayı umuyor. “Kültürel göstergelerin kodlanması ve daha sonra eğitim verilerine yerleştirilmesi zordur” dedi.
Richardson-Walden ayrıca ticari GenAI modellerinde, özellikle soykırım, zulüm, çatışma veya vahşet gibi tarihin hassas konularıyla ilgili olarak “iyi verilere” sahip olma ihtiyacının altını çizdi.
“İyi veriler Holokost organizasyonundan geliyor, ancak önce bunu stratejik bir şekilde dijitalleştirmeleri gerekiyor ve ona eklenen meta verilerin doğru ve standart hale getirilmesi gerekiyor” dedi.
Laboratuvarın politika brifinginde vurgulanan bir diğer sorun, ticari imaj GenAI modellerinin çoğunda programlanan otosansürdür. Neredeyse her sistemden Holokost görselleri üretmesi istendiğinde sistem bunu reddedecek ve kullanıcı sansür yönergeleriyle karşı karşıya kalacaktır.
Özette OpenAI’nin görüntü oluşturucusu Dall-E’nin bir örneğine değinildi. “Sunabileceği tek şey bir çelenk, yaşlı eller ve dikenli tellerden oluşan görüntüler veya kütüphanedeki hayalete benzeyen bir görüntü üretmektir” dedi.
Richardson-Walden şunu ekledi: “Sonunda Holokost’u görünmez hale getiriyorsunuz veya absürt hale getirecek kadar soyut hale getiriyorsunuz. Dolayısıyla programlarınıza sansür uygulama fikri ahlaki bir yaklaşım olarak iyi bir şey, aslında tam tersi bir etki yaratıyor.”
Bu korkulukların, yanlış veya çarpık veri üretmekten daha iyi olmasına rağmen, aynı zamanda insanların tarihi ve tarihten ders almasını da engellediğine inanıyor ve bu modelleri geliştirenlerin, bu korkuluklarda, yanlış bilgi verilmesini önleyecek bir “orta yol” bulmaları gerektiğini ekliyor. Holokost’u önleyin, ancak aynı zamanda onları, dijital medyaya bağımlı gelecek nesiller için Holokost bilgilerini yasaklama konusunda da göz ardı etmeyin.
“Yol [middle ground] Richardson-Walden, “Bu diyalog yoluyla oluyor” dedi. “OpenAI, Meta ve Google ile BM gibi yerlerle ve laboratuvarda bizimle birlikte daha fazla tartışmanın yapılacağı bir alan olması gerekiyor.” Landecker’in, soykırım hafızasıyla ilk kez ilgilenen teknoloji şirketlerine yönelik yaklaşımları tartışmak üzere ücretsiz danışmanlık sunduğunu da sözlerine ekledi.
“Bu konuyu araştırdıklarında, [they] bunun çok karmaşık ve çok politik olduğunun ve etik ve dijitalle ilgili hiç düşünmedikleri yepyeni bir alan olduğunun farkına varıyorlar” dedi.
Landecker’in web sitesinde Holokost hafızasının dijitalleştirilmesinin en belirgin örneğinin, USC Shoah Vakfı tarafından geliştirilen ve Dimensions in Testimony olarak bilinen bir yapay zeka modeli olduğundan bahsediliyor. Bu, küçük dil modeli olarak tanımlanan, “yoğun biçimde denetlenen” ve “önemli ölçüde insan müdahalesine” dayanan, alana özgü bir GenAI modelinin bir örneğidir. Kullanıcılar ve akademisyenler, modelin hayatta kalanların ifadeleriyle ve kendisine beslenen uzmanların yanıtlarıyla yanıt verdiği sorular sorarak onunla etkileşime girebilir.
Ancak diğer laboratuvarlar ve hafıza merkezleri Landecker laboratuvarıyla aynı kaynaklara ve finansmana sahip olmayabilir. Bu nedenle, odak noktası, ticari büyük dil modellerini sorumlu bir şekilde bilgilendirmek için kullanılabilecek varlıkların kitlesel dijitalleştirilmesi olmalıdır.