AI tarafından oluşturulan içeriğe karşı geleneksel sahte haber tespiti başarısız olur


Büyük Dil Modelleri (LLMS) üretebilir dilbilgisi açısından kusursuz, stilistik olarak inandırıcı ve anlamsal olarak zengin. Bu teknolojik sıçrama gazeteciliğe verimlilik kazançları getirirken, eğitim ve iş iletişimi, aynı zamanda yanlış bilginin tespitini de karmaşıklaştırdı. Nasılsın tanımlamak Sahte haberler bile uzmanlar yapay zeka (AI) tarafından üretilen içeriği insan yazılı metinden ayırt etmek için mücadele ettiğinde?

Bu soru, Amsterdam’daki Dezenformasyon ve LLM’lerde CWI tarafından ev sahipliği yaptığı son zamanlarda yapılan bir sempozyumun merkezinde yer aldı. . Hollanda’da Matematik ve Bilgisayar Bilimleri Araştırma EnstitüsüVe birlikteorganize edilmiş Utrecht Üniversitesi ve Groningen Üniversitesi ile. Uluslararası Araştırmacılar, yanlış bilginin nasıl geliştiğini ve buna karşı koymak için hangi yeni araçlara ve yaklaşımlara ihtiyaç duyulduğunu keşfetmek için bir araya geldiler.

Arasında organizatörler olmuş CWI Araştırmacısı Davide Ceolinçalışmaları bilgi kalitesi, AI modellerinde önyargı ve otomatik değerlendirmelerin açıklanabilirliğine odaklanan. Bir zamanlar yardımcı olan uyarı işaretleri tanımlamak Yanlış Bilgi – Dilbilgisi Hataları, Garip cümle Ve dilsel tutarsızlıklar-yapay zeka tarafından üretilen içerik insan yazımından ayırt edilemez hale geldikçe hızla geçersiz hale geliyor.

Bu evrim temsil etmek Teknik bir meydan okumadan daha fazlası. Dünya Ekonomik Forumu yanlış bilgilendirme en önemli kısa vadeli risk Üst üste ikinci yıl için küresel olarak, Hollanda’nın ilk beş kaygısı arasında yer alması yoluyla 2027. Yapay zeka tarafından oluşturulan içeriğin sofistike olması, bu artan kaygıyı yönlendiren ve kuruluşlar ve hem bireyler.

Ceolin’in ekibi yıllarca araç geliştirdi ve yöntemler ile tanımlamak Dilbilim aracılığıyla sahte haberler ve itibar desenler, içerik belirtilerini tespit eden karakterize edilmiş Erken yanlış bilginin çoğu.

Yöntemleri kullanır Doğal Dil İşleme (NLP)VU Üniversitesi Amsterdam’dan meslektaşları ile; Milan Üniversitesi’nden meslektaşları ile mantıklı akıl yürütme; ve insan hesaplaması (kitle kaynak kullanımı, Udine Üniversitesi, Queensland Üniversitesi’nden meslektaşları ve Royal Melbourne Teknoloji Enstitüsü) ve şüpheli metin parçalarını tanımlamaya ve kontrol etmeye yardımcı olun onların doğruluk.

Oyun değiştirici

Oyun temelde değişti. Ceolin, “LLM’ler daha dilsel olarak daha doğru metinler yazmaya başlıyor” dedi. “Güvenilirlik ve gerçeklik mutlaka uyumlu değil – sorun bu.”

Geleneksel aldatma belirteçleri, tıpkı hacim, sofistike ve kişiselleştirme oluşturulan içeriğin katlanarak artar.

Tommy van steenLeiden Üniversitesi’nde siber güvenlik alanında bir üniversite öğretim görevlisi, araştırmacıların karşılaştığı daha geniş zorlukları açıkladı. Son zamanlarda disiplinlerarası bir etkinlikte organize edilmiş Leiden Üniversitesi tarafından – Dijital Güvenlik Gecesihukuk, kriminoloji uzmanlarını bir araya getiren, teknoloji Ve Kamu Yönetimi – “Bir tema veya kelime olarak sahte haberler 2016 seçimlerinde Trump’tan geliyor. Katılmadığı her şey ile, Sadece sahte haberler aradı. ”

Ancak van Steen, sorunun açık imalatların çok ötesine uzandığını söyledi. “Yanlış bilgi ve dezenformasyon arasında ayrım yapmak önemlidir” dedi. “Her ikisi de doğru olmayan bilgileri paylaşmayı içeriyor, ancak yanlış bilgi ile kazara; dezenformasyonla kasıtlı.”

Dilsel analizin ötesinde

Ceolin gibi araştırmacılar için, AI tarafından üretilen içeriğin etkileri Basit Metin nesil. Ekibinden yapılan son araştırmalar (CWI’nin Fransa’daki Kardeş Enstitüsü Inria ile işbirliği içinde) – amiral gemisi hesaplama dilbilim konferansının bulgularında kabul edildi ACL – LLM’lerin dile bağlı olarak farklı siyasi önyargılar sergilediğini açıkladı. onlar istenen ve milliyet onlar atandı. Aynı model farklı dillerde özdeş siyasi pusula sorularını cevapladığında veya farklı ulusal kişileri somutlaştırırken, sonuçlar önemli ölçüde değişti.

Van Steen’in çalışması bu yanlış bilgiyi vurgular değil Sadece gerçek ve yanlış içerik ikili. Hiciv ve parodiden tamamen imal edilmiş içeriğe kadar değişen yedi kategorili bir çerçeve kullanır.

“Bu sadece tam saçmalık ya da tam gerçekle ilgili değil-aslında çok fazla şey var ve bu en azından zararlı, belki daha da zararlı olabilir” dedi.

Ancak Ceolin, tek başına teknolojik çözümlerin yetersiz olduğunu savundu. “Bence bu ikili bir çaba” dedi. “Kullanıcılar yanlış bilginin tanımlanmasını teşvik etmek için makine ve diğer kullanıcılarla işbirliği yapmalıdır.”

Yaklaşım temsil etmek Tamamen otomatik algılamadan Ceolin’in “şeffaf” sistemler olarak adlandırdığı ve kullanıcılara değerlendirmelerinin arkasındaki mantığı sağlayan önemli bir geçiş. Yeni nesil araçlar, ikili kararlar veren kara kutu algoritmalarından ziyade, karar verme süreçlerini açıklayarak kullanıcıları eğitmeyi ve güçlendirmeyi amaçlamaktadır.

İçerik tarım ve mikro hedefleme endişeleri

CWI’deki sempozyum, AI güdümlü yanlış bilginin üç artış seviyesini vurguladı: içerik tarım, LLM güvenlik açıkları ve mikro hedefleme.

Ceolin tanımlanmış En endişe verici olan içerik çiftçiliği. “Olumsuz niyetlere sahip içerik de dahil olmak üzere içerik oluşturmak çok kolay, ancak insanların sahte oluşturulan içeriği tespit etmesi çok daha zor” dedi.

Van Steen, tespiti giderek zorlaştıran temel bir asimetriyi vurguladı. “Sahte haberlerle ilgili en büyük sorunlardan biri bu bağlantıyı kesme-ne kadar zor ve zaman alıcı olduğunu doğrulamak ne kadar kolay” dedi. “Bu denklemi asla kolayca dengeleyeceksin.”

Sofistike içerik üretimi hassas hedefleme ile birleştiğinde zorluk yoğunlaşır. Ceolin, “Yapay zeka tarafından oluşturulan kötü içerik belirli bir kullanıcı grubunu etkili bir şekilde hedefliyorsa, tespit etmek ve tespit etmek daha da zor” dedi.

Bu yeni nesil sofistike yanlış bilgiyle mücadele etmek, tespit metodolojilerinin temel yeniden düşünülmesini gerektirir. Açıklanabilir AI sistemlerini savunuyor öncelik vermek Saf doğruluk metrikleri üzerinde şeffaflık. % 85’i seçmeyi haklı çıkarmanız istendiğinde kesin ancak% 99 üzerinden açıklanabilir sistem kesin Black Box, önemli bir karşı soru soruyor: “% 99 Black Box modeline zamanın% 99’una gerçekten güvenebilir misiniz?”

Kara kutu modellerindeki% 1 yanlışlık, rastgele hatanın ötesinde ve şeffaflık olmadan sistematik önyargı gösterebilir. kuruluşlar yapamamak tanımlamak veya bu zayıf yönleri ele alın. Ceolin, “Şeffaf modelde, modelin eksik olabileceği alanları belirleyebilir ve iyileştirme için belirli yönleri hedefleyebilirsiniz” dedi.

Bu felsefe, AI yanlılığını değerlendirmenin daha geniş zorluğuna uzanır. “Şimdi kullanıcıların onlardan aldıkları bilgilerin kalitesini anlamalarına yardımcı olabilmemiz için bu modellerin yanlılığını karşılaştırıp ölçüp ölçemeyeceğimize bakıyoruz” dedi.

Belirsiz bir geleceğe hazırlanmak

İçin kuruluşlar Yeni manzara ile boğuşan Ceolin’in tavsiyesi vurguladı Temeller. “Şimdiye kadar geliştirdiğimiz tüm teknolojilerin hala büyük bir rol oynayabileceğini unutmamalıyız” dedi.

LLM’ler daha sofistike hale gelse bile, geleneksel doğrulama yaklaşımları geriye kalmak ilgili.

Ceolin, “Bu LLM’ler, bazı durumlarda, cevapları için kullandıkları kaynakları da gösteriyor” dedi. “Kullanıcılara, bunların gerçekten kullanılan kaynaklar olduğunu kontrol etmek ve daha sonra bu kaynakların itibarını, güvenilirliğini ve güvenilirliğini kontrol etmek için aldıkları metnin ötesine bakmalarını öğretmeliyiz.”

Gelecek, CWI araştırmacının şirketleri, vatandaşları ve kurumları içeren bir “ortak çaba” olarak tanımladığı şeyi gerektirir. “Araştırmacılar olarak sorunları ve riskleri vurguluyoruz ve çözümler öneriyoruz” dedi.

“Vatandaşların faydaları değil, aynı zamanda bu modellerin sınırlamalarını anlamalarına yardımcı olmak bizim için temel olacaktır. Son karar kullanıcılardan gelmelidir – ancak sadece ne okuduklarını değil, neden ona güvenmeleri gerektiğini anlamalarına yardımcı olan şeffaf araçlarla desteklenen bilgilendirilmiş kullanıcılar. ”



Source link