AI içerik denetimiyle ilgili bir sorun mu var? çalışmıyor


Hiç kimse, hiç bitmeyen yangınların ve Endonezya araba kazalarının nereden geldiğinden tam olarak emin değildi. Ancak Josh Sklar’a göre sistem onları işaretlemeye devam edecekti.

Eski içerik moderatörü bir zamanlar Instagram’da, yapay zeka (AI) tarafından sorunlu olabilecek şekilde işaretlenen gönderileri değerlendiren ekipte çalıştı. Sistem bu yasa dışı içeriği düzenli olarak yakalasa da yanlış pozitiflerin sayısı ve doğası en iyi ihtimalle kafa karıştırıcıydı.

Birleşik Krallık’ta, sosyal medya platformlarındaki çevrimiçi zehirli içeriği denetleme sorumluluğu, yalnızca Çevrimiçi Güvenlik Yasası’nın kabul edilmesiyle daha da yoğunlaşacak. Özellikle bir madde – platformları, kullanıcıların tehlikeli içerikle karşılaşmasını “engellemeye” çağırmak – pek çok kişiyi, sorunu çözmeye çalışmak için platformların daha fazla otomatik denetime döneceğine ikna etti.

Tek sorun? İşe yaramayabilir.

Geçen yıl BBC, politikacıların çevrimiçi olarak karşı karşıya kaldıkları toksisite ölçeğini ölçmek için bir yapay zeka aracı kullanmaya çalıştı. Her gün milletvekillerine yaklaşık 3.000 “toksik” tweet gönderildiğini belirledi.

Sorun, AI’nın herhangi bir anlama gelecek şekilde “toksik” olarak tanımlanmasıydı. kaba, saygısız veya mantıksız”, yani “Muhafazakar” ve “ikiyüzlü” gibi açık tanımlayıcı kelimeler genellikle işaretlendi. Bir Twitter kullanıcısı dikkat çekti aracın anti-trans vitriol’ü birine “transfobik” demekten daha az toksik olarak etiketlediğini.

Pek çok yönden, “toksik”i tanımlama mücadelesi, yapay zeka içerik denetim sistemleri için sorunun temelinde yatan şeydir. İnsan etkileşiminin gri dünyasında dile getirilmeyen kusurları ve tehlikeli duyguları yumuşatmak ve “düzeltmek” olan amaçlarının, bir makine öğrenimi sisteminin tam olarak başarması zor.

University College Dublin’de dijital politika merkezi direktörü Eugenia Siapera, “Yapay zeka, örneğin şimdi şiddet görüntülerinde yaptıkları gibi, proaktif olarak en kötü şeyleri kaldırmak için iyi çalışır” diyor. “Ancak daha zor kararlar otomatikleştirilemez.”

Pratikte otomatik moderasyon

Bu sistemlerin neden bu kadar çok kusuru olduğunu anlamak için öncelikle otomatik moderasyonun nasıl çalıştığına bakmakta fayda var. Herhangi bir makine öğrenimi sisteminde olduğu gibi, otomatik denetleme de, sistemi benzer şekilde yasa dışı içeriği tespit etmesi için eğiten geniş bir kural veritabanına ve örnek gönderilere dayanır. Bu, siteden siteye değişiklik gösterecek olan belirli yasaklanmış anahtar kelimelerin bir listesi tarafından bilgilendirilecektir.

“Yapay zeka, şu anda şiddet görüntülerinde yaptıkları gibi, en kötü şeyleri proaktif olarak ortadan kaldırmakta iyi çalışırdı. Ancak daha zor kararlar otomatikleştirilemez”

Eugenia Siapera, University College Dublin

Ancak bunun pek çok komplikasyonu var. Bir örnek, kültürel olarak belirli sosyal etkileşimlerin ne kadar olduğudur. Siapera şöyle açıklıyor: “Diyelim ki sistem İngilizce çalışıyor ama bu nasıl bir İngilizce? Amerikan olanı mı? İngiliz olanı mı? İrlandalı mı?” Alıntı yapıyor kelime “Tyağmacı”, İrlanda’da tanınmış bir etik grubu temsil eder, ancak dünyanın başka bir yerinde aynı anlama gelmeyebilir. Bu tür bir varyasyon, bütünleştirici otomatik bir sistemin fark etmesi zor olacaktır.

Personel ve algoritmalar tehlikeli içeriği tespit etmek üzere eğitilirken, polislik yaptıkları kişiler de bunlardan kaçınmak için yeni yollar buluyor. Bu eğilim, 88 (Heil Hitler’in kısaltmasıdır) veya 14 (aşırı sağcı terörist David’in sloganı) gibi Nazi dogwhistle kodlarının çevrimiçi popülaritesindeki artışın temelini oluşturan şeydir. Eden Lane).

Sklar’ın dediği gibi, “Irkçılarla bu garip silahlanma yarışını yaratıyor”. “Oradaher zaman çok fazla yeni hakaret var.

Sorun, yalnızca bu sistemlerin ne kadar opak olduğuyla daha da kötüleşiyor. Büyük teknoloji şirketleri, bırakın dışarıyı, içeride çok az kişi bu (genellikle tescilli) sistemlerin nasıl çalıştığını tam olarak biliyor. Ve bu, sistemin nasıl çalıştığının ötesinde, davranışını şekillendiren algoritmaya beslenen veri kümelerinin tam doğasına kadar uzanır.

Full Fact’in politika başkanı, “Güvenliğin kritik olduğu diğer sektörlerde, bu tür teknolojiler bağımsız üçüncü taraf açık testlerine tabi olacaktır” diyor. glen tarman. “Güvenli olduklarını test etmek için arabaları defalarca duvarlara çarpıyoruz, ancak internet şirketleri üçüncü taraf bağımsız açık incelemeye veya gerekli testlere tabi değil.”

Ayrıca, bu tür bir otomasyonun henüz emekleme aşamasında olduğunu akılda tutmakta fayda var. “Yapay zeka, içerik denetleme alanında gerçekten yalnızca 2017’den beri var. Yapay zeka tabanlı içerik denetleme firması Image Analyzer’ın CEO’su Cris Pikes, “O zamandan önce, kullanılabilir işlem gücü yoktu” diyor. “Modeller temelde o aşamada görece fazla basitti.”

İnsan gözetimi

Tüm bunlar, Computer Weekly’nin konuştuğu kişilere göre, algoritmaya ırkçı içerikteki son eğilimleri veya terimlerin farklı bölgesel anlamlarını tespit etmeyi öğretmek için sistemde bir tür insan gözetiminin gerekli olduğu anlamına geliyor.

“Güvenli olduklarını test etmek için arabaları defalarca duvarlara çarpıyoruz, ancak internet şirketleri üçüncü taraf bağımsız açık incelemeye veya gerekli testlere tabi değil”

Glen Tarman, Tam Gerçek

Ancak sözde insan gözetimi olsa bile, bunun ne kadar kapsamlı olacağı sorusu var. Örneğin Meta, Instagram ve Facebook’u kapsamak için yalnızca 15.000 içerik moderatörü kullanıyor. New York Times, veya kabaca 333.000 aktif kullanıcı başına bir. İçeriğin büyük hacmi, içeriği denetlemek için çalışan az sayıdaki personel üzerinde büyük bir yük oluşturur. Baskı, moderatörlerin bir gönderiyle ilgili sorunları değerlendirmek için 30 saniyeden daha az zaman harcadıkları anlamına gelir.

Ancak komplikasyonlar, yapay zeka denetiminin ötesine, nasıl çalışacağına kadar uzanıyor. Teklif edilen Çevrimiçi Güvenlik Yasa Tasarısının – teknoloji firmaları için bireylerin tehlikeli içerikle “karşılaşmasını önleme” yükümlülüğü yaratacak olan- 9. Maddesi, birçok kampanyacı için özel bir endişe nedenidir.

Open’ın politika yöneticisi Monica Horten, “Benim yorumum, içeriğin yüklenirken filtrelenmesi gerektiği yönünde… Bu endişe verici çünkü bir şeyi yayınlanmadan önce yayından kaldırıyorsanız, bu ifade özgürlüğüne ciddi bir müdahaledir” diyor. Hak Grubu. “Bence aşağı inmek çok tehlikeli bir kaygan yokuş.”

Böyle bir hareketin önceden kısıtlama (belirli içeriği yayınlanmadan önce yasaklayan bir tür hükümet sansürü) ve genellikle yalnızca Birleşik Krallık’ta ihtiyati tedbir gibi belirli belirli yasal durumlarda izin verilen bir şey teşkil edeceğini savunuyor.

Horten, “Yukarı çıkmadan önce indirilirse, bir şeylerin ters gittiğini bile anlamayabilirsiniz,” diye ekliyor. “Çevrimiçi Güvenlik Yasası, içerik kısıtlandığında kullanıcılara uygun şekilde bildirimde bulunulması için hiçbir hüküm içermiyor. Oradabir şikayet süreci için bir hüküm, ancak bir kişi bunun olduğunu bile bilmeden nasıl şikayet edebilir?

Tasarıda, mevcut haliyle, yeni başkanı sosyal medyayı bile kullanmadığını kabul eden bir kuruluş olan çevrimiçi yasadışı içerik olarak kabul edilenler için yönergeler belirlemek telekom ve medya düzenleyicisi Ofcom’a bırakılıyor.

Sorun şu ki, sosyal medya platformlarını düzgün bir şekilde yönetmek istiyorsak, bir çeşit otomasyon gerekli olabilir. Yalnızca Instagram’da yapılan gönderilerin sayısı on milyarları buluyor – bu, bir insan moderatör ordusunun bile manuel olarak incelemekte zorlanacağı bir ölçek.

Temelde sosyal bir sorun

Computer Weekly’nin konuştuğu kişilerin çoğuna göre, Çevrimiçi Güvenlik Yasası gibi bir mevzuata veya en azından şu anda büyük ölçüde yönetilmeyen çevrimiçi alanları yönetmek için yasaları kodlamayı amaçlayan bir şeye ihtiyaç var.

Pikes, “Yasalar, internette olanlara ayak uyduramadı” diyor. “Yani hükümet bunu denemek ve getirmek için gerçekten zor bir durumda. Yaparlarsa lanetlenirler ve yapmazlarsa lanetlenirler.”

Bunun her şeyi bıraktığı yer biraz karmaşık. Başlangıç ​​olarak, Çevrimiçi Güvenlik Yasasını iyileştirmek için onu kurcalamanın kesinlikle pek çok yolu vardır. Bunlar, denetim ve yasa dışı içeriğin nelerden oluştuğuna ilişkin daha net yönergelerden, haksız yere kısıtlananlar için şikayet sürecinin iyileştirilmesinden, platformlar tarafından kaldırılan içeriğin miktarını en aza indirecek önlemlerin eklenmesine kadar her şeyi içerir.

Ancak birçok kişi, tartışmanın konunun özünü kaçırıp kaçırmadığını merak ediyor.

“Buradaki sorun nedir? Sorun teknoloji mi? Sosyal medyadaki ırkçılık, daha geniş yapıların bir belirtisi… Bunlar sosyal sorunlar ve bütüncül olarak ele alınmaları gerekiyor” diyor Siapera. “Bu sorunu dolaşım düzeyinde kontrol etmeye çalışırsanız, bu hiç bitmeyen bir Köstebeğe Vurma türünden bir oyundur.”





Source link