Son iki yıldır milyonlarca kişinin Pornhub’ın İngiltere’deki web sitesinde çocuk istismarı videoları araması kesintiye uğradı. Bir kişinin kötüye kullanımla bağlantılı kelime veya ifadeler yazdığı 4,4 milyon seferin her birinde, bu tür içeriğin yasa dışı olduğunu belirten bir uyarı mesajı sayfayı bloke etti. Vakaların yarısında bir chatbot, insanları yardım arayabilecekleri yerlere yönlendiriyor.
Uyarı mesajı ve chatbot, Pornhub tarafından İngiltere merkezli iki çocuk koruma kuruluşuyla birlikte yürütülen bir deneme programının parçası olarak, insanların küçük müdahalelerle yasa dışı materyal aramaktan uzaklaştırılıp uzaklaştırılamayacağını öğrenmek için kullanıldı. Testi analiz eden ve WIRED ile özel olarak paylaşılan yeni bir rapor, pop-up’ların çocuk cinsel istismarı materyali (CSAM) arama sayısında bir azalmaya yol açtığını ve çok sayıda insanın davranışları için destek aradığını belirtti.
reThink Chatbot’un değerlendirmesine liderlik eden Tazmanya Üniversitesi’nde kıdemli öğretim görevlisi Joel Scanlan, “Aramaların gerçek ham sayıları aslında oldukça korkutucu” diyor. Çok yıllı deneme sırasında, Pornhub’ın Birleşik Krallık web sitesindeki CSAM bağlantılı aramalara yanıt olarak 4.400.960 uyarı yapıldı; deneme sırasındaki tüm aramaların yüzde 99’u bir uyarı tetiklemedi. Scanlan, “Arama sayılarında müdahalenin süresinde önemli bir azalma var” diyor. “Yani caydırıcılık mesajları işe yarıyor.”
Her yıl milyonlarca CSAM görseli ve videosu bulunup web’den kaldırılmaktadır. Bunlar sosyal medyada paylaşılıyor, özel sohbetlerde alınıp satılıyor, karanlık ağda satılıyor veya bazı durumlarda yasal pornografi web sitelerine yükleniyor. Teknoloji şirketleri ve porno şirketleri, platformlarında yasa dışı içeriğe izin vermiyor, ancak bunları farklı etki düzeylerinde kaldırıyorlar. Pornhub, çocuk istismarı materyallerini ve diğer sorunlu içerikleri web sitesinden kaldırmak amacıyla 2020’de yaklaşık 10 milyon videoyu kaldırdı. New York Times rapor.
Şirketin bir sözcüsü, ana şirket Aylo’ya (eski adıyla MindGeek) ait olan Pornhub’ın, çocuk istismarı materyali aramalarını engellemek için birden fazla dilde ve milyonlarca kombinasyondan oluşan 34.000 yasaklı terimden oluşan bir liste kullandığını söyledi. Sözcü, bunun Pornhub’ın yasa dışı materyallerle mücadele etmenin bir yolu olduğunu ve çocuk istismarı ve rıza dışı videolara ev sahipliği yaptığına dair yıllarca süren iddiaların ardından şirketin kullanıcı güvenliğini amaçlayan çabalarının bir parçası olduğunu söyledi. İngiltere’deki insanlar Pornhub’ın listesindeki terimlerden herhangi birini aradıklarında uyarı mesajı ve chatbot ortaya çıkıyor.
Sohbet robotu, CSAM’yi web’den kaldıran kar amacı gütmeyen bir kuruluş olan Internet Watch Foundation (IWF) ve çocukların cinsel istismarını önlemek için çalışan bir yardım kuruluşu olan Lucy Faithfull Vakfı tarafından tasarlandı ve oluşturuldu. Uyarı mesajlarının yanında toplam 2,8 milyon kez göründü. Deneme, Pornhub’daki oturum sayısını saydı; bu da kişilerin birden çok kez sayıldığı anlamına gelebilir ve bireylerin kimliğini tespit etmeye çalışmadı. Rapor, Pornhub’da CSAM aramalarında “anlamlı bir düşüş” olduğunu ve chatbot ile uyarı mesajlarının en azından “kısmen” bir rol oynadığını söylüyor.