İngiltere Çevrimiçi Güvenlik Rejimi Yanlış Bilgiler Etkisiz, Milletvekilleri diyor


İngiltere’nin Çevrimiçi Güvenlik Yasası (OSA), sosyal medya platformlarında “algoritmik olarak hızlandırılmış yanlış bilgilendirmeyi” ele alamıyor ve halkı 2024 Southport isyanlarının tekrarına karşı savunmasız bıraktı.

Çevrimiçi yanlış bilgi ve zararlı algoritmalarla ilgili bir soruşturmanın ardından, Commons Bilim, İnovasyon ve Teknoloji Komitesi (SITC), sahte veya zararlı içeriğin viral yayılımı ile ilgili olarak İngiltere’nin çevrimiçi güvenlik rejiminde “büyük delikler” tespit etti.

Temmuz 2024 Southport isyanlarını “çevrimiçi etkinliğin gerçek dünya şiddetine nasıl katkıda bulunabileceğine” bir örnek olarak vurgulayan SITC, 11 Temmuz 2025’te yayınlanan bir raporda, OSA’nın birçok kısmının huzursuzluk sırasında tam olarak yürürlükte olmadığı konusunda “eğer varsa bir fark yaratacaklarına dair çok az kanıt bulduk” konusunda uyardı.

Bunun, Yasanın kendisindeki zayıf bilgi ile ilgili zayıf önlemlerin yanı sıra sosyal medya firmalarının iş modelleri ve opak öneri algoritmaları da dahil olmak üzere faktörlerin bir karışımından kaynaklandığını söyledi.

SITC Başkanı Chi Onwurah, “Çevrimiçi Güvenlik Yasası’nın sıfırlamaya hazır olmadığı açık” dedi. “Hükümetin, zarar vermesine neden olan ancak hattı yasadışılık haline getirmeyen yaygın yanlış bilgilendirme yayılımı ile mücadele etmek için daha da ileriye gitmesi gerekiyor. Sosyal medya şirketleri sadece tarafsız platformlar değil, çevrimiçi gördüklerinizi aktif olarak küratörlüğünü yapıyorlar ve daha güçlü bir çevrimiçi güvenlik rejimi oluşturmak için hükümeti gelecekteki düzenlemenin temeli olarak benimsemeye teşvik ediyoruz.”

Bu ilkeler arasında kamu güvenliği, ücretsiz ve güvenli ifade, sorumluluk (hem son kullanıcılar hem de platformlar dahil), kişisel verilerin kontrolü ve şeffaflığı içerir.

SITC ayrıca, yanlış bilginin amplifikasyonunu teşvik eden dijital reklam ekosistemi için “net ve uygulanabilir standartlar” oluşturma ve platformların yanlış bilgilendirme ile ilgili riskleri değerlendirmek ve bunlarla başa çıkmak için yeni görevler sunmak gibi özel önerilerde bulundu. Milletvekilleri, “Güçlendirilmiş dezenformasyonla mücadele etmek için… hükümet ve OFCOM, dezenformasyon aktörlerini tanımlamak ve izlemek için platformlarla işbirliği yapmalıdır ve çekişmeli ve aldatıcı anlatıları çevrimiçi olarak yaymak için kullandıkları teknik ve davranışlar” dedi milletvekilleri.

İş modelleri ve opak algoritmalar

SITC’ye göre, sosyal medya şirketleri, reklam ve katılım tabanlı iş modelleri sonucunda viral yanlış bilginin yayılmasını “sıklıkla etkinleştirdi, hatta teşvik etti”-ve bundan kâr etmiş olabilirler.

Milletvekilleri, “Çoğu sosyal medya şirketinin reklam tabanlı iş modelleri, genellikle güvenliğinden veya özgünlüğüne bakılmaksızın ilgi çekici içeriği teşvik ettikleri anlamına geliyor” diye yazdı. “Bu, sosyal medyada iyi performans gösterecek içeriğin yaratılmasını teşvik ederek, opak, yetersiz düzenlenmiş dijital reklam piyasası aracılığıyla tüm internete dökülüyor.”

Büyük teknoloji şirketleri komiteye platformlarında zararlı içeriğe izin verecek herhangi bir teşvik olmadığını söylerken, markaya zarar verebileceği ve reklamverenleri itebileceği için, “bu alanda politika yapmanın tam bir kanıt tabanından yoksun” çünkü sosyal medya önerisi algoritmalarının iç işleyişinin firmalar tarafından açıklanmadığını ekledi.

“Birkaç teknoloji şirketinden, öneri algoritmalarının komiteye üst düzey temsillerini vermelerini istedik, ancak yapmadılar,” dediler, bu “şeffaflıktaki eksikliğin” belirli öneriler ve zararlar arasında net nedensel bağlantılar oluşturmayı zorlaştırdığını da sözlerine ekledi.

“Sosyal medya şirketleri tarafından kullanılan teknoloji şeffaf, açıklanabilir ve kamu yetkilileri için erişilebilir olmalıdır” dedi.

SITC, hükümetin sosyal medya platformlarını, sistemlerine, gerçek kontrollü yanıltıcı içeriği tanımlayabilen ve algoritik olarak depriyalize edebilen araçları veya önemli zararlara neden olma potansiyeline sahip olan güvenilir olmayan kaynakları belirleyebilen araçları yerleştirmeye zorlamak için önlemler oluşturması gerektiğini de sözlerine ekledi.

Milletvekilleri, “Bu önlemlerin yasal serbest ifadeyi sansürlememesi, ancak ulusal güvenlik, kamu güvenliği veya sağlığını korumak veya bozukluk veya suçu önlemek için bilgilerin yayılmasına haklı ve orantılı kısıtlamalar uygulaması hayati önem taşıyor” dedi.

Milletvekilleri, yanlış bilgiyi teşvik eden temel iş modelleriyle mücadele ederken, odak noktası şu anda “reklam yoluyla zararlı içeriğin para kazanması” yerine zararlı reklam içeriği üzerinde olduğundan, dijital reklamcılık etrafında düzenleyici bir boşluk olduğunu söyledi.

“Hükümet, zararlı ve yanıltıcı içeriğin para kazanmasına izin veren karmaşık ve opak otomatik tedarik zincirini kapsayan dijital reklam sürecini düzenlemek ve incelemek için endüstri tarafından finanse edilmeyen yeni bir silah uzunluğu organı yaratmalıdır” diye ekledi. “Ya da en azından hükümet, bu zarar biçimini açıkça karşılamak için Ofcom’un yetkilerini genişletmeli ve kendisini belirli teknolojiler veya sektörlerle sınırlamak yerine, herhangi bir dijital yolla zararlı veya yanıltıcı içeriğin yayılmasını önleme ilkesine dayanarak düzenlemelidir.”

Üretken yapay zeka (Genai) sadece Southport isyanlarından önce yanlış bilginin yayılmasında marjinal bir rol oynarken, SITC “gelecek, benzer bir krizde” oynayabileceği rol hakkında endişe duydu.

Genai’nin “düşük maliyet, geniş kullanılabilirlik ve hızlı ilerlemeler, büyük miktarlarda ikna edici aldatıcı içeriğin gittikçe daha fazla yaratılabileceği anlamına geliyor”.

Bu nedenle, hükümetin, yasadışı veya zararlı içerik üretme veya yayma riski yüksek olan diğer çevrimiçi hizmetlere uygun olarak, Genai platformlarını kapsayan mevzuatı geçmesi gerektiğini söyledi.

“Bu mevzuat, üretken AI platformlarının: OFCOM’a, yasadışı, zararlı veya yanıltıcı içerik oluşturabilecekleri veya yayılabilecekleri de dahil olmak üzere farklı istemler ve çıktılarla ilişkili riskler hakkında risk değerlendirmeleri sağlamak; modelin içeriği nasıl iyileştirdiğini, hassas konulara nasıl tepki verdiğini, çocuklara yasadışı ya da zararlı olduğu gibi içerikleri önlemek; Çocukların uygunsuz veya zararlı çıktılara erişmesini önleyin. ”

AI tarafından oluşturulan tüm içeriğin otomatik olarak “meta veriler ve kaldırılamayan görünür filigranlarla” etiketlenmesi gerektiğini de sözlerine ekledi.



Source link