Avustralya’nın en iyi içerik moderatörü, Twitter, Google, TikTok, Twitch ve Discord’a çocuk istismarı içeren materyalleri nasıl tespit ettiklerini ve algoritmalarının bunu büyütmesini nasıl engellediklerini özetlemeleri için 35 gün süre verdi.
Platformlar dün, “zor soruları yanıtlamalarını gerektiren” bildirimlerle yasal olarak sunuldu.
e-Güvenlik Komiseri Julie Inman Grant’in sorduğu soruların, ilgili sektörlere ve bu sektörlerdeki belirli teknoloji devlerine göre değiştiğini söyledi.
Grant, sosyal medya ve mesajlaşma sağlayıcılarındaki zararlı içeriği tespit etmede hangi hash eşleştirme, sınıflandırıcılar ve diğer yapay zekanın kullanıldığını bilmek istiyor.
Ayrıca, arama motorlarının uzun süredir devam eden “web sayfalarını dizine ekleme yaklaşımlarını” geri çevirme geleneğini alt üst etmeye çalıştı ve Twitter’a, Avustralya’daki iş gücünü itlaf ettiğinde daha sıkı uyumluluk önlemini nasıl uygulayabileceğini sordu.
Telekomünikasyon bakanı Michelle Rowland’a göre, şirketler 30 Mart’a kadar “e-Güvenlik Komiserinden gelen bu bildirimlere” uymamaları halinde günlük 687.500 dolar para cezasıyla karşı karşıya kalacak.
Hızlı geri dönüş, gözlemcinin Mart ayında çocuk istismarı, terör materyali ve aşırı şiddet içeren içeriği sansürlemek için endüstri kodlarını kaydetmeyi planladığını ve önce endüstri derneklerinin bunlara bağlı kalmasına gerek olmadığını söylemesinden sonra geldi.
Uyarı, Kasım ayında Digital Industry Group Inc (DIGI) gibi dernekler tarafından önerilen yasa dışı içeriği sansürlemek için sekiz taslak yasayı reddetmesine eşlik etti.
Kurallar, temel çevrimiçi güvenlik beklentilerine nasıl uyulacağını ve uygulanacağını belirleyecektir.
Açık içerik algoritmalarını kırmak
Grant, beş sağlayıcıya sorduğu soruların “algoritmalarının ciddi şekilde zararlı içeriği artırmada oynayabileceği rolü” içerdiğini söyledi.
Bu, geçen yıl Ağustos ayında gönderdiği şeffaflık bildirimlerinden bir adım ötede: o zamanlar Apple, Meta (WhatsApp işlemi dahil), Microsoft (Skype dahil), Snap ve Omegle’a yalnızca algılama teknolojileri ve zararlı içeriğe verilen yanıtlar hakkında sorular soruluyordu. raporlar.
Grant, Şubat ayı başlarında Google, TikTok ve Twitter gibi şirketler derneğine gönderdiği bir mektupta algoritmik şeffaflıkla ilgili beklentilerini daha ayrıntılı olarak açıkladı: DIGI.
Mektup, DIGI’ye önerilen taslak kodlarının “algoritmik optimizasyonu desteklemek için devam eden yatırımları nasıl sağlayacağının” “belirsiz” olduğunu söyledi.
Öngörülen inceleme veya testi takiben sıralama algoritmalarını iyileştirmek ve/veya 1A sınıfının erişilebilirliğini veya keşfedilebilirliğini azaltmak için teknolojide araştırma ve geliştirme harcamalarını iyileştirmek için daha güçlü taahhütler çağrısında bulundu. [child abuse] malzeme.”
Mektupta, “Sağlayıcılar, en azından, web sayfalarını dizine ekleme yaklaşımı hakkında bilgi sağlamalı ve algoritmalarının düzenli performans testlerini yapmalıdır.”
Halk, DIGI’nin üyelerin algoritmalarının çocuk istismarı materyallerini çoğaltmasını engellemeye yönelik taahhütlerinin kapsamı hakkında bilgi sahibi değil.
Bunun nedeni, Meta gibi DIGI üyeleri taslak kodların halka açıklanması için çağrıda bulunurken eSafety’nin teknoloji devlerinin halka açık tartışmalardansa kapalı kapılar ardında daha işbirlikçi olduğunu söylemesidir.
Twitter, Google, TikTok, Twitch ve Discord’un algoritmalarının içeriği nasıl sıraladığını ayrıntılarıyla öğrenmesi, Grant’in rejim değişikliğindeki en iddialı adımı kanıtlayabilir.
Avustralya Rekabet ve Tüketici Komisyonu’nun 2019’da dijital platformlar soruşturmasını başlatmasından bu yana aynı platformların gizli tutmak için en çok mücadele ettiği fikri mülkiyet budur.
Ayrıca, Grant’in şeffaflık bildirimleri yayınladığı son şirketler grubundan talep ettiği ayrıntı düzeyi göz önüne alındığında, Twitter, Google, TikTok, Twitch ve Discord’un içerik sıralama algoritmalarının nasıl çalıştığına ilişkin yüzeysel yanıtları muhtemelen kabul etmeyecektir.
Kötüye kullanım içeriğinin algılanması
Grant, soruların Twitter, Google, TikTok, Twitch ve Discord’un “bu materyali tespit etmek ve kaldırmak için PhotoDNA gibi yaygın olarak bulunan teknolojiyi kullanıp kullanmayacağını” belirleyeceğini söyledi.
PhotoDNA, doğrulanmış çocuk istismarı görüntülerini tanımlamak için kullanılan birçok karma eşleştirme aracından biridir. Aynı görüntünün kopyalarını bularak diğer fotoğrafların imzalarıyla karşılaştırmak için benzersiz bir dijital imza oluşturur.
Grant, “Geçen Ağustos ayında şirketlere gönderdiğimiz ilk bildirimlerden keşfettiğimiz şey, pek çoğunun çocukları korumak için nispeten basit adımlar atmadığıdır” dedi.
Grant geçen hafta senato tahminlerine, algılama teknolojilerinin kullanımındaki “sektördeki çeşitliliğin” ve birden çok platforma sahip şirketlerin bazı hizmetlere etkili çözümler sunup diğerlerine getirmemesinin “şaşırtıcı” olduğunu söyledi.
Microsoft, PhotoDNA’yı geliştirmesine rağmen, OneDrive, Skype ve Hotmail’e dağıtılmadı.
Rapor ayrıca, platformların onaylanmış videoları, yeni görüntüleri ve canlı akışı algılamak için teknoloji kullanımında önemli farklılıklar buldu.
eSafety’nin argümanındaki önemli bir öncül, platformun bu tür çocuk istismarı içeriklerinden kaç tanesini tespit etmek için teknoloji yüklediği ile platformun çocuk istismarı karşıtı kuruluşlara yaptığı raporların sayısı arasındaki güçlü pozitif korelasyondur.
Örneğin, onaylanmış görüntüleri ve hem doğrulanmış hem de yeni videoları algılamak için teknoloji kullanan WhatsApp, 2021’de ABD’nin Ulusal Kayıp ve İstismara Uğrayan Çocuklar Merkezi’ne (NCME) 1,37 milyon içerik yönlendirmesi yaptı.
Öte yandan iMessage, bu içerik biçimlerinin hiçbirini tanımlayamıyor ve aynı zaman dilimi içinde NCME’ye yalnızca 160 yönlendirme yaptı.
Musk’ın Avustralyalı personel kesintileri
Grant ayrıca Twitter’ı seçti ve “işleri çocukları korumak olan kişiler”, şirket Ocak ayında Avustralya’daki iş gücünü baltalamayı bitirdiğinde itlaf edildi.
“Elon Musk tweet attı 2016 yılına kadar Twitter’ın Avustralya ve Güney Doğu Asya kamu politikası direktörü olan Grant, bugün yaptığı açıklamada, çocuk istismarını ele almanın ‘1 Numaralı Öncelik’ olduğunu, ancak Twitter’ın bu taahhüdü nasıl yerine getirdiğine dair ayrıntıları görmedik” dedi.
Bekçi, Pazartesi günü bir parlamento soruşturmasına, Twitter’ın Avustralya’daki zararlı içerik tespitlerine ilk yanıt verenlerin – Twitter’ın Temel Çevrimiçi Güvenlik Beklentileri ile uyumluluğunu hem tasarlayan hem de uygulayan personel – kısa süre önce görevden alındığını söyledi.
eSafety COO’su Toby Dagg, çocuk sömürüsüne ilişkin kolluk kuvvetlerinin yeteneklerine ilişkin soruşturmada, “Temel çevrimiçi güvenlik beklentilerinin temel unsurlarından biri, geniş bir kullanıcı güvenliği bileşenidir,” dedi.
“Güven ve güvenlik personeline yeterli sayıda personel ve kaynak sağlamanın, temel çevrimiçi güvenlik beklentilerinin bu belirli öğesinin bariz bir bileşenini oluşturduğunu söyleyebiliriz” diye ekledi.