eSafety Yetkilisi – Yazılım


E-Güvenlik Komiseri, sektör derneklerinin zararlı içeriği filtrelemek için taslak kodlarını reddettikten sonra, platformların çocuk istismarı materyallerini tespit etmek için daha geniş taahhütlere ihtiyacı olduğunu söyledi.

e-Güvenlik Komiseri vekili Toby Dagg, bu hafta senato tahminlerine verdiği demeçte, içerik denetleme gözlemcisinin “endüstrinin kodlar aracılığıyla bu tür materyallerin proaktif olarak tespit edilmesine ilişkin güçlü bir duruş taahhüt etmesi konusunda güçlü bir beklentisi var” dedi.

Geçen yıl 18 Kasım’da eSafety, Meta, Twitter ve Google gibi platformları temsil eden Digital Industry Group gibi derneklerden taslak endüstri kodları aldı.

Ardından Aralık ayında, eSafety lanet olası bir rapor yayınladı [pdf] platformların çocuk istismarı içeriğini tespit etme ve bunlara yanıt verme konusundaki teknik sınırlamalarında.

e-Güvenlik Komiseri Julie Inman Grant komiteye “iCloud ve OneDrive gibi en büyük bulutta barındırılan içeriklerden bazıları çocukların cinsel istismarı görüntülerini taramıyordu” dedi.

“Dolayısıyla, etraftaki tüm cihazları ve ahizeleri ve tüm potansiyel depolama alanlarını düşündüğünüzde, çocuklara yönelik cinsel istismarın ölçeğini ve kapsamını bile bilmediğimizi düşünüyoruz. [material] bu ana akım hizmetlerde mevcut.

“Yapay zeka, video eşleştirme teknolojileri, görüntüleme kümeleri ve diğer teknolojiler gibi ileri teknolojilere erişimi olan büyük şirketler, onları daha etkili kılmak için bu araçlara yatırım yapmalıdır” dedi.

eSafety’nin yasal araştırma, pazarlama ve iletişimden sorumlu yönetici müdürü Morag Bond şunları ekledi: “Çocuk cinsel istismarı materyali olarak daha önce incelenmiş olan görüntüleri daha geniş bir şekilde tanımlamak için teknolojiyi kullanma taahhüdümüzü endüstriye açıkça belirttik.”

Pazartesi gününde, Komiser, derneklerden 1A ve 1B sınıfı “zararlı içeriği” filtrelemek için taslak kodlarını yeniden göndermelerini istedi. ve “endişe alanlarını” ele almak.

Taslak kodların tam metni yayınlanmadı.

1. Sınıf, çocuk istismarı ve terör materyali gibi Ulusal Sınıflandırma Şeması tarafından sınıflandırılmaması reddedilecek içeriktir.

Komiser, sektör kodlarını Mart ayında kaydetmeyi planlıyor ve yeniden gönderilen kodlar “geliştirilmiş korumalar” içermiyorsa kodları bağımsız olarak tanımlayabileceğini söyledi.

Grant senatörlere, “Her bir kodla ilgilenen sektör derneklerinin her birine, bazı sınırlamaların veya uygun topluluk önlemlerinin bulunmadığını düşündüğüm yerler hakkında özel geri bildirim verdim” dedi.

Algılama teknolojisine yetersiz yatırım

Grant, ofisinin çocuk istismarı materyallerini tespit etmek için yedi platform tarafından kullanılan teknolojilere yönelik araştırmasının “bazı oldukça şaşırtıcı bulgular” ortaya çıkardığını söyledi.

“Hiçbir şekilde bu büyük şirketlerin hiçbiri yeterince yapmıyordu” dedi.

“Bazıları şaşırtıcı derecede az şey yapıyordu.

Komiser, Big Tech’in çocuk istismarı materyalinin canlı akışını durdurma girişimlerine ilişkin bir güncelleme talebine yanıt olarak, “Microsoft, Skype, Apple, Meta, WhatsApp, Snap ve Omegle’a yedi yasal şeffaflık bildirimi yayınladık” dedi.

Grant, “Sektörde oldukça fazla çeşitlilik vardı… çocukların cinsel istismarı raporlarına yanıt verme süresi, Snap için dört dakikadan, Skype veya Teams’in incelenmesi gerektiğinde Microsoft tarafından 19 güne kadar değişiyordu,” dedi.

eGüvenlik “temel çevrimiçi güvenlik beklentileri: ilk zorunlu şeffaflık bildirimlerine endüstri tepkilerinin özeti” Rapor, çevrimiçi hizmet sağlayıcıların farklı türlerdeki çocuk istismarı materyallerini tespit etmeleri için mevcut teknolojileri özetledi ve hangi platformların bunları dağıttığını ve kullanmadığını açıkladı.

Rapor, platformların önceden doğrulanmış çocuk istismarı resim ve videolarını, çocuk istismarı resim ve videolarını içeren yeni materyalleri, çevrimiçi tımarlamayı ve platformların kullanıcı raporlarına verdiği yanıtları ne ölçüde tespit ettiğini değerlendirdi.

Rapor, Foto DNA gibi doğrulanmış görüntüleri tanımlama teknolojisinin doğru olduğunu ve geniş çapta erişilebilir olduğunu belirtti.

“Bir ‘karma eşleştirme’ aracı, bir görüntünün benzersiz bir dijital imzasını oluşturur ve bu, daha sonra aynı görüntünün kopyalarını bulmak için diğer fotoğrafların imzalarıyla karşılaştırılır. PhotoDNA’nın hata oranı 50 milyarda bir olarak bildiriliyor” denildi.

Onaylanan görüntüler için karma eşleştirme teknolojisini kullanan hizmetler şunları içerir: OneDrive (paylaşılan içerik için), Xbox Live, Teams (uçtan uca şifreleme veya E2EE olmadığında), Skype mesajlaşması (E2EE olmadığında) Snapchat’in spot ışığını keşfetme ve doğrudan sohbet özellikleri, Apple’ın iCloud e-postası ve Meta’nın haber akışı içeriği ve mesajlaşma hizmetleri (E2EE olmadığında).

WhatsApp, varsayılan olarak E2EE kullanır, ancak PhotoDNA, kullanıcı profillerindeki ve kullanıcı raporlarındaki resimlere uygulanır.

Görüntüler için karma eşleştirme teknolojisini kullanmayan hizmetler: OneDrive (paylaşılmayan depolanmış içerik için), Snapchat’in anlık görüntüleri, Apple’ın iMessage’ı (varsayılan olarak E2EE)

Hash eşleştirme teknolojisiyle onaylanmış videoları tespit eden hizmetlerin dökümü, iCloud e-postası tarafından kullanılmaması dışında büyük ölçüde aynıydı.

Raporda, çocuklara yönelik cinsel istismara ilişkin yeni, doğrulanmamış görüntülerin, videoların ve canlı yayınların tespit edilmesinin çok daha zor olduğu, ancak teknolojinin mevcut olduğu belirtildi.

“Bu, tanımlamak için yapay zekanın (“sınıflandırıcılar”) kullanılmasıyla ortaya çıkabilir. bir çocuğun istismarını tasvir etmesi muhtemel olan ve tipik olarak bu vakalara insan incelemesi ve doğrulama.

“Bu araçlar, doğrulanmış çocuk cinsel istismarı materyali dahil olmak üzere çeşitli veri kümeleri üzerinde eğitilmiştir… Bu teknolojinin bir örneği, Google’ın İçerik Güvenliği API13’ü veya Thorn’un yüzde 99 kesinlik oranına sahip olduğunu bildirdiği Thorn’un sınıflandırıcısıdır.”

Yeni görüntüleri algılamak için teknolojiyi kullanan tek hizmetler Meta’nın Facebook, Instagram messenger, Instagram direct (E2EE olmadığında) ve WhatsApp idi.

eSafety’nin raporu, incelediği hizmetlerden hiçbirinin, Hive AI kullanan Omegle dışında çocuklara yönelik cinsel istismar materyallerinin canlı akışını tespit edecek teknolojiyi kullanmadığını söyledi.

Güvenlik teknolojisi şirketi SafetoNet’in ‘SafeToWatch’ aracı, malzemenin canlı akışını durdurmak için uygulanabilecek bir çözüm örneği olarak verildi.

Raporda, “çocukların cinsel istismarı materyalinin filme alınmasını ve izlenmesini otomatik olarak tespit etmek ve engellemek için gerçek zamanlı bir video tehdidi algılama aracı” sağladığı belirtildi.



Source link