Apple, Fotoğraflarınızı CSAM için Tarama Planını Sonlandırıyor. İşte sırada ne var


Ağustos 2021’de, Apple, iCloud’da saklanan kullanıcıların fotoğraflarını çocuklara yönelik cinsel istismar materyali (CSAM) için tarama planını duyurdu. Düzen, gizliliği korumayı ve şirketin potansiyel olarak sorunlu ve kötü niyetli içeriği başka hiçbir şeyi ifşa etmeden işaretlemesine izin vermeyi amaçlıyordu. Ancak girişim tartışmalıydı ve kısa süre sonra gizlilik ve güvenlik araştırmacıları ile dijital haklar gruplarından, gözetim yeteneğinin dünyanın dört bir yanındaki iCloud kullanıcılarının gizliliğini ve güvenliğini baltalamak için kötüye kullanılabileceği yönündeki potansiyel nedeniyle yaygın eleştiriler aldı. Eylül 2021’in başında Apple, “bu kritik öneme sahip çocuk güvenliği özelliklerini yayınlamadan önce girdi toplamak ve iyileştirmeler yapmak” için özelliğin kullanıma sunulmasını duraklatacağını söyledi. Aldığı geri bildirim ve rehberliğe yanıt olarak, iCloud fotoğrafları için CSAM algılama aracının öldüğünü söylüyor.

Bunun yerine Apple, bu hafta WIRED’e, CSAM karşıtı çabalarını ve yatırımlarını şirketin ilk olarak Ağustos 2021’de duyurduğu ve geçen Aralık ayında piyasaya sürdüğü “İletişim Güvenliği” özelliklerine odakladığını söyledi. Ebeveynler ve bakıcılar, aile iCloud hesapları aracılığıyla korumaları seçebilir. Siri’de, Apple’ın Spotlight aramasında ve Safari Arama’da çalışırlar ve birinin çocuklara yönelik cinsel istismar malzemelerine baktığını veya aradığını söylerler ve içeriği bildirmek ve yardım istemek için anında kaynaklar sağlarlar. Ek olarak, korumanın özü, bakıcıların, çıplaklık içeren fotoğraflar aldıkları veya göndermeye çalıştıkları takdirde çocuklara bir uyarı ve kaynak sağlamak üzere ayarlayabilecekleri İletişim Güvenliğidir. Amaç, çocuk sömürüsünü gerçekleşmeden veya yerleşik hale gelmeden durdurmak ve yeni CSAM oluşumunu azaltmaktır.

Şirket, WIRED’e yaptığı açıklamada, “Geçen yıl önerdiğimiz çocuk koruma girişimleri hakkında geri bildirim toplamak için uzmanlarla kapsamlı istişarelerin ardından, ilk olarak Aralık 2021’de kullanıma sunduğumuz İletişim Güvenliği özelliğine yaptığımız yatırımı derinleştiriyoruz” dedi. “Daha önce iCloud Fotoğrafları için önerdiğimiz CSAM tespit aracımızı kullanmamaya karar verdik. Şirketler kişisel verileri taramadan da çocuklar korunabilir ve gençleri korumaya, mahremiyet haklarını korumaya ve interneti çocuklar ve hepimiz için daha güvenli bir yer haline getirmeye yardımcı olmak için hükümetler, çocuk savunucuları ve diğer şirketlerle çalışmaya devam edeceğiz. ”

Apple’ın CSAM güncellemesi, bugün şirketin bulut hizmetinde depolanan yedeklemeler ve fotoğraflar için koruma eklemek de dahil olmak üzere iCloud için uçtan uca şifreleme tekliflerini büyük ölçüde genişlettiği duyurusunun yanında geliyor. CSAM ile mücadele etmek için çalışan çocuk güvenliği uzmanları ve teknoloji uzmanları, kullanıcı verilerine teknoloji şirketlerinin erişememesine neden olarak CSAM’yi taramalarını ve işaretlemelerini zorlaştırdığı için uçtan uca şifrelemenin daha geniş çapta uygulanmasına genellikle karşı çıkıyorlar. Dünyanın dört bir yanındaki emniyet teşkilatları, uçtan uca şifrelemenin kullanılmasına ve genişletilmesine karşı çıkarken benzer şekilde korkunç çocuk cinsel istismarı sorununu dile getirdiler, ancak bu kurumların çoğu geçmişte genel olarak uçtan uca şifrelemeye karşı düşmanca davrandı çünkü bazı araştırmaları daha zor hale getirebilir. Bununla birlikte, araştırmalar sürekli olarak uçtan uca şifrelemenin insan haklarını korumak için hayati bir güvenlik aracı olduğunu ve uygulanmasının olumsuz taraflarının faydalarından daha ağır basmadığını göstermiştir.

Mesajlar için İletişim Güvenliği isteğe bağlı bir özelliktir ve bir fotoğrafın çıplaklık içerip içermediğini belirlemek için kullanıcıların kendi cihazında gönderip aldığı resim eklerini analiz eder. Bu özellik, Apple’ın mesajlara asla erişemeyeceği, Mesajlar’ın sunduğu uçtan uca şifrelemenin hiçbir zaman bozulmayacağı ve Apple’ın bir cihazın çıplaklık tespit ettiğini bile öğrenmeyeceği şekilde tasarlandı.

Şirket, WIRED’e, İletişim Güvenliği özelliklerini genişletmek için belirli bir zaman çizelgesi duyurmaya hazır olmasa da, şirketin koruma etkinleştirildiğinde Mesajlar aracılığıyla gönderilen videolarda çıplaklığı tespit etme özelliğini eklemeye çalıştığını söyledi. Şirket ayrıca teklifini Mesajların ötesinde diğer iletişim uygulamalarına da genişletmeyi planlıyor. Ve nihai olarak amaç, üçüncü taraf geliştiricilerin İletişim Güvenliği araçlarını kendi uygulamalarına dahil etmelerini mümkün kılmaktır. Apple, özellikler ne kadar çok çoğalırsa, çocukların istismar edilmeden önce ihtiyaç duydukları bilgi ve desteği alma olasılığının o kadar yüksek olduğunu söylüyor.

Şirket yaptığı açıklamada, “Ebeveynlere çocuklarını güvenli olmayan iletişimden korumaya yardımcı olacak isteğe bağlı araçlar sağlanarak potansiyel çocuk istismarı daha gerçekleşmeden durdurulabilir” dedi. “Apple, Çocukların Cinsel İstismarı Materyali ile mücadele etmek ve çocukları korumak için mahremiyeti koruyan yenilikçi çözümler geliştirmeye ve aynı zamanda kişisel iletişim ve veri depolamanın benzersiz gizlilik gereksinimlerini karşılamaya kendini adamıştır.”

Meta da dahil olmak üzere CSAM’ı ele almak için çalışmakla alenen boğuşan diğer şirketlere benzer şekilde Apple, WIRED’e, kullanıcılarının istismar içeren içeriği ve durumları savunuculuk kuruluşlarına bildirmesini mümkün olduğunca kolaylaştırmak için çocuk güvenliği uzmanlarıyla çalışmaya devam etmeyi planladığını söyledi. ve kolluk kuvvetleri.

CSAM’ye karşı koymak, dünyanın her yerindeki çocuklar için son derece yüksek riskleri olan karmaşık ve incelikli bir çabadır ve bu noktada Apple’ın proaktif müdahale konusundaki bahsinin ne kadar ilgi göreceği hala bilinmemektedir. Yine de teknoloji devleri, CSAM tespiti ile kullanıcı gizliliği arasında bir denge bulmaya çalıştıkları için ince bir çizgide yürüyorlar.



Source link