Aralık ayında Apple’ın platformdaki çocuklara yönelik cinsel istismar materyallerini (CSAM) tespit etmek için gizliliği koruyan bir iCloud fotoğraf tarama aracı tasarlama çabasının boşa gittiğini söyledi. İlk olarak Ağustos 2021’de duyurulan proje, başlangıcından bu yana tartışmalıydı. Apple, dijital hak gruplarının ve araştırmacıların böyle bir aracın kaçınılmaz olarak tüm iCloud kullanıcılarının gizliliğini ve güvenliğini tehlikeye atacak şekilde kötüye kullanılabileceği yönündeki endişelerine yanıt olarak Eylül ayında uygulamayı durdurmuştu. Bu hafta, Heat Initiative olarak bilinen yeni bir çocuk güvenliği grubu Apple’a, şirketin çocuklara yönelik cinsel istismar materyallerini iCloud’dan “tespit etmesi, raporlaması ve kaldırması” ve kullanıcıların CSAM’yi şirket.
Bugün Apple, nadir görülen bir hareketle Heat Initiative’e yanıt vererek iCloud CSAM tarama özelliğinin geliştirilmesinden vazgeçilmesinin nedenlerini açıkladı ve bunun yerine topluca İletişim Güvenliği özellikleri olarak bilinen, kullanıcılar için bir dizi cihaz içi araç ve kaynağa odaklandı. Apple’ın bu sabah WIRED ile paylaştığı Heat Initiative’e şirketin yanıtı, yalnızca İletişim Güvenliğine yönelme gerekçesine değil, aynı zamanda izleme amaçlı şifreleme gibi kullanıcı gizliliği korumalarını atlatacak mekanizmalar oluşturmaya ilişkin daha geniş görüşlere de nadir bir bakış sunuyor. veri. Bu duruş, özellikle Birleşik Krallık gibi ülkeler, teknoloji şirketlerinin yasa uygulama taleplerine uymak için kullanıcı verilerine erişebilmesini gerektiren yasaları geçirmeye ağırlık verdiğinden, şifreleme tartışmasıyla daha geniş anlamda alakalıdır.
Apple’ın kullanıcı mahremiyeti ve çocuk güvenliği direktörü Erik Neuenschwander, şirketin Heat Initiative’e verdiği yanıtta şunları yazdı: “Çocukların cinsel istismarına yönelik materyaller iğrençtir ve biz çocukları buna duyarlı hale getiren baskı ve etki zincirini kırmaya kararlıyız.” Bununla birlikte, bir dizi gizlilik ve güvenlik araştırmacısı, dijital hak grubu ve çocuk güvenliği savunucusu ile işbirliği yaptıktan sonra şirketin, gizliliği korumak için özel olarak oluşturulmuş olsa bile, bir CSAM tarama mekanizmasının geliştirilmesine devam edemeyeceği sonucuna vardığını ekledi. .
Neuenschwander şöyle yazdı: “Her kullanıcının özel olarak depolanan iCloud verilerinin taranması, veri hırsızlarının bulup kullanabileceği yeni tehdit vektörleri yaratacaktır.” Örneğin, bir tür içeriğin taranması, toplu gözetlemenin kapısını açıyor ve içerik türlerinde diğer şifreli mesajlaşma sistemlerini arama isteği yaratabilir.”
WIRED, Apple’ın yanıtı hakkında yorum yapmak için Heat Initiative’e hemen ulaşamadı. Grup, çevrimiçi çocuk istismarı ve seks kaçakçılığıyla mücadele etmek için yeni teknolojiler kullanmak üzere çalışan, kar amacı gütmeyen Thorn’un dış ilişkilerden sorumlu eski başkan yardımcısı Sarah Gardner tarafından yönetiliyor. Thorn, 2021’de Apple’ın bir iCloud CSAM tarama özelliği geliştirme planını övdü. Gardner, 30 Ağustos Çarşamba günü CEO Tim Cook’a gönderdiği ve Apple’ın WIRED ile de paylaştığı bir e-postada, Heat Initiative’in Apple’ın bu özelliği kaldırma kararını “hayal kırıklığı” bulduğunu söyledi.
Gardner, Cook’a şunları yazdı: “Açıkladığınız çözümün yalnızca Apple’ı kullanıcı gizliliğinde küresel bir lider olarak konumlandırmakla kalmayıp aynı zamanda çocuklara yönelik cinsel istismara yönelik milyonlarca görsel ve videoyu iCloud’dan silme sözü verdiğine kesinlikle inanıyoruz.” “Kritik teknolojinin uygulanmasında devam eden gecikmeniz konusunda sizinle ve şirketiniz Apple ile iletişim kurmayı amaçlayan ilgili çocuk güvenliği uzmanlarını ve savunucularını içeren gelişen bir girişimin parçasıyım… Çocukların cinsel istismarı kimsenin konuşmak istemediği zor bir konudur bu yüzden susturuluyor ve geride bırakılıyor. Bunun olmayacağından emin olmak için buradayız.”