Tecnología, Internet y juegos
5 meneos
56 clics

Por qué Apple abandonó su plan de escanear fotos en iCloud para detectar material de abuso infantil

A fines de 2022, Apple canceló su plan para detectar fotos de abuso sexual infantil almacenadas en iCloud. El plan generó controversia pues podía derivar en una problemática de privacidad inimaginable. Ahora, por primera vez, Apple da explicaciones: consultó con expertos en tecnología, seguridad y derechos humanos, y estudió tecnología de escaneo "desde todo ángulo virtualmente posible". Conclusión: lo que se pretendía era imposible sin concesiones en privacidad. Ni siquiera procesando la información en el iPhone, y no en servidores de iCloud.

| etiquetas: apple , icloud , abuso infantil , pederastia , pedofilia , privacidad , iphone

menéame