¿Qué es la analítica de datos (masivos)? Se podría definir de manera simple como el descubrimiento de “modelos” de datos para extraer información, sacar conclusiones y tomar decisiones. Un “modelo” puede ser una de las siguientes cosas:
Se debe tener cuidado con las consecuencias de la analítica de datos masivos. En conjuntos grandes de datos aleatorios, las características inusuales ocurren y son el efecto de la naturaleza puramente aleatoria de los datos. Esto se conoce como el principio de Bonferroni.
Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.
Artículo:
Buenas prácticas de manufactura, análisis de peligros y plan de puntos críticos de control para destilerías de cachaza
Artículo:
Exploración de las prácticas de desarrollo de nuevos productos en las pequeñas y medianas empresas del sector de los dispositivos médicos
Artículo:
Un estudio exploratorio sobre tecnologías emergentes aplicadas a la logística 4.0
Video:
Aprendizaje automático y big data en nuestros días
Video:
Introducción al deep learning en Datahack, por Rubén Martínez
Libro:
Metodología del marco lógico para la planificación, el seguimiento y la evaluación de proyectos y programas
Presentación:
Estudio de movimientos y tiempos
Artículo:
Estudio sobre la evaluación de la sostenibilidad de los productos innovadores
Software:
Simulación del proceso de extracción sólido-líquido EXTSL