Please enable JavaScript.
Coggle requires JavaScript to display documents.
HADOOP, MapReduce y LUSTRE, Resumen:
Estas tecnologías son usadas cuando…
HADOOP, MapReduce y LUSTRE
HADOOP
Framework de código abierto que permite almacenar y procesar grandes conjuntos de datos en forma distribuida.
Diseñado para escalar verticalmente desde una computadora hasta miles de computadoras agrupadas en clusters.
Componentes: - Un modelo de programación conocido como MapReduce que es la capa de procesamiento de datos
-HDFS, capa de almacenamiento de datos de forma distribuida
MAPREDUCE
Modelo de programación y un software de procesamiento distribuido usado para procesar grandes cantidades de datos en clústeres de computadoras.
-
Aplicaciones
-Análisis de texto
-Procesamiento de imágenes
-Análisis de datos geoespaciales
-Procesamiento de datos de sensores
LUSTRE
Sistema de archivos distribuido en paralelo que se usa en la mayoría de instalaciones informáticas a gran escala.
Separa servicios de metadatos y datos para brindar acceso paralelo a los archivos y mejorar el rendimiento.
Los metadatos son administrados por un metadata server y los metadatos reales son conservados en un metadata target
Resumen:
- Estas tecnologías son usadas cuando se tienen volúmenes grandes de datos.
- Estos sistemas son capaces de procesar y almacenar datos
- Es conveniente saber qué tecnologías existen para saber cuál utilizar
-