Please enable JavaScript.
Coggle requires JavaScript to display documents.
Inteligencia de negocios business_intelligence, Data Lake Technology…
Inteligencia de negocios
Historia
Se originó en la década de 1950, fue formalmente definida en 1958 por Hans Peter Luhn de IBM. (attached://d04246387335d4bbd14dd2ed8c36c4d5 135x150) No obstante, no fue hasta la década de 1980 cuando comenzó a adquirir forma con el desarrollo de bases de datos y sistemas de soporte de decisiones (DSS). En la década de 1990, la implementación de almacenes de datos y sistemas OLAP propició su popularización, permitiendo el análisis de grandes volúmenes de datos.
-
Definición
El business intelligence (BI) o inteligencia de negocios combina análisis de negocios, minería de datos, visualización de datos, herramientas e infraestructura de datos, y las prácticas recomendadas para ayudar a las organizaciones a tomar decisiones más basadas en los datos.
Evolución
En la década de 1990, BI se popularizó con almacenes de datos y sistemas OLAP. Esto permitió el análisis multidimensional de grandes conjuntos de datos.
En el siglo XXI, BI ha incorporado tecnologías como la computación en la nube y el aprendizaje automático. Esto ha permitido análisis predictivos y prescriptivos, mejorando la toma de decisiones. Las herramientas de visualización de datos han facilitado la identificación de patrones y anomalías.
Actualmente, BI es crucial para que las empresas puedan prever futuras tendencias.
-
Características
Análisis de Datos en Tiempo Real: BI permite acceder a datos actualizados y en tiempo real, facilitando respuestas inmediatas a los desafíos del entorno.
Visualización de Datos: Utiliza dashboards y gráficas interactivas para facilitar el análisis y la interpretación de datos.
Integración de Múltiples Fuentes de Datos: Puede recolectar información de diferentes sistemas y fuentes, como CRM, ERP, redes sociales, etc..
Capacidades de Autoservicio: Los usuarios pueden generar informes, realizar análisis y ejecutar consultas de manera autónoma.
Procesamiento Automático de Datos: Permite el procesamiento y análisis automático de grandes cantidades de datos.
-
-
-
-
Data Lake
Definicion 
-
Admite datos estructurados, semiestructurados y no estructurados (ej.: CSV, JSON, imágenes, logs).
Caracteristicas 
-
Escalabilidad: Diseñado para crecer con volúmenes masivos (usando tecnologías como Hadoop o AWS S3).
-
Acceso democratizado: Diferentes equipos (analistas, científicos, etc.) pueden acceder a los mismos datos.
Aplicaciones

-
Análisis avanzado (ej.: IoT, redes sociales).
-
Beneficios 
-
-
Integración múltiple: Compatible con fuentes diversas (APIs, sensores, etc.)
Desafíos 
-
-
Diferencias clave vs. Data Warehouse 
Data Warehouse: Datos estructurados y procesados (Schema-on-Write), para reporting tradicional.
Data Lake: Datos crudos y flexibles, para análisis exploratorio.
Evolucion
- Orígenes (Década de 2000)
-
-
-
-
Automatización: Metadatos inteligentes y data catalogs (ej.: Alation, Collibra).
-
Historia
- Orígenes (Década de 2000)
Problema inicial: Explosión de datos no estructurados (redes sociales, sensores, logs) que los Data Warehouses no podían manejar.
-
Hadoop (2006): Framework de código abierto para almacenar y procesar big data en clusters (inspirado en Google File System).
Concepto "Data Lake": Acuñado por James Dixon (CTO de Pentaho, 2010) como analogía a un lago natural (datos en estado crudo).
-
Data Mart
Historia
El concepto de DataMart surgió en la década de 1990 como una evolución del Data Warehouse, cuando las empresas comenzaron a necesitar soluciones más ágiles y especializadas para la gestión de datos. Fue impulsado por la necesidad de descentralizar el almacenamiento de información y mejorar el rendimiento en la consulta de datos específicos por departamento.
Ralph Kimball, uno de los pioneros en el diseño de Data Warehouses, promovió la idea de construir DataMarts como una solución modular y escalable, permitiendo que las empresas implementaran análisis de datos de forma progresiva y con menor costo. Con el tiempo, su uso se expandió en diversas industrias para facilitar la toma de decisiones en áreas como ventas, marketing y finanzas.
Procesos
- Se crean índices y estructuras de almacenamiento eficientes para mejorar la velocidad de consulta.
- Se estructuran, depuran y convierten los datos para asegurar su calidad y coherencia.
- Se recopilan datos desde diversas fuentes internas o externas.
- Se gestionan permisos para garantizar que solo usuarios autorizados accedan a la información.
- Se gestionan los datos con procesos de carga incremental o actualización periódica.
- Se almacenan los datos transformados en el DataMart para su análisis.
- Los usuarios acceden a los datos mediante herramientas de BI (Business Intelligence) para generar reportes y visualizaciones.
Definición
Diseñado para almacenar y procesar datos específicos de un área o departamento dentro de una organización. Su propósito es optimizar la consulta y el análisis de información, proporcionando un acceso más rápido y eficiente a los datos relevantes para la toma de decisiones estratégicas.
Evolución
Los DataMarts evolucionaron de simples almacenes departamentales en los años 90 a soluciones más integradas y escalables. Con el auge del Big Data y la nube, pasaron de estructuras físicas a modelos virtuales, mejorando su accesibilidad, velocidad y capacidad de análisis en tiempo real.
-
Características
Utiliza modelos de datos optimizados, como esquemas estrella o copo de nieve.
-
-
-
-
-
-
-
-
Data Warehouse 
Procesos
-
Ajuste de las estructuras de almacenamiento y procesamiento para mejorar la eficiencia en la recuperación de datos.
Conversión de datos crudos a un formato adecuado para análisis, incluyendo limpieza y normalización.
-
-
-
Gestión de permisos y autenticación para asegurar que solo los usuarios autorizados accedan a los datos.
Creación de informes visuales y analíticos a partir de los datos almacenados para apoyar la toma de decisiones.
-
Definición
Repositorio centralizado de datos estructurados, procesados y organizados para análisis y reporting.Diseñado bajo el enfoque "Schema-on-Write" (esquema definido antes de cargar datos). 
Evolución
Los Data Warehouses han evolucionado desde sistemas locales en los años 80, con almacenamiento estructurado y procesamiento batch, hasta plataformas en la nube con análisis en tiempo real. En los 90, se popularizaron los DataMarts y modelos optimizados como el esquema estrella. Con el auge del Big Data en los 2000, surgieron bases de datos columnares y procesamiento distribuido. Hoy, tecnologías como Snowflake, Google BigQuery y Amazon Redshift permiten escalabilidad, integración con IA y acceso global desde la nube.
-
-
Ventajas
-
Centraliza información de múltiples fuentes, garantizando consistencia y calidad.
-
-
Facilita la extracción, transformación y carga (ETL), reduciendo trabajo manual.
-
-
Historia
El concepto de Data Warehouse surgió en la década de 1980 como una solución para centralizar y optimizar el almacenamiento de datos en las empresas. Bill Inmon, considerado el "padre del Data Warehouse", definió su arquitectura como un repositorio centralizado, integrado, orientado a temas y con datos históricos, diseñado para apoyar la toma de decisiones.
En los años 90, Ralph Kimball propuso una metodología alternativa, basada en DataMarts especializados que luego se integrarían en un Data Warehouse más grande. Con el avance del Big Data en la década de 2000, surgieron nuevas tecnologías como el procesamiento en paralelo y bases de datos columnares para mejorar la eficiencia.
En la actualidad, con la computación en la nube y la inteligencia artificial, los Data Warehouses han evolucionado hacia plataformas más escalables y flexibles, como Google BigQuery, Amazon Redshift y Snowflake, permitiendo el análisis en tiempo real y la integración con diversas fuentes de datos.