La capa 4 de la gran pila de datos: los almacenes de datos analíticos

El almacén de datos, la capa 4 de la gran pila de datos, y su compañero el mercado de datos, han sido durante mucho tiempo las técnicas primarias que las organizaciones utilizan para optimizar los datos para ayudar a los tomadores de decisiones. Típicamente, los almacenes de datos y mercados contienen datos normalizados se reunieron a partir de una variedad de fuentes y se montan para facilitar el análisis de la empresa.

Video: Secret Space Program Richard Dolan

Los almacenes de datos y mercados simplifican la creación de informes y la visualización de elementos de datos dispares. Por lo general se crean a partir de bases de datos relacionales, bases de datos multidimensionales, archivos planos y bases de datos de objetos - esencialmente cualquier arquitectura de almacenamiento. En un entorno tradicional, donde el rendimiento puede no ser la más alta prioridad, la elección de la tecnología subyacente es impulsada por los requisitos para el análisis, generación de informes y visualización de los datos de la empresa.

A medida que la organización de los datos y su disposición para el análisis son la clave, las implementaciones de almacén mayoría de los datos se mantienen actualizados a través de procesamiento por lotes. El problema es que los almacenes de datos de carga discontinua y mercados de datos puede ser insuficiente para muchas aplicaciones de datos grandes. La tensión impuesta por los flujos de datos de alta velocidad probablemente requerirá un enfoque más en tiempo real a grandes almacenes de datos.

esto no tiene&rsquo-t significa que usted ganó&rsquo-t sea la creación y la alimentación de un almacén de datos analítica o un mercado de datos con los procesos por lotes. Por el contrario, puede llegar a tener múltiples almacenes o mercados de datos, y el rendimiento y la escala va a reflejar los requisitos de tiempo de los analistas y tomadores de decisiones.

Debido a que muchos almacenes de datos y mercados de datos se componen de datos recogidos de diversas fuentes dentro de una empresa, los costos asociados con la limpieza y la normalización de los datos también deben ser tratados. Con grandes volúmenes de datos, se encuentran algunas diferencias clave:

  • flujos de datos tradicionales (de las transacciones, aplicaciones, etc.) pueden producir una gran cantidad de datos dispares.

  • También existen decenas de nuevas fuentes de datos, y cada uno necesita un cierto grado de manipulación antes de que pueda ser oportuna y útil para el negocio.

    Video: estructuras de datos

  • También necesitarán fuentes de contenido para ser limpiados, y éstos pueden requerir diferentes técnicas que puede utilizar con datos estructurados.

    Video: Como perder la barriga rapidamente

Históricamente, los contenidos de los almacenes de datos y mercados de datos fueron organizados y entregados a los líderes empresariales a cargo de la estrategia y la planificación. Con grandes volúmenes de datos, un nuevo conjunto de equipos están aprovechando de datos para la toma de decisiones.

Muchas implementaciones de datos proporcionan grandes capacidades en tiempo real, por lo que las empresas deben ser capaces de entregar el contenido para que las personas con funciones operativas para hacer frente a cuestiones tales como la atención al cliente, las oportunidades de ventas y las interrupciones del servicio en tiempo real. De esta manera, los datos de gran ayuda a mover la acción de la oficina de nuevo a la oficina principal.

herramientas y técnicas de análisis existente va a ser muy útil en la toma sentido a los datos grandes. Sin embargo, hay una trampa. Los algoritmos que forman parte de estas herramientas tienen que ser capaces de trabajar con grandes cantidades de datos potencialmente dispares en tiempo real y. La infraestructura tendrá que estar en su lugar para apoyar esto.

Y, los proveedores que ofrecen herramientas de análisis también tendrán que asegurarse de que sus algoritmos trabajan a través de implementaciones distribuidas. Debido a estas complejidades, le espera una nueva clase de herramientas para ayudar a dar sentido a los datos grandes.

Hay tres clases de herramientas en esta capa de la arquitectura de referencia. Se pueden utilizar de forma independiente o colectivamente por los tomadores de decisiones para ayudar a dirigir el negocio. Las tres clases de herramientas son los siguientes:

  • Presentación de informes y cuadros de mando: Estas herramientas proporcionan una &ldquo-fácil de usar&rdquo- la representación de la información procedente de diversas fuentes. Aunque uno de los pilares en el mundo de datos tradicional, esta área todavía se está desarrollando para grandes volúmenes de datos. Algunas de las herramientas que se utilizan son los tradicionales que ahora se puede acceder a los nuevos tipos de bases de datos NoSQL llamados colectivamente (no sólo SQL).

  • Visualización: Estas herramientas son el siguiente paso en la evolución de la presentación de informes. La salida tiende a ser altamente interactivo y dinámico en la naturaleza. Otra distinción importante entre los informes y de salida visualizada es la animación. Los usuarios de negocio pueden ver los cambios en los datos que utilizan una variedad de diferentes técnicas de visualización, incluyendo mapas mentales, mapas de calor, infografías y esquemas de conexión. La presentación de informes y visualización se producen al final de la actividad empresarial.

  • Analytics y análisis avanzados: Estas herramientas llegan al almacén de datos y procesar los datos para el consumo humano. análisis avanzados deben explicar las tendencias o eventos que son transformadora, único, o revolucionaria a la práctica empresarial existente. El análisis predictivo y análisis de sentimiento son buenos ejemplos de esta ciencia.

    Video: Separation Studio RYONET (TRADUCIDO AL ESPAÑOL)

Artículos Relacionados