La gran paradoja de datos

Video: LA SOLUCIÓN A LA PARADOJA DE FERMI (PARTE 1): EL PLANETA PERTENECE A UNA CIVILIZACIÓN GALÁCTICA

Encontrará un matiz sobre el análisis de grandes datos. En realidad se trata de datos pequeños. Si bien esto puede parecer confuso y en contra de toda la premisa, pequeña de datos es el producto de análisis de datos grande. Esto no es un concepto nuevo, ni es poco familiar para las personas que han estado haciendo análisis de datos durante cualquier periodo de tiempo. El espacio de trabajo total es mayor, pero las respuestas se encuentran en algún lugar de la “pequeña”.

Video: 5 HECHOS | FILOSOFIA

El análisis de datos tradicional comenzó con bases de datos llenas de información del cliente, información de productos, transacciones, datos de telemetría, y así sucesivamente. Incluso entonces, estaba disponible para analizar de manera eficiente demasiados datos. Sistemas, redes y software no tienen el rendimiento o la capacidad para hacer frente a la escala. Como industria, las deficiencias fueron abordadas por la creación de conjuntos de datos más pequeños.

Estos conjuntos de datos más pequeños eran todavía bastante sustancial, otras deficiencias fueron rápidamente discovered- la más evidente fue la falta de coincidencia entre los datos y el contexto de trabajo. Si trabajó en cuentas por pagar, había que mirar a una gran cantidad de datos no relacionados para hacer su trabajo. Una vez más, la industria respondió creando más pequeños, conjuntos de datos relacionados con el contexto - grande a pequeño al más pequeño aún.

Video: LA PARADOJA DE NUESTROS TIEMPOS

Usted puede reconocer esto como la migración de bases de datos a los almacenes de datos a mercados de datos. Más a menudo que no, los datos de los almacenes y los marts fue elegido en parámetros arbitrarios o experimentales que resulta en una gran cantidad de ensayo y error. Las empresas no estaban recibiendo las perspectivas que necesitaban o eran posibles debido a la reducción de capacidad no se basaban en el hecho de cómputo.

Introducir datos grandes, con todos sus volúmenes, velocidades y variedades, y el problema sigue siendo o tal vez empeora. Las deficiencias de la infraestructura se han abordado y pueden almacenar y procesar enormes cantidades de datos adicionales, pero se necesitan nuevas tecnologías específicamente para ayudar a manejar grandes volúmenes de datos.

A pesar de las apariencias, esto es una cosa maravillosa. Hoy en día y en el futuro, las empresas tendrán más datos de lo que pueden imaginar y que van a tener los medios para capturar y administrarla. Lo que es más necesario que nunca es la capacidad de analizar la derecho los datos de una manera suficientemente oportuna para tomar decisiones y realizar acciones.

Las empresas todavía se encogerán los conjuntos de datos en “la lucha contra el asiento,” pero pueden hacerlo computacionalmente. Procesan los grandes datos y convertirlos en datos pequeños para que sea más fácil de comprender. Es más preciso y, debido a que se deriva de un punto de partida mucho más grande, que es más contextualmente relevante.

Artículos Relacionados