Características de análisis de datos grandes

Los análisis de datos ha recibido mucha publicidad recientemente, y por una buena razón. Tendrá que conocer las características de análisis de datos grande si quieres ser parte de este movimiento. Las empresas saben que algo está ahí fuera, pero hasta hace poco, no han sido capaces de extraerlo. Esta empujar el sobre en el análisis es un aspecto interesante del gran movimiento análisis de datos.

Las empresas están contentos de ser capaces de acceder y analizar datos que han estado recogiendo o quieren obtener una visión de, pero no han sido capaces de administrar o analizar de forma eficaz. Se podría implicar visualizar grandes cantidades de datos dispares, o puede ser que implique avanzado analizados de streaming a usted en tiempo real. Es evolutiva en algunos aspectos y revolucionario en otros.

Por lo tanto, lo que es diferente cuando su empresa está empujando el sobre con el análisis de datos grande? La infraestructura de soporte de análisis de datos grande es diferente y algoritmos han sido cambiados para ser consciente de la infraestructura.

Los análisis de datos debe ser vista desde dos perspectivas:

  • Decisión orientada

  • Acción orientada

análisis orientado a la toma de se asemeja más a la inteligencia de negocio tradicional. Consultar los subconjuntos selectivos y representaciones de las fuentes de datos más grandes y tratar de aplicar los resultados al proceso de toma de decisiones empresariales. Ciertamente, estas decisiones podrían dar lugar a algún tipo de acción o cambio de proceso, pero el propósito del análisis es para aumentar la toma de decisiones.

análisis orientada a la acción se utiliza para una respuesta rápida, cuando surge un patrón o tipos específicos de datos se detectan y se requiere una acción. Aprovechando las grandes volúmenes de datos a través del análisis y causando cambios en el comportamiento proactivo o reactivo ofrecen un gran potencial para los primeros usuarios.

Video: Samsung Galaxy A9, Review, análisis y características en español

La búsqueda y la utilización de grandes volúmenes de datos mediante la creación de aplicaciones de análisis puede ser la clave para extraer valor más pronto que tarde. Para realizar esta tarea, es más eficaz para construir estas aplicaciones personalizadas desde cero o plataformas y / o componentes de apalancamiento.

En primer lugar, ver algunas de las características adicionales de análisis de datos grande que la hacen diferente de los tipos tradicionales de análisis, aparte de los tres Vs del volumen, velocidad y variedad:

  • Puede ser programático. Uno de los mayores cambios en el análisis es que en el pasado se estaban tratando con conjuntos de datos se podría cargar manualmente en una aplicación y explorar. Con el análisis de grandes volúmenes de datos, es posible que se enfrentan a una situación en la que podría comenzar con datos en bruto que a menudo tiene que ser manejado mediante programación para hacer cualquier tipo de exploración debido a la escala de los datos.

  • Puede ser impulsada por los datos. Mientras que los científicos muchos de datos utilizan un enfoque basado en hipótesis, al análisis de datos (desarrollar una premisa y recoger datos para ver si esa premisa es correcta), también puede utilizar los datos para impulsar el análisis - especialmente si usted ha recogido grandes cantidades de ella . Por ejemplo, puede utilizar un algoritmo de aprendizaje de máquina de hacer este tipo de análisis libre de hipótesis.

    Video: Samsung Galaxy E7, Review, análisis y características en Español

  • Se puede utilizar una gran cantidad de atributos. En el pasado, es posible que haya sido tratar con cientos de atributos o características de esa fuente de datos. Ahora usted puede estar tratando con cientos de gigabytes de datos que constan de miles de atributos y millones de observaciones. Ahora todo está sucediendo a una escala mayor.

  • Puede ser iterativo. Más potencia de cálculo significa que se puede recorrer en sus modelos hasta que se obtiene como uno quiere. He aquí un ejemplo. Supongamos que estamos construyendo un modelo que está tratando de encontrar los predictores de ciertos comportamientos de los clientes asociados. Es posible comenzar la extracción de una muestra razonable de los datos o la conexión a donde residen los datos. Es posible construir un modelo para probar una hipótesis.

    Mientras que en el pasado no puede ser que haya tenido esta cantidad de memoria para hacer su trabajo de modelo de manera eficaz, se necesita una enorme cantidad de memoria física que pasar por las iteraciones necesarias para entrenar el algoritmo. También puede ser necesario el uso de técnicas informáticas avanzadas como el procesamiento del lenguaje natural o redes neuronales que evolucionan de forma automática el modelo basado en el aprendizaje como se añade más datos.

  • Puede ser rápido para obtener los ciclos de cálculo que necesita mediante el aprovechamiento de una infraestructura basada en la nube como servicio. Con la infraestructura como servicio (IaaS) plataformas como Amazon Cloud Services (ACS), se puede obtener rápidamente un conjunto de máquinas para ingerir grandes conjuntos de datos y analizarlos rápidamente.

Artículos Relacionados