Diferentes enfoques para el análisis de grandes datos

En muchos casos, el análisis de datos grande será representado para el usuario final a través de informes y visualizaciones. Debido a que los datos en bruto puede ser variada incomprensiblemente, se le tiene que depender de las herramientas y técnicas de análisis para ayudar a presentar los datos de manera significativa.

Las nuevas aplicaciones se están disponibles y se caen en dos categorías: de encargo o semi-personalizado.

Las aplicaciones personalizadas para el análisis de grandes volúmenes de datos

En general, se crea una aplicación personalizada para un propósito específico o un conjunto relacionado de propósitos. Para el análisis de grandes volúmenes de datos, con el propósito de desarrollo de aplicaciones personalizadas es acelerar el tiempo de decisión o acción.

medio ambiente: R

El medio ambiente “R” se basa en el análisis de las estadísticas y la “S” lenguaje desarrollado en la década de 1990 por los Laboratorios Bell. Es mantenido por el proyecto GNU y está disponible bajo la licencia GNU.

Mientras que un reto para comprender plenamente, su profundidad y flexibilidad lo convierten en una opción atractiva para los desarrolladores de aplicaciones analíticas y “usuarios avanzados”. Además, el proyecto CRAN R mantiene un conjunto mundial de servidores web y Protocolo de transferencia de archivos con la más actualizada versiones actualizadas del entorno R. A, versión de la empresa apoyado comercialmente de R también está disponible a partir de Revolution Analytics.

Más específicamente, R es un conjunto integrado de herramientas de software y tecnologías diseñadas para crear aplicaciones personalizadas utilizadas para facilitar la manipulación de datos, cálculo, análisis y presentación visual. Entre otras capacidades avanzadas, soporta

  • De manejo de datos y la manipulación de componentes eficaces.

    Video: Conociendo a Vigotsky, Piaget, Ausubel y Novak

  • Los operadores de cálculos sobre matrices y otros tipos de datos ordenados.

    Video: Enfoque Cualitativo, Cuantitativo y Mixto

  • Herramientas específicas para una amplia variedad de análisis de datos.

  • capacidades avanzadas de visualización.

  • S lenguaje de programación diseñado por los programadores, para los programadores con muchos constructos familiares, incluidos los condicionales, bucles, funciones recursivas definidos por el usuario, y una amplia gama de instalaciones de entrada y salida.

R es muy adecuado para un solo uso, aplicaciones personalizadas para el análisis de las fuentes de datos grandes.

Prediction API Google

La API de predicción de Google es un ejemplo de una clase emergente de herramientas de aplicación de análisis de datos grandes. Está disponible en el sitio web de desarrolladores de Google y está bien documentado y provisto de varios mecanismos de acceso utilizando diferentes lenguajes de programación. Para ayudarle a empezar, es de libre acceso para seis meses.

La API de predicción es bastante simple. Se busca patrones y los compara con los patrones existentes proscripción, prescriptivos, o de otro tipo. Mientras se realiza la coincidencia de patrones, sino que también “aprende”. Cuanto más lo use, más inteligente se vuelve.

Predicción se implementa como una API REST con soporte de idiomas para .NET, Java, PHP, javascript, Python, Ruby, y muchos otros. Google también proporciona secuencias de comandos para acceder a la API, así como una biblioteca de cliente para R.

El análisis predictivo es uno de los más potentes capacidades potenciales de grandes volúmenes de datos, y la API de predicción de Google es una herramienta muy útil para crear aplicaciones personalizadas.

aplicaciones semi-personalizados para el análisis de grandes volúmenes de datos

En verdad, lo que muchas personas perciben como aplicaciones personalizadas en realidad son creados usando componentes “empaquetados” o de terceros como bibliotecas. No siempre es necesario codificar por completo una nueva aplicación. El uso de aplicaciones o componentes envasados ​​requiere que los desarrolladores o analistas de escribir código para “unir” estos componentes en una aplicación personalizada de trabajo. Los siguientes son razones por las que este es un enfoque de sonido:

  • Velocidad de despliegue: Debido a que usted no tiene que escribir cada parte de la aplicación, el tiempo de desarrollo puede ser reducido en gran medida.

  • Estabilidad: El uso de componentes, fiables y de terceros bien construidas puede ayudar a hacer que la aplicación personalizada más resistente.

    Video: ML Spain Meetup XVI: PythonHack y Medición de la actividad publicitaria

  • Mejor calidad: componentes envasados ​​están a menudo sujetos a normas de mayor calidad debido a que se despliegan en una amplia variedad de entornos y dominios.

  • Mayor flexibilidad: Si un componente mejor suceda, puede ser intercambiada en la aplicación, extendiendo la vida útil, la adaptabilidad, y la utilidad de la aplicación personalizada.

    Video: Grupo de Investigación: Modelización Estadística y Análisis de Datos

Otro tipo de aplicación semi-custom es uno en el que el código fuente está disponible y se modifica para un propósito particular. Esto puede ser un enfoque eficaz porque hay muy pocos ejemplos de bloques de construcción de aplicaciones disponibles para incorporar en su aplicación semi-custom:

  • TA-Lib: La biblioteca de análisis técnico es ampliamente utilizado por los desarrolladores de software que necesitan para llevar a cabo el análisis técnico de los datos del mercado financiero. Está disponible como código abierto bajo la licencia BSD, que le permite ser integrado en aplicaciones semi-personalizados.

  • JUNG: El marco Java universal Red Graph es una biblioteca que proporciona un marco común para el análisis y visualización de datos que puede ser representado por un gráfico o de red. Es útil para el análisis de redes sociales, medidas de importancia, y la minería de datos. Está disponible como código abierto bajo la licencia BSD.

  • GeoTools: Un conjunto de herramientas geoespaciales de código abierto para la manipulación de datos GIS en muchas formas, el análisis de atributos espaciales y no espaciales o datos GIS, y la creación de gráficos y redes de los datos. Está disponible bajo la licencia GPL2, lo que permite la integración en aplicaciones semi-personalizados.

Artículos Relacionados