Visualizar con knime y rapidminer de aprendizaje automático

Video: Polinomial Rapid Miner

Los seres humanos tienen un tiempo terrible visualización de datos abstractos, y en ocasiones la producción de aprendizaje automático se vuelve extremadamente abstracto. Puede utilizar una herramienta de salida gráfica para que pueda visualizar cómo aparece realmente los datos. KNIME y RapidMiner sobresalir en la tarea, ayudando a producir fácilmente gráficos de alta calidad. Su uso para diversos tipos de tareas de minería de datos también distingue a estos dos productos de otros productos.

Video: Twitter Data Sentiment Analysis Using RapidMiner

La industria farmacéutica se basa en gran medida en KNIME para llevar a cabo ambas tareas de aprendizaje automático y minería de datos basándose en los flujos de datos (tuberías). El uso de una interfaz gráfica de usuario hace KNIME relativamente fácil de aprender.

De hecho, KNIME se basa en una de las interfaces gráficas de usuario más populares disponibles hoy en día, Eclipse, que también se usa para soportar un gran número de lenguajes de programación como Java, C / C ++, javascript y PHP (entre muchos otros disponibles a través de plug-ins). También se integra bien con Weka y LIBSVM, por lo que la facilidad de uso no viene por la pérdida de funcionalidad.

Video: Rapid Miner.avi

RapidMiner atiende más a las necesidades de las empresas, que lo utiliza para el aprendizaje automático, minería de datos, minería de texto, análisis predictivo, y las necesidades de análisis de negocios. En contraste con muchos otros productos, RapidMiner se basa en un modelo cliente / servidor, en el que el servidor aparece como opción una basada en la nube de software-as-a-Service (SAAS). Esto significa que una empresa puede probar el entorno sin hacer una gran inversión inicial en software o hardware. RapidMiner trabaja con ambos R y Python. Compañías como eBay, Intel, PepsiCo y Kraft Foods utilizan actualmente RapidMiner para diversas necesidades.

Una característica distintiva de estos dos productos es que se basan en la extracción, transformación, Modelo de carga (ETL). En este modelo, el proceso primero extrae todos los datos necesarios de diversas fuentes, transforma los datos en un formato común, y luego carga los datos transformados en una base de datos para su análisis. Puede encontrar una descripción sucinta del proceso aquí.

Artículos Relacionados