Hadapt y hadoop

A finales del año 2010, Hadapt se formó como una puesta en marcha por dos estudiantes de la Universidad de Yale y profesor asistente de ciencias de la computación. Profesor Daniel Abadi y Kamil Bajda-Pawlikowski, un estudiante de doctorado del departamento de informática de la Universidad de Yale, habían estado trabajando en el proyecto de investigación HadoopDB.

Después de este trabajo fue publicado, Justin Borgman, un estudiante de la Escuela de Administración de Yale, se interesó en el trabajo. Él se asociaría más tarde con el profesor Abadi y Kamil Bajda-Pawlikowski para formar Hadapt.

La estrategia Hadapt es unirse Apache Hadoop con una base de datos compartida-Nada MPP para crear una plataforma de análisis adaptativo. Este enfoque proporciona una interfaz de SQL estándar en Hadoop y permite la analítica a través de los datos no estructurados, semiestructuradas y estructuradas en el mismo clúster.

Como Apache Hive y otras tecnologías, Hadapt proporciona una interfaz familiar JDBC / ODBC para la presentación de trabajos de SQL o MapReduce al clúster. Hadapt proporciona un optimizador de consultas basado en el costo, que puede decidir entre una combinación de trabajos de MapReduce y puestos de trabajo de bases de datos MPP para cumplir una consulta o el trabajo puede ser manejado por la base de datos MPP para una respuesta rápida interactiva.

Al unirse a un clúster de Apache Hadoop con un clúster de base de datos MPP para crear un sistema híbrido, Hadapt resuelve el tiempo de respuesta de la consulta y el apoyo SQL parcial (a través de HiveQL) encontrado en Apache colmena.

Artículos Relacionados