Hadapt e hadoop

Video: Apache Hadoop & Big Data 101: The Basics

No final do ano 2010, Hadapt foi formada como uma start-up por dois estudantes da Universidade de Yale e professor assistente de ciência da computação. Professor Daniel Abadi e Kamil Bajda-Pawlikowski, um estudante de PhD do departamento de ciência da computação da Universidade de Yale, tinha estado a trabalhar no projecto de investigação HadoopDB.

Video: What Is Big Data | What Is Hadoop | Big Data Tutorial For Beginners

Após este artigo foi publicado, Justin Borgman, um estudante da Escola de Administração de Yale, tornou-se interessado no trabalho. Ele viria a juntar-se com o professor Abadi e Kamil Bajda-Pawlikowski para formar Hadapt.



A estratégia Hadapt é juntar Apache Hadoop com um banco de dados compartilhado nada MPP para criar uma plataforma analítica adaptável. Esta abordagem fornece uma interface SQL standard em Hadoop e permite a análise de toda a dados não estruturados, semi-estruturada, e estruturados no mesmo aglomerado.

Video: Hadoop Architecture Tutorial | Hadoop Tutorial For Beginners

Como o Apache Hive e outras tecnologias, Hadapt fornece uma interface / ODBC familiarizado JDBC para a apresentação de trabalhos de SQL ou MapReduce ao cluster. Hadapt fornece um otimizador de consulta baseado em custo, que pode decidir entre uma combinação de trabalhos de MapReduce e trabalhos de banco de dados MPP para cumprir uma consulta, ou o trabalho pode ser tratado pelo banco de dados MPP para resposta interativa rápido.

Ao aderir a um cluster Apache Hadoop com um conjunto base de dados MPP para criar um sistema híbrido, Hadapt resolve o tempo de resposta de consulta e suporte SQL parcial (via HiveQL) encontrado em Apache colmeia.


Publicações relacionadas