Dimensionamento o cluster do hadoop

Video: Hadoop BigData Cluster Architecture

Dimensionamento qualquer sistema de processamento de dados é tanto uma ciência como é uma arte. Com Hadoop, você considera a mesma informação que você faria com um banco de dados relacional, por exemplo. Mais significativamente, você precisa saber a quantidade de dados que você tem, estimar as suas taxas de crescimento esperadas, e estabelecer uma política de retenção (por quanto tempo manter os dados).

Video: Hadoop Training 1 : Introduction to BigData, Hadoop, HDFS, MAPReduce HadoopExam.com

As respostas a essas perguntas servem como ponto de partida, que é independente de quaisquer exigências relacionadas com a tecnologia.

Depois de determinar a quantidade de dados que você precisa para armazenar, você pode começar a factoring em considerações específicas do Hadoop. Suponha que você tem uma empresa de telecomunicações e que você estabeleceu que você precisa de 750 terabytes (TB) de espaço de armazenamento para o seu apelo Detail Record (CDR) arquivos de log.

Você mantém esses registros para obedecer a regulamentos governamentais, mas também é possível analisá-los para ver padrões de churn e saúde da rede monitor, por exemplo. Para determinar a quantidade de espaço de armazenamento que você precisa e, como resultado, quantos racks e nós escravos que você precisa, você realizar seus cálculos com esses fatores em mente:

  • Replicação: O factor de replicação padrão para dados em HDFS é 3. Os 500 terabytes de dados CDR para a empresa de telecomunicações, no exemplo, em seguida, transforma-se em 1500 terabytes.

  • O espaço de troca: Qualquer análise ou processamento dos dados por MapReduce precisa de um 25 por cento adicional de espaço para armazenar todos os conjuntos de resultados intercalares e finais. (A empresa de telecomunicações agora precisa 1875 terabytes de espaço de armazenamento.)

  • Compressão: A empresa de telecomunicações armazena as CDRs em uma forma comprimida, onde se espera que a taxa de compressão média ser de 3: 1. agora você precisa de 625 terabytes.



  • Número de nós escravos: Partindo do princípio de que cada nó escravo tem doze unidades de 3 TB dedicados a HDFS, cada nó escravo tem 36 terabytes de armazenamento HDFS em bruto disponíveis, de modo que a empresa tem 18 nós escravo.

  • Número de racks: Como cada nó escravo usa 2RU ea empresa no exemplo precisa de três nós mestre (1RU cada) e dois interruptores ToR (1RU cada), você precisa de um total de 41RU. É 1RU menos do que a capacidade total de um rack padrão, de modo que uma única cremalheira é suficiente para esta implantação.

    Independentemente disso, há espaço para o crescimento permanece neste agrupamento, então é prudente que comprar uma segunda cremalheira (e dois interruptores adicionais ToR) e dividir os nós escravo entre as duas cremalheiras.

  • Testing: A manutenção de um conjunto de teste que é uma representação menor escala do cluster de produção é uma prática padrão. Ele não tem que ser enorme, mas você quer pelo menos cinco nós de dados para que você obtenha uma representação exata do comportamento do Hadoop. Tal como acontece com qualquer ambiente de teste, deve ser isolado de uma rede diferente do cluster de produção.

  • Backup e recuperação de desastres: Como qualquer sistema de produção, a empresa de telecomunicações também terá de considerar requisitos de backup e recuperação de desastres. Esta empresa poderia ir tão longe a ponto de criar um cluster de espelho para garantir que eles tenham um modo de espera quente para todo o seu sistema. Esta é, obviamente, a opção mais cara, mas é adequado para ambientes onde o tempo de atividade constante é crítica.

    No final menos caro do espectro (além de não fazer backup dos dados em todos), a empresa de telecomunicações poderia regularmente backup de todos os dados (incluindo os dados em si, aplicações, arquivos de configuração e metadados) a ser armazenado em seu cluster de produção para a fita. Com a fita, os dados não é imediatamente acessível, mas vai permitir um esforço de recuperação de desastres no caso em que todo o cluster Hadoop produção falhar.

Video: Performance Tuning - Hadoop Map Reduce

Tal como acontece com o seu próprio computador pessoal, quando a unidade de disco rígido principal enche de espaço, o sistema diminui consideravelmente. Hadoop não é excepção. Além disso, um disco rígido tem melhor desempenho quando é inferior a 85 a 90 por cento completo. Com esta informação em mente, se o desempenho for importante para você, você deve bater o fator de swap de espaço 25-33 por cento.


Publicações relacionadas