Protegendo seus dados no hadoop
Video: Computação - Information Hiding POO (protegendo seus dados - JAVA)
Conteúdo
- Video: computação - information hiding poo (protegendo seus dados - java)
- Gestão de perímetro
- Controle de acesso
- Video: aprenda se proteger de ataques hackers no seu android
- Video: como proteger seu telefone de hackers e espiões
- Encryption
- Video: ransomware – o que são ? como se proteger ? o que fazer se estiver infectado ? | professorramos.com
Como Hadoop entra o mainstream TI e começa a ficar usado de forma decisiva em ambientes de produção, as mesmas preocupações de segurança que se aplicam a sistemas de TI, tais como bancos de dados será aplicável a Hadoop também. Em seus primeiros anos, o Hadoop foi famosamente não projetados com a segurança em mente, mas a adição de capacidades de segurança de força da empresa é uma parte importante da vinda de idade do Hadoop. É uma parte necessária também: Para muitas aplicações (como finanças), se você não pode fornecer garantias de segurança, você pode estar violando a lei.
Este artigo centra-se em três aspectos principais de segurança da informação - aspectos que se aplicam ao Hadoop como eles iriam a qualquer outro sistema de TI:
gestão de perímetro
Controle de acesso
Encryption
gestão de perímetro
O primeiro princípio em segurança de TI é controlar firmemente as fronteiras entre o sistema e o mundo exterior. Porque Hadoop é um sistema distribuído abrangendo vários computadores, este é em grande parte um problema de rede. Como uma plataforma de computação distribuída, um cluster Hadoop tem muitos computadores individuais, com cada computador ter um número de portas e serviços abertos.
Como você poderia esperar, este é um pesadelo de segurança, que a maioria dos administradores lidar com mantendo o cluster em uma rede isolada. O desafio vem quando os usuários precisam executar aplicativos contra si Hadoop. Considere a implantação de nós de borda, com a rede compartilhada, para atuar como gateways entre Hadoop eo mundo exterior. Esta estratégia apresenta desafios de segurança, no entanto. Para enfrentar este desafio, a equipe Hortonworks iniciou o desenvolvimento do projeto Apache Knox, que permite o acesso seguro aos serviços do cluster Hadoop.
Controle de acesso
Uma grande parte da discussão de segurança é controlar o acesso. Onde o controle de perímetro é de cerca de minimizar os pontos de acesso, controle de acesso é garantir que qualquer acesso que acontece é seguro.
Autenticação
Na linha de frente de controle de acesso é autenticação, que, em suma, é a validação que seus usuários são quem dizem que são. A comunidade open source colocou uma quantidade enorme de trabalho para esta área, permitindo que os vários componentes do ecossistema Apache Hadoop para trabalhar com Kerberos, o protocolo de autenticação de rede de computadores bem-visto. Como de primavera de 2014, ambas as versões 1 e Hadoop Hadoop 2 são totalmente Kerberos-activado. (Nem todos os departamento de TI usa Kerberos, mas outros protocolos, como o LDAP, foram aplicadas ao Hadoop por alguns fornecedores de distribuição do Hadoop em suas ofertas proprietárias.)
Autorização
Depois que seus serviços de autenticação ter validado a identidade de um usuário, a próxima questão é determinar quais informações e comportamentos este utilizador tem direito a - autorização, em outras palavras.
Video: Aprenda se proteger de ataques hackers no seu android
Atualmente, a autorização no Hadoop é bastante primitivo, e se restringe ao leitura POSIX-style, escrever e executar privilégios ao nível do sistema de arquivos. No entanto, os esforços significativos estão em andamento para definir classes de usuários (por exemplo, funções de usuário) ea Administração de listas de controle de acesso (ACLs).
O projeto Hive, por exemplo, em breve terá comandos GRANT / REVOKE para permitir que os administradores definam quais usuários podem acessar tabelas ou visões específicas. Para este fim, a equipe Cloudera tem liderado o projeto Apache Knox para gerir a definição de regras de usuários e seus privilégios para acessar dados em Impala e Hive.
Auditoria
A peça final do quebra-cabeça de controle de acesso é o acompanhamento de eventos de acesso a dados, o que é um requisito fundamental para uma série de normas regulamentares de gerenciamento de informações, como o Health Insurance Portability e Accountability Act (HIPAA) e do Cartão de Pagamento Industry Data Security Standard (PCI DSS). Hadoop faz um bom trabalho de armazenar informações de auditoria para registrar eventos de acesso a dados, portanto, um requisito fundamental já está em vigor. Para proteger e gerenciar esses dados de auditoria, ferramentas de terceiros estão disponíveis, como o Navigator da Cloudera ou IBM Guardium.
Video: Como Proteger seu Telefone de Hackers e Espiões
Encryption
Depois de garantir que as defesas do seu dados estão no lugar, gerindo o perímetro e que regulam o acesso, você pode fazer ainda mais no caso de uma violação acontece. A criptografia pode ser a última linha de defesa. Para dados em disco, trabalho ativo está ocorrendo na comunidade Hadoop para incorporar criptografia como uma opção para todos os dados armazenados no HDFS. distribuição da Intel tem um salto no início deste criptografia porque tem habilitado para dados no HDFS, aproveitando instruções de criptografia especializados em CPUs Intel usados em nós escravos Hadoop. Ferramentas de terceiros também estão disponíveis para criptografar os dados no HDFS.
Video: Ransomware – O que são ? Como se proteger ? O que fazer se estiver infectado ? | professorramos.com
Porque Hadoop é um sistema distribuído depender fortemente de comunicação em rede, a criptografia de dados como ele se move através da rede é uma parte crítica desta história. Back in Hadoop 1, o sistema (RPC) Hadoop Remote Procedure Call foi aprimorado para oferecer suporte a criptografia. Isso abrange a comunicação envolvida no processamento de dados, como MapReduce, mas para o movimento de dados e as interfaces web, o Hadoop também usa TCP / IP e HTTP. Ambos também foram garantidos: servidor HTTP do Hadoop agora suporta HTTPS, e as operações de transferência HDFS pode ser configurado para ser criptografados.