Alta multicolinearidade e seu modelo econométrico

Resultados elevados multicolinearidade de uma relação linear entre as variáveis ​​independentes com um alto grau de correlação, mas não são completamente determinista (em outras palavras, eles não têm correlação perfeita). É muito mais comum do que sua contraparte perfeita e pode ser igualmente problemático quando se trata de estimar um modelo econométrico.

Video: Econometría - Modelos mixtos de variables ficticias - Mercedes Carmona

Você pode descrever uma relação linear aproximada, o que caracteriza alta multicolinearidade, como segue:

Video: UTPL MODELOS DE REGRESIÓN CON VARIABLES DICOTÓMICAS [(ECONOMÍA)(ECONOMETRÍA II)]

onde o Xs são variáveis ​​independentes em um modelo de regressão e você representa um termo de erro aleatório (que é o componente que diferencia alta multicolinearidade de ser perfeita multicolinearidade). Portanto, a diferença entre multicollinearity perfeito e alta é que alguma variação na variável independente não é explicada pela variação na outra variável independente (s).

Quanto mais forte a relação entre as variáveis ​​independentes, o mais provável você está a ter problemas de estimação com seu modelo.

relações lineares fortes, resultando em alta multicolinearidade, por vezes, pode pegar você de surpresa, mas estas três situações tendem a ser particularmente problemático:

Você usa variáveis ​​que são valores de um outro defasados. Por exemplo, uma variável independente é a renda de um indivíduo no ano em curso, e outra variável independente mede o rendimento de um indivíduo no ano anterior. Estes valores podem ser completamente diferente para algumas observações, mas para a maioria das observações as duas estão estreitamente relacionadas.

Video: Medición de la volatilidad en series de tiempo financieras: Modelos ARCH y GARCH

  • Você usa variáveis ​​que compartilham um componente de tendência de tempo comum. Por exemplo, você usar valores anuais para o PIB (Produto Interno Bruto) eo DJIA (Dow Jones Industrial Average) como variáveis ​​independentes em um modelo de regressão. O valor para estas medições tende a aumentar (a diminuições ocasionais) e geralmente se movem na mesma direcção ao longo do tempo.

  • Você usa variáveis ​​que captam fenômenos semelhantes. Por exemplo, as variáveis ​​independentes para explicar o crime nas cidades pode ser taxas de desemprego, renda média, e as taxas de pobreza. Estas variáveis ​​não são susceptíveis de ser perfeitamente correlacionados, mas provavelmente eles estão altamente correlacionados.

  • Tecnicamente, a presença de alta multicolinearidade não viola quaisquer suposições CLRM. Consequentemente, as estimativas de MQO podem ser obtidas e são azul (melhores estimadores imparciais lineares) com alta multicolinearidade.

    Embora OLS estimadores permanecer azul na presença de alta multicollinearity, reforça uma desejável amostragem repetida propriedade. Na prática, você provavelmente não tem uma oportunidade de utilizar várias amostras, assim que você quer qualquer amostra dada para produzir resultados sensíveis e confiáveis.

    Com alta multicolinearidade, o OLS ainda estimativas têm a menor variância, mas menor é um conceito relativo e não assegura que as variâncias são realmente pequena. Na verdade, os desvios maiores (e erros-padrão) dos estimadores OLS são a principal razão para evitar a alta multicollinearity.

    As conseqüências típicas de alta multicolinearidade incluem o seguinte:

    • Maiores erros padrão e insignificante t-Estatisticas: A variância estimada de um coeficiente de regressão múltipla é



      Onde

      é o erro quadrado médio (MSE) e

      é o valor ao quadrado-R a partir da regressão Xk no outro Xs. Maiores resultados multicolinearidade em uma maior

      o que aumenta o erro padrão do coeficiente. A figura ilustra o efeito de multicollinearity na variância (ou o erro padrão) de um coeficiente.

      Porque o t-estatística associada com um coeficiente é a relação entre o coeficiente estimado para o erro padrão

      alta multicollinearity também tende a resultar em insignificante t-Estatisticas.

    • estimativas dos coeficientes que são sensíveis a mudanças nas especificações: Se as variáveis ​​independentes são altamente colineares, as estimativas devem enfatizar pequenas diferenças nas variáveis, a fim de atribuir um efeito independente para cada um deles. Adicionando ou removendo as variáveis ​​do modelo pode mudar a natureza das pequenas diferenças e alterar drasticamente suas estimativas dos coeficientes. Em outras palavras, os seus resultados não são robustos.

    • sinais de coeficientes sem sentido e magnitudes: Com maior multicolinearidade, a variação dos coeficientes estimados aumenta, o que por sua vez aumenta as chances de obtenção de estimativas dos coeficientes com valores extremos. Consequentemente, essas estimativas podem ter incrivelmente grandes magnitudes e / ou sinais que contrariam a relação esperada entre as variáveis ​​independentes e dependentes. A figura ilustra como a distribuição de amostragem dos coeficientes estimados é afectada por multicollinearity.

    Quando dois (ou mais) variáveis ​​exibem elevada multicollinearity, há mais incerteza quanto ao qual variável deve ser creditado com explicar a variação na variável dependente. Por esta razão, um alto R-valor ao quadrado combinado com diversos coeficientes estatisticamente insignificantes é uma consequência comum de alta multicollinearity.


    Publicações relacionadas