Alta multicolinealidad y su modelo econométrico

resultados de alta multicolinealidad de una relación lineal entre las variables independientes con un alto grado de correlación, pero no son completamente determinista (en otras palabras, que no tienen correlación perfecta). Es mucho más común de lo que su contraparte perfecta y puede ser igualmente problemático cuando se trata de estimar un modelo econométrico.

Video: Multicolinealidad Gujarati, VIF, Indice de condicion

Puede describir una relación lineal aproximada, lo que caracteriza a alta multicolinealidad, de la siguiente manera:

Video: eviews - deteccion de multicolinealidad.wmv

donde el xs son variables independientes en un modelo de regresión y u representa un término de error aleatorio (que es el componente que diferencia alta multicolinealidad de ser perfecta multicolinealidad). Por lo tanto, la diferencia entre perfecto y alta multicolinealidad es que alguna variación en la variable independiente no se explica por la variación en la otra variable (s) independiente.

Cuanto más fuerte es la relación entre las variables independientes, más probable es que tenga problemas de estimación con su modelo.

Video: ECONOMETRÍA EVIEWS - Problemas de Multicolinealidad

relaciones lineales fuertes que resulta en alta multicolinealidad veces se puede coger por sorpresa, pero estas tres situaciones tienden a ser particularmente problemático:

Utiliza variables que son valores de uno al otro retrasado. Por ejemplo, una variable independiente es el ingreso de un individuo en el año en curso, y otra variable independiente mide el ingreso de un individuo en el año anterior. Estos valores pueden ser completamente diferentes para algunas observaciones, pero para la mayoría de las observaciones que los dos están estrechamente relacionados.

  • Utiliza variables que comparten un componente de tendencia de tiempo común. Por ejemplo, se utilizan los valores anuales para el PIB (producto interno bruto) y el Dow Jones (Dow Jones) como variables independientes en un modelo de regresión. El valor para estas mediciones tiende a aumentar (con disminuciones ocasionales) y generalmente se mueven en la misma dirección con el tiempo.

  • Utiliza variables que capturan fenómenos similares. Por ejemplo, las variables independientes para explicar el crimen en las ciudades pueden ser las tasas de desempleo, los ingresos medios, y los índices de pobreza. Estas variables no son susceptibles de ser perfectamente correlacionados, pero probablemente están altamente correlacionados.

  • Técnicamente, la presencia de alta multicolinealidad no viola ninguna hipótesis CLRM. En consecuencia, las estimaciones de MCO se pueden obtener y son de color azul (mejores estimadores lineales insesgados) con alta multicolinealidad.

    Video: Laboratorio 6. Multicolinealidad

    Aunque estimadores MCO permanecen BLUE en presencia de alta multicolinealidad, se refuerza una deseable muestreo repetido propiedad. En la práctica, es probable que no tenga la oportunidad de utilizar múltiples muestras, por lo que desea cualquier muestra dada para producir resultados sensibles y fiables.

    Con alta multicolinealidad, la estimaciones MCO todavía tienen la varianza más pequeña, pero pequeñísimo es un concepto relativo y no asegura que las varianzas son realmente pequeñas. De hecho, las variaciones más grandes (y los errores estándar) de los estimadores MCO son la razón principal para evitar la multicolinealidad alta.

    Las consecuencias típicas de alta multicolinealidad incluyen los siguientes:

    • Grandes errores estándar e insignificante t-estadística: La varianza estimada de un coeficiente de regresión múltiple es una

      dónde

      es el error cuadrático medio (MSE) y

      es el valor R cuadrado de la regresión xk en el otro xs. multicolinealidad resultados más altos en una más grande

      lo que aumenta el error estándar del coeficiente. La figura ilustra el efecto de multicolinealidad en la varianza (o error estándar) de un coeficiente.

      Porque el t-estadística asociada con un coeficiente es la relación entre el coeficiente estimado para el error estándar

      alta multicolinealidad también tiende a resultar en insignificante t-estadística.

    • estimaciones de los coeficientes que son sensibles a los cambios en las especificaciones: Si las variables independientes son altamente alineados, las estimaciones deben hacer hincapié en las pequeñas diferencias en las variables con el fin de asignar un efecto independiente para cada uno de ellos. Adición o eliminación de las variables del modelo se puede cambiar la naturaleza de las pequeñas diferencias y cambiar drásticamente sus estimaciones de los coeficientes. En otras palabras, sus resultados no son robustos.

    • signos de los coeficientes sin sentido y magnitudes: Con mayor multicolinealidad, la varianza de los coeficientes estimados, que aumenta a su vez aumenta las posibilidades de obtener estimaciones de los coeficientes con valores extremos. En consecuencia, estas estimaciones pueden tener increíblemente grandes magnitudes y / o signos que contrarrestan la relación esperada entre las variables independientes y dependientes. La figura ilustra cómo la distribución de muestreo de los coeficientes estimados se ve afectada por la multicolinealidad.

    Cuando dos (o más) variables de exhiben alta multicolinealidad, hay más incertidumbre en cuanto a qué variable debe ser acreditado con explicar la variación en la variable dependiente. Por esta razón, un alto R-valor al cuadrado combinado con muchos coeficientes estadísticamente insignificantes es una consecuencia común de alta multicolinealidad.

    Artículos Relacionados