CAPITULO 5 MULTICOLINEALIDAD
wellshinostroza24 de Junio de 2015
2.380 Palabras (10 Páginas)371 Visitas
CAPITULO 5
MULTICOLINEALIDAD
5.1 NATURALEZA DEL PROBLEMA
La multicolinealidad implica la existencia de una relación lineal exacta entre algunas y/o la totalidad de las variables explicativas. Esta última es la denominada multicolinealidad perfecta.
Asumiendo el siguiente modelo:
[5.1]
Donde:
Estrictamente, multicolinealidad perfecta implica que:
[5.2]
El caso más sencillo de multicolinealidad es aquel en la que dos de las variables explicativas están perfectamente correlacionadas. Es decir, se tiene por ejemplo que:
[5.3]
La multicolinealidad, es un problema, por que tiene implicancias negativas en la estimación de los parámetros de un determinado modelo. Esto quiere decir que si existe Multicolinealidad perfecta la estimación de los parámetros correspondientes no será posible. Por ejemplo, dado el siguiente modelo:
[5.4]
Si se cumple que,
[5.5]
Reemplazando [5.5] en [5.4] se tiene,
[5.6]
En la anterior relación, sólo es estimable. Es decir, no es posible separar la influencia lineal de las variables exógenas sobre la variable endógena, de modo que es imposible estimar los parámetros separados de y .
Efectivamente, es posible mostrar que existen problemas de estimación utilizando las fórmulas convencionales de estimación de los parámetros de la relación [5.4]. Según el modelo lineal general se tiene:
[5.7]
Utilizando [5.5]
Reemplazando en [5.7]
[5.8]
Obsérvese que
Por tanto, no es posible calcular y simultáneamente ya que existe dentro de las ecuaciones normales una redundante. Es decir, existe una ecuación normal que se deduce de la otra ecuación normal. De la relación [5.8] se tiene:
Nótese que la primera ecuación se deduce de la primera ecuación multiplicándolo por . Así sólo tenemos una ecuación normal linealmente independiente y dos parámetros por estimar lo cual matemáticamente resulta imposible.
En la práctica, sin embargo, el problema de multicolinealidad se presenta en todos los grados. Normalmente, lo que encontramos es multicolinealidad menos perfecta. Es decir, existe alguna relación lineal no exacta entre las variables exógenas de la forma siguiente:
En este caso la estimación correspondiente de los parámetros si es posible. Aún cuando esta estimación sea posible la implicancia de la multicolinealidad es fundamentalmente que los parámetros estimados tendrán varianzas grandes. Por ejemplo, para el modelo dado por [6.4] su varianza es:
En estas fórmulas dadas, si existe una relación lineal entre las variables exógenas de forma que es cercano a uno es fácil percibir que las varianzas de los coeficientes de regresión serán grandes.
5.2 CONSECUENCIAS
Por un lado, en presencia de multiocolinealidad aun cuando los coeficientes de regresión tienen varianzas grandes es necesario destacar que no se viola las propiedades estadísticas deseables de los estimadores obtenidos mediante el método de mínimos cuadrados ordinarios.
Por otro lado, es posible teóricamente mantener el criterio de que en un modelo poblacional, las variables explicativas no se encuentran linealmente relacionadas y posteriormente encontrar para una muestra determinada, que si lo están. Por tanto, la multicolinealidad se reduciría fundamentalmente a un problema muestral.
De modo que frente a un problema de multicolinealidad en la práctica nos enfrentamos a las siguientes consecuencias:
a) Variancias y covariancias grandes para los estimadores mínimos cuadráticos.
b) Intervalos de confianza sustancialmente amplias
c) "t" de student no significativas.
d) Valor elevado de R2 con "t" de student no significativas.
e) Alto grado de sensibilidad de los estimadores mínimo cuadráticos y sus errores estándar ante cambios pequeños en los datos.
5.3 DETECCION
En general, es complicado identificar el grado de multicolinealidad, en especial en aquellos modelos en el que están involucrados más de dos variables exógenas. Por ello es que solo se cuenta con algunas reglas generales que implican un síntoma de multicolinealidad, como las siguientes:
a) Un R2 alto pero pocas "t" de student significativas.
b) Altas correlaciones de orden cero entre las variables exógenas.
c) Coeficientes de determinación múltiple elevados y coeficientes de correlación parcial bajos.
d) Determinante de la matriz de correlación de las variables exógenas aproximadamente igual a cero.
e) Alta sensibilidad de los coeficientes parciales de regresión y de sus errores estándar frente a algunos cambios no sustanciales en los valores numéricos de alguna variable exógena.
En algunos casos, conviene realizar regresiones auxiliares entre las variables exógenas. Así podemos calcular el coeficiente de determinación, , y realizar una prueba de hipótesis de significancia global. Por ejemplo, si estamos frente a un modelo de 4 variables exógenas ( , , y ) debemos adoptar el siguiente procedimiento:
Efectuar la regresión
Calcular el coeficiente de regresión múltiple:
Determinar el estadístico
El cual posee distribución con k-2 y N-k+1 grados de libertad.
Realizar la prueba de hipótesis:
Si (de tablas) excede al a un nivel de significancia escogido, se dice que es colineal con , y
Si (de tablas) no excede al a un nivel de significancia escogido, se dice que no es colineal con , y . En este caso debemos retener la variable en el modelo especificado.
f) Existen otras reglas generales más sofisticadas, como por ejemplo, el de valores característicos e índice de condición, que aparentemente es el mejor instrumento de diágnóstico del problema de multicolinealidad.
5.4 MEDIDAS REMEDIALES
Puesto que el problema de multicolinealidad es un problema esencialmente muestral no existe guías infalibles para remediarlas así como para detectarlas. Sin embargo, general se pueden adoptar las siguientes medidas remediales:
a) Utilizar información a priori.
b) Combinación de series de corte transversal y de series de tiempo.
c) Eliminación de algunas variables.
d) Transformación de variables.
e) Añadir datos nuevos o adicionales.
f) Utilizar la técnica de polinomios ortogonales.
g) Utilizar la técnica de análisis factorial y la de componentes principales.
CONCLUSION
En presencia de multicolinealidad, siendo el alto, si el objetivo no es obtener la estimación confiable de los parámetros, sino la predicción, entonces este problema no es necesariamente mala.
Siendo el problema el problema de multicolinealidad un problema de grado no es inmediatamente detectable de forma numérica.
Para detectar el problema de multicolinealidad no existen métodos seguros solamente algunas reglas generales. Por ello en algunos casos mediante un método determinado es posible que se muestren que existe multicolinealidad y en otros no.
La multicolinealidad menos que perfecta es un problema de datos defectuosos. En general, en economía generar un conjunto de datos adicionales es complicado por ello su solución suele apuntar con más frecuencia a obtener más datos enfrentando el problema de multicolinealidad como un problema de número de observaciones reducidas.
ANEXO E
NOCIONES BASICAS DE EVIEWS 3.1
MULTICOLINEALIDAD
5.1 PRUEBA DE MULTICOLINEALIDAD IMPERFECTA
a) Síntomas clásicos del problema
Estando en el Workfile
Seleccionar la variable endógena seguida de las exógenas presionando la tecla ctrl.
Seleccionar Open/as Equation
En la ventana activa (Equation Specification) pulsar OK.
Asignarle un nombre al objeto ecuación: EQ01
Análisis de los resultados:
El coeficiente de determinación es relativamente alto
Con base a la prueba “t”, existen tres coeficientes de regresión parcial estadísticamente no significativos al nivel de significancia del 5%.
Con base en la prueba “F”, se rechaza la hipótesis de que todos los parámetros de regresión parcial simultáneamente son iguales a cero.
Existen indicios o señales
...