ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Econometria


Enviado por   •  10 de Noviembre de 2013  •  966 Palabras (4 Páginas)  •  251 Visitas

Página 1 de 4

Multicolinealidad

Saltar a: navegación, búsqueda

Commons-emblem-question book orange.svg

Este artículo o sección necesita referencias que aparezcan en una publicación acreditada, como revistas especializadas, monografías, prensa diaria o páginas de Internet fidedignas.

Puedes añadirlas así o avisar al autor principal del artículo en su página de discusión pegando: {{subst:Aviso referencias|Multicolinealidad}} ~~~~

El proceso o término de multicolinealidad en Econometría es una situación en la que se presenta una fuerte correlación entre variables explicativas del modelo. La correlación ha de ser fuerte, ya que siempre existirá correlación entre dos variables explicativas en un modelo, es decir, la no correlación de dos variables es un proceso idílico, que sólo se podría encontrar en condiciones de laboratorio.

Índice

1 Clases de colinealidad

1.1 Multicolinealidad exacta

1.2 Multicolinealidad aproximada

2 Colinealidad exacta, efectos y soluciones

3 Colinealidad aproximada, efectos y soluciones

4 Detección de la colinealidad

5 Solución de la colinealidad

Clases de colinealidad

Multicolinealidad exacta

Afirmamos que hay colinealidad exacta, cuando una o más variables, son una combinación lineal de otra, es decir, existe un coeficiente de determinación entre estas dos variables de 1. Esto provoca que la Matriz X'X tenga determinante 0, y sea singular (no invertible).

TAMBIEN PODEMOS AFIRMAR QUE EXISTE MULTICOLINEALIDAD EXACTA CUANDO LA AUTOCORRELACION ES MAYOR A 0.9

Multicolinealidad aproximada

Afirmamos que hay colinealidad aproximada, cuando una o más variables, no son exactamente una combinación lineal de la otra, pero existe un coeficiente de determinación entre estas variables muy cercano al uno y por lo tanto:

|X'X| \simeq 0

Colinealidad exacta, efectos y soluciones

Se da cuando el rango es menor al número de columnas: Rg(X)= r < k \

Ordenamos las variables explicativas del modelo de manera que:

X = [X_r|X_{s=k-r}] \longleftrightarrow Rg(X_r) = r \

Teniendo en cuenta que:

X_s = X_rM \longleftrightarrow X = X_r[I_r|M]= X_rZ \longleftrightarrow Z = [I_r|M]

Sustituimos en el Modelo:

X = X_rZ \rightarrow Y= X_rZ \beta + u \leftarrow Y = X \beta + u \

Y llamamos a Z \beta = \vartheta

y si reescribimos el modelo tenemos:

Y = X_r \vartheta + u

Cuando hay colinealidad exacta no podemos estimar los parámetros del modelo, lo que estimamos son combinaciones lineales de ellos que reciben el nombre de funciones estimables. Siendo en nuestro caso particular \vartheta nuestra función estimable.

Ejemplo de como operar con funciones estimables:

X = \begin{pmatrix} 1 & 4 & 8 \\ 1 & 2 & 4 \\ 1 & 5 & 10 \\1 & 7 & 14 \\ 1 & 9 & 18 \\ 1 & 12 & 24 \\ 1 & 13 & 26 \\ 1 & 1 & 2 \end{pmatrix}

Como se puede ver, la tercera columna es el doble de la segunda, de manera que la matriz X'X es singular y en consecuencia no podríamos obtener el estimador MCO.

De manera que en virtud de lo visto anteriormente tenemos:

X_r = \begin{pmatrix} 1 & 4 \\ 1 & 2 \\ 1 & 5 \\1 & 7 \\ 1 & 9 \\ 1 & 12 \\ 1 & 13 \\ 1 & 1\end{pmatrix} X_s = \begin{pmatrix} 8 \\ 4 \\ 10 \\ 14 \\ 18 \\ 24 \\26 \\2 \end{pmatrix}

...

Descargar como (para miembros actualizados)  txt (6 Kb)  
Leer 3 páginas más »
Disponible sólo en Clubensayos.com