ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Heterocedasticidad Autocorrelación


Enviado por   •  21 de Septiembre de 2018  •  Apuntes  •  1.998 Palabras (8 Páginas)  •  216 Visitas

Página 1 de 8

Tema 5: Heterocedasticidad

Tema 6: Autocorrelación

[pic 1]

  • Introducción.
  • Revisión de las propiedades del estimador MCO.
  • Implicaciones en la inferencia. Alternativas robustas.
  • Detección: gráficos de residuos y contrastes.
  • Heterocedasticidad:        contraste de White.
  • Autocorrelación: contraste de Durbin-Watson.
  • Ejemplos.


[pic 2][pic 3][pic 4][pic 5][pic 6]

Introducción:        [pic 7]

Hipótesis básicas sobre el término de perturbación: condicionando en X

[pic 8]         Media condicionada igual a cero. [pic 9]         Homocedasticidad = varianza constante [pic 10]     No autocorrelación[pic 11]

Matricialmente para el vector de perturbaciones:[pic 12][pic 13]


[pic 14]

Introducción:[pic 15]

Si relajamos la hipótesis básica de varianza constante:

[pic 16]                    Heterocedasticidad = varianza cambia con t Si relajamos la hipótesis básica de no autocorrelación:

[pic 17]              Autocorrelación

Matricialmente para el vector de perturbaciones en general:

[pic 18]


[pic 19]

Introducción:[pic 20]

  • En el caso de que solamente haya heterocedasticidad la matriz será diagonal:

[pic 21]

  • En el caso de que haya autocorrelación entonces la matriz no será diagonal ya que tendrá elementos fuera de la diagonal distintas de cero que serán las covarianzas entre perturbaciones.


[pic 22]

Homocedasticidad vs Heterocedasticidad[pic 23]

[pic 24]

La dispersión de las posibles realizaciones de la variable dependiente, esto es su varianza, en un caso se mantiene constante a medida que la variable X aumenta, en cambio en el otro gráfico aumenta a su vez.


[pic 25]

Homocedasticidad vs Heterocedasticidad[pic 26][pic 27]

En el caso 2 la varianza del término de error crece a medida que la variable X aumenta. Mayor dispersión de las realizaciones de los errores a mayor valor de X.


[pic 28][pic 29]

Ejemplo de autocorrelación positiva[pic 30][pic 31]

Agrupación de realizaciones del mismo signo seguidas.[pic 32]


[pic 33]

Ejemplo de autocorrelación negativa[pic 34]

[pic 35][pic 36][pic 37]

Realizaciones consecutivas que alternan el signo.


[pic 38]

Un posible modelo para la autocorrelación[pic 39][pic 40]

[pic 41]

La autocorrelación o correlación en el tiempo entre perturbaciones depende del parámetro .[pic 42]

Autocorrelación de orden uno positiva. En este caso la correlación entre perturbaciones es siempre positiva y disminuye a medida que se distancian en el tiempo.[pic 43]

[pic 44]                          Autocorrelación de orden uno negativa. En este caso la correlación entre perturbaciones separadas “s” periodos pasa de ser positiva cuando “s” es par a negativa cuando “s” es impar y también disminuye a medida que se distancian en el tiempo.


[pic 45]

Propiedades del estimador MCO.[pic 46]

[pic 47]

  • Condicionando a X sigue siendo un estimador lineal ya que es una función en las variables aleatorias Y o u.
  • Sigue siendo insesgado si E (u \ X)=0.

[pic 48]

  • Pero ya NO ES EFICIENTE dentro de la clase de estimadores lineales e insesgados. Existen otros dentro de esa clase con menor varianza (MCG).


[pic 49]

Propiedades del estimador MCO.[pic 50]

  • La expresión de su matriz de varianzas y covarianzas cambia. Ahora tenemos la siguiente expresión:

[pic 51]

  • Por lo tanto el estimador usual de esta matriz de varianzas y covarianzas

[pic 52]

NO ES ADECUADO. Estará sesgado.


[pic 53]

Consecuencias para la inferencia[pic 54]

  • La inferencia o contrastes de hipótesis sobre los coeficientes utilizando los estadísticos t y F derivados bajo el supuesto de homocedasticidad y no autocorrelación no son adecuados.
  • Si se quiere realizar inferencia válida utilizando por ejemplo el estadístico t basado en el estimador MCO de los coeficientes se tiene que utilizar un estimador de su matriz de varianzas y covarianzas robusto a la existencia de heterocedasticidad o autocorrelación. Veremos en gretl como obtenerlo.
  • En ese caso, el estadístico t basado en las desviaciones típicas robustas tiene una distribución bajo la hipótesis nula que se puede aproximar a una N(0,1) para muestras grandes. Por lo tanto, si el tamaño muestral es razonable, la decisión del contraste utilizando el valor muestral del estadístico y compararlo con el valor crítico en esa distribución será adecuado.

[pic 55]

Detección de heterocedasticidad: Contraste de White[pic 56][pic 57][pic 58][pic 59][pic 60]


[pic 61][pic 62][pic 63]

Detección de heterocedasticidad: Contraste de White[pic 64][pic 65][pic 66]

...

Descargar como (para miembros actualizados)  txt (10 Kb)   pdf (1 Mb)   docx (1 Mb)  
Leer 7 páginas más »
Disponible sólo en Clubensayos.com