ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

TEMA 3 El modelo clásico de regresión lineal: inferencia y predicción

Romina Gavancho ValderramaDocumentos de Investigación6 de Octubre de 2016

10.172 Palabras (41 Páginas)412 Visitas

Página 1 de 41

TEMA 3

El modelo clásico de regresión lineal: inferencia y predicción

3.1. Normalidad en las perturbaciones. Contraste de Jarque-Bera.-

Consideremos el modelo clásico de regresión lineal, en su expresión matricial: Y X u . Como ya sabemos, la perturbación u es un vector aleatorio que sigue una

distribución de probabilidad normal: u        Nn ( ;        u 2   I ) .

Precisamente la normalidad de u es uno de los supuestos básicos del modelo clásico de regresión. A partir del mismo, hemos visto que tanto Y como el vector de coeficientes

de regresión estimados        ˆ siguen también distribuciones de probabilidad normales. Y

sobre esta premisa veremos que se basa todo nuestro análisis inferencial del modelo.

Así pues, resulta esencial comprobar que u se comporta efectivamente siguiendo una distribución normal de probabilidad, pues de ello dependerá la validez de todas las conclusiones que podamos extraer sobre los aspectos inferenciales del modelo.

Para llevar a cabo el estudio de la normalidad de u, se utiliza un contraste estadístico: el contraste de Jarque-Bera.

Como en todo contraste de hipótesis, debemos establecer una hipótesis nula y, frente a ella, una hipótesis alternativa. En particular, en este contraste, éstas son:

H 0 : u        Normal

[pic 1][pic 2][pic 3][pic 4]

H1 : u        No normal

Una vez definidas las hipótesis nula y alternativa, en un contraste es preciso también establecer un estadístico de prueba, que tendrá carácter aleatorio (tomando diferentes valores según la muestra que se considere) y seguirá una determinada distribución de probabilidad. En este caso, el estadístico de Jarque-Bera sigue una distribución chi-cuadrado con 2 grados de libertad, siendo su expresión:

2

2

3 2

2

n

1

2

,

JB

6

24

2

donde n hace referencia al tamaño muestral,

1

3 /  3

es el coeficiente de asimetría

de la distribución y        2        4 /        4        es su coeficiente de curtosis.

En una distribución normal, tendríamos que 1 0 (al ser simétrica) y 2 3, con lo que si la perturbación aleatoria cumpliese la hipótesis nula de normalidad, el estadístico


JB2 valdría 0 (ó un valor muy próximo a 0); es decir, si la perturbación es normal, tendrá asociado un valor pequeño del estadístico JB2 . Por tanto:

H 0 :u   Normal

(  JB2

0)

H1 : u   No normal

(  JB2

0)

En este punto debemos de hacer una observación importante. Nuestra variable objeto de estudio es la perturbación aleatoria; sin embargo, ésta resulta inobservable, por lo que no podremos analizarla directamente. Por ello, a la hora de estudiar u, tendremos que recurrir a una estimación de la misma: al residuo o error muestral. Recordemos que ei uˆi . Así pues, “a la hora de la verdad” nosotros estudiaremos la normalidad de los

residuos, en tanto que éstos constituyen una estimación muestral de las perturbaciones.

Si denotamos por   JB2

exp   el valor que toma el estadístico   JB2

para la serie de los

residuos de la muestra que estamos considerando; y por   22,1

el valor teórico del

mismo para un nivel de significación   , entonces tendremos que:

        Si JB2 exp 22,1 nos situaríamos en la región de aceptación (RA) y, por tanto, no habría evidencias para rechazar la hipótesis de normalidad de las perturbaciones; esto es, asumiríamos que éstas siguen una distribución normal.

[pic 5][pic 6][pic 7][pic 8]

Si JB2 exp 22,1 nos encontraríamos en la región crítica (RC) y rechazaríamos la hipótesis nula de normalidad de las perturbaciones.

Gráficamente puede verse esto en la Figura 1.

[pic 9]

JB2 exp

RA

RC

1

22,1

Figura 1


3.2. Intervalos de confianza.-

Intervalo de confianza para los coeficientes de regresión (        j )

Una vez obtenida, mediante MCO, la estimación del vector de parámetros del modelo

de regresión        ˆ , y para valorar si ésta resulta ser una “aproximación” adecuada de los

parámetros poblacionales , podríamos en primera instancia atender a las propiedades que posee este estimador calculado por el citado método: es ELIO (esto es, resulta ser lineal, insesgado y de mínima varianza, como ya se ha estudiado).

Una forma adicional de valorar la precisión de la estimación consiste en establecer un intervalo de confianza: un intervalo de valores dentro del cual consideramos que se encuentran los parámetros poblacionales con un determinado nivel de confianza1.

ˆ

Recordemos que el vector de estimadores

es un vector aleatorio que sigue una

ˆ

2

X ' X

1

.

distribución normal multivariante. En particular:

Nk    ;  u

De este modo, la distribución de cada uno de los coeficientes de regresión estimados

ˆ

,

ˆ

ˆ

que conforma este vector (  j

j  1,2,..., k ) es:   j      N  j ;Var(  j ) .

ˆ

ˆ

Var(  j ) es un elemento de la matriz de varianzas-covarianzas de   ; en concreto, de su

diagonal principal:

ˆ

ˆ

ˆ

ˆ

ˆ

ˆ

ˆ

Var( 1 )

Cov( 1 ,  2 )

Cov( 1

,  3 )

Cov( 1

,  k

)

ˆ

ˆ

ˆ

ˆ

ˆ

)

Var(  2 )

Cov(  2

,  3 )

Cov(  2

,  k

ˆ

2

1

( X ' X )

Var  Cov (  )    u

ˆ

Var(  j )

ˆ

Var(  k )

a11

a12

a13

a1k

a22

a23

a2k

2

.

u

a jj

akk

1

ˆ

es el

Podemos recordar brevemente el concepto de intervalo de confianza: supongamos que

estimador  puntual

de

.  Nuestro

objetivo  será  determinar

qué

valores

conforman

el

intervalo

ˆ

ˆ

,, de tal forma que la probabilidad de que contenga a   sea 1(nivel de confianza).

Si nos fijamos, la estimación es el centro o pivote del intervalo y es un número positivo, es el radio de dicho intervalo, que sumado y restado al valor central configura finalmente la amplitud del intervalo. El valor de va a depender del nivel de confianza.

...

Descargar como (para miembros actualizados) txt (71 Kb) pdf (2 Mb) docx (2 Mb)
Leer 40 páginas más »
Disponible sólo en Clubensayos.com