ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Duelos De Titanes


Enviado por   •  29 de Marzo de 2015  •  2.790 Palabras (12 Páginas)  •  240 Visitas

Página 1 de 12

El modelo de regresión lineal simple.

6.3.1 Formulación matemática del modelo.

El modelo de regresión más sencillo es el Modelo de Regresión Lineal Simple que estudia la relación lineal entre la variable respuesta (Y ) y la variable regresora (X), a partir de una muestra {(xi,Yi)}i = 1n, que sigue el siguiente modelo:

Y = a + a x + e i = 1,2,...,n.

i 0 1 i i

(6.1)

Por tanto, es un modelo de regresión paramétrico de diseño fijo. En forma matricial

Y = a01+ a1X +e,

(6.2)

donde Yt = (y1,...

,yn), 1t = (1,...,1), Xt = (x1,...,xn), e t = (e1,...,en).

Se supone que se verifican las siguientes hipótesis:

La función de regresión es lineal,

m

(xi) = E (Y /xi) = a0 + a1xi, i = 1,...,n,

o, equivalentemente, E(ei) = 0, i = 1,...,n.

La varianza es constante (homocedasticidad),

2 V ar(Y /xi) = s , i =

1,...,n,

o, equivalentemente, V ar(ei) = s2, i = 1,...,n.

La distribución es normal,

( 2) Y/xi ~ N a0 +

a1xi,s , i = 1,...,n,

o, equivalentemente, ei ~ N( 2)

0,s, i = 1,...,n.

Las observaciones Y i son independientes. Bajo las hipótesis de normalidad, esto equivale a que la Cov(Y i,Y j) = 0, si i/=j.

Esta hipótesis en función de los errores sería “los ei son independientes”, que bajo normalidad, equivale a que Cov(ei;ej) = 0, si i/=j.

6.3.2 Estimación de los parámetros del modelo.

En el modelo de regresión lineal simple hay tres parámetros que se deben estimar: los coeficientes de la recta de regresión, a0 y a1; y la varianza de la distribución normal, s2.

El cálculo de estimadores para estos parámetros puede hacerse por diferentes métodos, siendo los más utilizados el método de máxima verosimilitud y el método de mínimos cuadrados.

Método de máxima verosimilitud.

Conocida una muestra de tamaño n, {(xi,yi) : i = 1,...,n}, de la hipótesis de normalidad se sigue que la densidad condicionada en yi es

( 2) f (yi/xi)

= V~ -1-exp - 1(yi--(a0-+2-a1xi))- , i = 1,...,n,

2ps2 2 s

y, por tanto, la función de densidad conjunta de la muestra es,

( ) n n (

) f Y/a a ,s2 = prod f (y /x ) = prod V~ -1-exp - -1-(y - a

- a x )2 .

0, 1 i=1 i i i=1 2ps2 2s2 i 0 1 i

Una vez tomada la muestra y, por tanto, que se conocen los valores de {(xi,yi)}i = 1n, se define la función de verosimilitud asociada a la muestra como sigue

( 2) n prod --1--- (

-1- 2) l a0,a1,s = V~ 2ps2-exp -2s2 (yi -a0 -

a1xi) ,

i=1

(6.3)

esta función (con variables a0, a1 y s2) mide la verosimilitud de los posibles valores de estas variables en base a la muestra recogida.

El método de máxima verosimilitud se basa en calcular los valores de a0, a1 y s2 que maximizan la función (9.3) y, por tanto, hacen máxima la probabilidad de ocurrencia de la muestra obtenida. Por ser la función de verosimilitud una función creciente, el problema es más sencillo si se toman logaritmos y se maximiza la función resultante, denominada función soporte,

( ) ( )

L a0,a1,s2 = ln l a0,a1,s2 =

( ) n

- n-ln (2p) - n-ln s2 - -1- sum (y - (a + a x ))2. (1.4)

2 2 2s2i=1 i 0 1 i

Maximizando la anterior se obtienen los siguientes estimadores máximo verosímiles,

a^0,MV = y - ^a1,MV x

a^ = sXY--

1,MV s2x

2 1- sum n 2 s^MV = n (yi-

(a^0,MV + ^a1,MV xi))

i=1

donde se ha denotado x e y a las medias muestrales de X e Y, respectivamente; sx2 es la varianza muestral de X y sXY es la covarianza muestral entre X e Y. Estos valores se calculan de la siguiente forma:

sum n sum n

x = 1- xi, y = 1- yi,

n i=1 n i=1

1 sum n ( 1 sum n )

s2x = -- (xi- x)2 = -- x2i - x2,

n i=1 n i=1

n ( n )

sXY = 1- sum (xi- x) (yi- y) = 1- sum xiyi - xy.

n i=1 n i=1

Método de mínimos cuadrados.

A partir de los estimadores: ^a0 y ^a1, se pueden calcular las predicciones para las observaciones muestrales, dadas por,

^ Yi = ^a0 +a^1xi,

...

Descargar como (para miembros actualizados)  txt (10.6 Kb)  
Leer 11 páginas más »
Disponible sólo en Clubensayos.com