ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Estadistica Inferencial 2


Enviado por   •  16 de Octubre de 2012  •  1.992 Palabras (8 Páginas)  •  804 Visitas

Página 1 de 8

1.1._ MODELO DE REGRESION SIMPLE

El modelo de regresión más sencillo es el Modelo de Regresión Lineal Simple que estudia la relación lineal entre la variable respuesta y la variable regresora , a partir de una muestra i = 1n, que sigue el siguiente modelo:

Por tanto, es un modelo de regresión paramétrico de diseño fijo. En forma matricial

Se supone que se verifican las siguientes hipótesis:

1._La función de regresión es lineal,

o, equivalentemente, E = 0, i = 1,...,n.

2._La varianza es constante (homocedasticidad),

o, equivalentemente, V ar = 2, i = 1,...,n.

3._La distribución es normal,

o, equivalentemente, i ~ N , i = 1,...,n.

4._Las observaciones Y i son independientes. Bajo las hipótesis de normalidad, esto equivale a que la Cov(Y i,Y j) = 0, si i j.

Esta hipótesis en función de los errores sería “los i son independientes”, que bajo normalidad, equivale a que Cov = 0, si i j.

Estimación de los parámetros del modelo.

En el modelo de regresión lineal simple hay tres parámetros que se deben estimar: los coeficientes de la recta de regresión, 0 y 1; y la varianza de la distribución normal, 2.

El cálculo de estimadores para estos parámetros puede hacerse por diferentes métodos, siendo los más utilizados el método de máxima verosimilitud y el método de mínimos cuadrados.

Método de máxima verosimilitud

El método de máxima verosimilitud se basa en calcular los valores de 0, 1 y 2 que maximizan la función y, por tanto, hacen máxima la probabilidad de ocurrencia de la muestra obtenida. Por ser la función de verosimilitud una función creciente, el problema es más sencillo si se toman logaritmos y se maximiza la función resultante, denominada función soporte

Método de mínimos cuadrados.

A partir de los estimadores: 0 y 1, se pueden calcular las predicciones para las observaciones muestrales, dadas por,

o, en forma matricial,

donde t = . Ahora se definen los residuos como

ei = yi - i, i = 1,2,...,n,

Residuo = Valor observado -Valor previsto,

en forma matricial,

Los estimadores por mínimos cuadrados se obtienen minimizando la suma de los cuadrados de los residuos, ésto es, minimizando la siguiente función,

De donde se deducen los siguientes estimadores mínimo cuadráticos de los parámetros de la recta de regresión

Se observa que los estimadores por máxima verosimilitud y el estimador mínimo cuadráticos de 0 y 1 son iguales. Esto es debido a la hipótesis de normalidad y, en adelante, se denota 0 = 0,MV = 0,mc y 1 = 1,MV = 1,mc.

1.2 supuestos

1. Linealidad. Si no se tiene linealidad se dice que tenemos un error de especificación. En el caso de que sean varias variables independientes, la opción Analizar-Regresión Lineal-Gráficos-Generar todos los gráficos parciales nos da los diagramas de dispersión parcial para cada variable independiente. En ellos se ha eliminado el efecto proveniente de las otras variables y así la relación que muestran es la relación neta entre las variables representadas.

2. Independencia de la variable aleatoria “residuos” (especialmente importante si los datos se han obtenidos siguiendo una secuencia temporal). Independencia entre los residuos mediante el estadístico de Durbin-Watson que toma valor 2 cuando los residuos son completamente independientes (entre 1.5 y 2.5 se considera que existe independencia), DW<2 indica auto correlación positiva y DW>2 auto correlación negativa

3. Homocedasticidad o igualdad de varianzas de los residuos y los pronósticos. Esta condición se estudia utilizando las variables: ZPRED=pronósticos tipificados y ZRESID=residuos tipificados mediante:

• el estadístico de Levene (ver explorar)

• un gráfico de dispersión .Que se obtiene en Analizar-Regresión-Lineal-Gráficos. El supuesto de homocedasticidad implica que la variación de los residuos sea uniforme en todo el rango de valores de los pronósticos (gráfico sin pautas de asociación).

4. Normalidad de los residuos tipificados. Podemos contrastarla mediante:

• La prueba de Kolmogorff-Smirnov, con gráficos de normalidad de tipo Q-Q (cuantiles) o P-P(proporciones) (ver explorar)

• gráficamente en Analizar-Regresión-Lineal-Gráficos . La opción Histograma: añade una curva N(0,1) Gráfico de Probabilidad Normal de tipo P-P: Representa las proporciones acumuladas de la variable esperada respecto a las proporciones acumuladas de la variable observada.

5. No-colinealidad, es decir la inexistencia de colinealidad. Esta puede ser: colinealidad perfecta si una de las variables independientes tiene una relación lineal con otra/as independientes, colinealidad parcial si entre las variables independientes existen altas correlaciones.

1.3._ determinación de la ecuación de regresión

A partir de los estimadores: 0 y 1, se pueden calcular las predicciones para las observaciones muestrales, dadas por,

o, en forma matricial,

donde t = . Ahora se definen los residuos como

ei = yi - i, i = 1,2,...,n,

Residuo = Valor observado -Valor previsto,

en forma matricial,

De donde se deducen los siguientes estimadores mínimo cuadráticos de los parámetros de la recta de regresión

1.4 medidas de variación

La variabilidad es una característica muy importante de un conjunto de datos. Existen diversas medidas de variabilidad. Pero mencionaremos las más importantes. La medida de variación mas simple es el recorrido.

El recorrido: es un conjunto de n observaciones se define como la diferencia entre la mayor y la menor de las observaciones.

Los cuartiles: se definen como aquellos valores que dividen el área del histograma en cuartos. El primer cuartil es aquel que deja a la izquierda ¼ de las observaciones y es menor que ¾ de las observaciones. El segundo cuartil es la mediana. El tercer cuartil sobrepasa ¾ de las observaciones y es menor

...

Descargar como (para miembros actualizados) txt (12 Kb)
Leer 7 páginas más »
Disponible sólo en Clubensayos.com