Regresion lineal Simple
German715 de Enero de 2014
745 Palabras (3 Páginas)320 Visitas
El modelo de regresión lineal[editar · editar código]
El modelo lineal relaciona la variable dependiente Y con K variables explicativas X_k (k = 1,...K), o cualquier transformación de éstas, que generan un hiperplano de parámetros \beta_k desconocidos:
(2) Y = \sum \beta_k X_k + \varepsilon
donde \varepsilon es la perturbación aleatoria que recoge todos aquellos factores de la realidad no controlables u observables y que por tanto se asocian con el azar, y es la que confiere al modelo su carácter estocástico. En el caso más sencillo, con una sola variable explicativa, el hiperplano es una recta:
(3) Y = \beta_1 + \beta_2 X_2 + \varepsilon
El problema de la regresión consiste en elegir unos valores determinados para los parámetros desconocidos \beta_k, de modo que la ecuación quede completamente especificada. Para ello se necesita un conjunto de observaciones. En una observación cualquiera i-ésima (i= 1,... I) se registra el comportamiento simultáneo de la variable dependiente y las variables explicativas (las perturbaciones aleatorias se suponen no observables).
(4) Y_i = \sum \beta_k X_{ki} + \varepsilon_i
Los valores escogidos como estimadores de los parámetros, \hat{\beta_k}, son los coeficientes de regresión, sin que se pueda garantizar que coinciden con parámetros reales del proceso generador. Por tanto, en
(5) Y_i = \sum \hat{\beta_k} X_{ki} + \hat{\varepsilon_i}
Los valores \hat{\varepsilon_i} son por su parte estimaciones de la perturbación aleatoria o errores.
Hipótesis modelo de regresión lineal clásico[editar · editar código]
1. Esperanza matemática nula.
E(\varepsilon_i) = 0
Para cada valor de X la perturbación tomará distintos valores de forma aleatoria, pero no tomará sistemáticamente valores positivos o negativos, sino que se supone que tomará algunos valores mayores que cero y otros menores, de tal forma que su valor esperado sea cero.
2. Homocedasticidad
Var(\varepsilon_t) = E(\varepsilon_t - E \varepsilon_t)^2 = E \varepsilon_t^2 = \sigma^2 para todo t
Todos los términos de la perturbación tienen la misma varianza que es desconocida. La dispersión de cada \varepsilon_t en torno a su valor esperado es siempre la misma.
3. Incorrelación. Cov(\varepsilon_t,\varepsilon_s ) = (\varepsilon_t - E \varepsilon_t) (\varepsilon_s - E \varepsilon_s) = E \varepsilon_t \varepsilon_s = 0 para todo t,s con t distinto de s
Las covarianzas entre las distintas pertubaciones son nulas, lo que quiere decir que no están correlacionadas o autocorrelacionadas. Esto implica que el valor de la perturbación para cualquier observación muestral no viene influenciado por los valores de la perturbación correspondientes a otras observaciones muestrales.
4. Regresores no estocásticos.
5. No existen relaciones lineales exactas entre los regresores.
6. T > k + 1 Suponemos que no existen errores de especificación en el modelo ni errores de medida en las variables explicativas
7. Normalidad de las perturbaciones \varepsilon -> N(0, \sigma^2 )
Supuestos del modelo de regresión lineal[editar · editar código]
Para poder crear un modelo de regresión lineal, es necesario que se cumpla con los siguientes supuestos:3
La relación entre las variables es lineal.
Los errores en la medición de las variables explicativas son independientes entre sí.
Los errores tienen varianza constante. (Homocedasticidad)
Los errores tienen una esperanza matemática igual a cero (los errores de una misma magnitud y distinto signo son equiprobables).
El error total es la suma de todos los errores.
Tipos de modelos de regresión lineal[editar · editar código]
Existen diferentes tipos de regresión lineal
...