ANÁLISIS DE REGRESIÓN LINEAL SIMPLE Y MULTIPLE.
-alicia- Resumen 2 de Noviembre de 2015
701 Palabras (3 Páginas) 291 Visitas
TEMA 8
ANÁLISIS DE REGRESIÓN LINEAL SIMPLE Y MULTIPLE.
REGRESIÓN SIMPLE: Cuando una variable que llamaremos independiente (VI) aporta información sobre otra variable que llamaremos dependiente (VD), decimos que ambas están relacionadas y esa información puede servir para saber más sobre el comportamiento de la variable dependiente, sabiendo el comportamiento de la independiente.
Y = es una relación probabilística ya que depende de la cantidad aleatoria ε.[pic 4][pic 1][pic 2][pic 3]
“ε” representa la aportación de las variables extrañas al experimento, es decir, el efecto de todas aquellas variables que no hemos manipulado ni controlado.
La media de los valores pronosticados es igual a la media de los valores observados:
= [pic 5][pic 6]
En regresión lineal por mínimos cuadrados se dice que la recta de regresión es una estimación insesgada debido a que los valores esperados de los estimadores coinciden con los parámetros que estiman.
Pendiente de la recta (B): cuantifica el incremento que se produce en la estimación de la variable dependiente ( ) cuando la independiente (X) aumenta en una unidad.[pic 7]
Ordenada en el origen () : el valor estimado de Y cuando X=0.[pic 8]
Coeficiente de correlación ( ): proporciona una medida cualitativa de las variables.[pic 9]
Coeficiente de determinación : es el cuadrado del coeficiente de correlación. Se define como la proporción de la varianza de Y explicada por la varianza de X. Es la proporción en que se reduce el error de la variable dependiente cuando empleamos la recta de regresión para estimarla.
Su complemento ( 1 ) denominado coeficiente de alineación, es la parte residual de la variabilidad de la variable dependiente atribuible a otros factores no relacionados linealmente con la variable dependiente.[pic 10][pic 11]
Para que sean validas las inferencias que sobre la variable dependiente se hagan con la recta de regresión, de deben de cumplir cuatro supuestos básicos:
- independencia de las observaciones.
- homocedasticidad.
- normalidad da las distribuciones condicionadas.
- los pronósticos y los errores son independientes.
Error de estimación: los valores de Y no tiene porqué coincidir exactamente con . La diferencia entre ambos valores será un error de estimación que, siendo inevitable, trataremos que sea lo menos posible.[pic 12]
REGRESION MULTIPLE: se amplía el modelo anterior de regresión lineal simple para más de una variable independiente.
Regresión con dos variables independientes: el modelo de estimación lineal de la variable dependiente con dos variables independientes constará de dos coeficientes de regresión, uno para cada variable independiente, y una constante que será el valor estimado para la variable dependiente cuando son nulas las dos variables independientes.
La variable dependiente se puede expresar como:
Y= = ε[pic 13][pic 14][pic 15][pic 16][pic 17][pic 18][pic 19][pic 20][pic 21][pic 22]
Siendo el el coeficiente de regresión parcial para , el coeficiente de regresión parcial para . [pic 23][pic 24][pic 25][pic 26]
Correlación
Si tenemos dos variables independientes y y una variable dependiente Y, la proporción de varianza de Y explicada por y se calcula mediante el coeficiente de determinación.[pic 27][pic 28][pic 29][pic 30]
Al ser dos las variables independientes, las estimaciones quedan situadas en un plano, que se conoce como plano de regresión.
...