ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

REGRESION LINEAL SIMPLE Y CORRELACION


Enviado por   •  16 de Septiembre de 2014  •  4.426 Palabras (18 Páginas)  •  328 Visitas

Página 1 de 18

1-. REGRESION LINEAL SIMPLE Y CORRELACION.

• MODELO DE REGRESION SIMPLE

• SUPUESTOS

• DETERMINACION DE LA ECUACION DE REGRESION

• MWDIDAS DE VARIACION

• CALCULO DE LOS COEFICIENTES DE CORRELACION Y DETERMINACION

• ANALISIS RESIDUAL

• INFERENCIAS ACERCA DE LA PENDIENTE

• APLICACIONES

REGRESIÓN SIMPLE Y CORRELACIÓN

La Regresión y la correlación son dos técnicas estadísticas que se pueden utilizar para solucionar problemas comunes en los negocios.

Muchos estudios se basan en la creencia de que es posible identificar y cuantificar alguna Relación Funcional entre dos o más variables, donde una variable depende de la otra variable.

Se puede decir que Y depende de X, en donde Y y X son dos variables cualquiera en un modelo de Regresión Simple.

"Y es una función de X" Y = f(X)

Como Y depende de X,

Y es la variable dependiente, y

X es la variable independiente.

En el Modelo de Regresión es muy importante identificar cuál es la variable dependiente y cuál es la variable independiente.

En el Modelo de Regresión Simple se establece que Y es una función de sólo una variable independiente, razón por la cual se le denomina también Regresión Divariada porque sólo hay dos variables, una dependiente y otra independiente y se representa así:

Y = f (X) "Y está regresando por X"

La variable dependiente es la variable que se desea explicar, predecir. También se le llama regresando ó variable de respuesta.

La variable Independiente X se le denomina variable explicativa ó regresor y se le utiliza para explicar y.

Supuestos

Supuestos del modelo clásico de regresión lineal

Como el propósito del modelo no es solo estimar B1 y B2 sino hacer inferencia sobre los verdaderos B1 y B2, entonces se hace necesario establecer los siguientes supuestos:

1. El modelo de regresión es lineal en los parámetros.

Las variables deben ser lineales en sus valores originales o después de alguna transformación adecuada.

2. El valor esperado de la perturbación aleatoria debe ser cero para cualquier observación.

para todo i

3. La varianza de las perturbaciones es constante – homoscedasticidad (IGUAL VARIANZA).

para toda i

4. Independencia o no autocorrelación entre las perturbaciones

Dados dos valores cualesquiera de X, xi xj para i ¹ j, la correlación entre Ui, Uj es cero.

para cualquier i ¹ j

5. Independencia entre Ui y Xj para toda i y j

para toda i y j , esto para separar el efecto sobre Y de U y X

6. Los valores de X son fijos en muestreos repetidos es decir son no estocásticos.

7. Debe disponerse de una información estadística suficientemente amplia sobre el conjunto de variables observables implicadas en el modelo. Como requisito mínimo para que pueda determinarse una solución se exige que el numero de datos (n) debe ser superior al numero de parámetros (k) (n>k) se habla para datos anuales mínimo 15.

8. En modelos de regresión múltiples se necesita que no haya relación lineal perfecta entre las variables independientes o explicativas, a esto se le llama no multicolinealidad. X de nxk con rango k ( rango completo).

9. Normalidad Ui esta normalmente distribuido para toda i

Lo anterior implica que:

Estimados los a partir de datos muestrales, se requiere de alguna medida para verificar la confiabilidad o precisión de los estimadores y En estadística la precisión de un valor estimado es medida por su desviación estándar o error estándar.

Desarrollando una demostración matemática se puede concluir que:

El estimador de mínimos cuadrados de la verdadera varianza de los errores es:

DETERMINACION DE LA ECUACION DE REGRESION

La ecuación de la recta de regresión permite pronosticar la puntuación que alcanzará cada sujeto en una variable Y conociendo su puntuación en otra variable X. A la variable Y se le denomina criterio y a la variable X predictor.

Sin embargo, raramente la nube de puntos que representa la relación entre dos variables X e Y adopta la forma de una línea recta perfecta. En el caso en que exista una relación alta entre las variables, la nube de puntos tiende a parecerse a una recta. Sólo en el caso de rxy=1 la nube de puntos se ajusta perfectamente a la línea recta.

Teniendo esto en cuenta, la recta de regresión es la línea recta que mejor se ajusta a la nube de puntos para dos variables X e Y, es decir, la que permitiría minimizar el error medio cometido al hacer los pronósticos como si la nube de puntos tuviera una forma lineal.

Por ejemplo: Consideremos un grupo de 4 personas para las que conocemos sus puntuaciones en determinadas variables X e Y, según se muestra en las dos primeras columnas de la siguiente tabla:

X Y Y´ Y´-Y (Y´-Y)2

5

6

7

8 3

2

4

5 2

4

...

Descargar como (para miembros actualizados)  txt (33.2 Kb)  
Leer 17 páginas más »
Disponible sólo en Clubensayos.com