ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Análisis De Regresión Múltiple


Enviado por   •  14 de Noviembre de 2014  •  1.686 Palabras (7 Páginas)  •  417 Visitas

Página 1 de 7

ANALISIS DE REGRESION MULTIPLE

REGRESIÓN MÚLTIPLE

El análisis de regresión lineal múltiple, a diferencia del simple, se aproxima más a situaciones de análisis real puesto que los fenómenos, hechos y procesos sociales, por definición, son complejos y, en consecuencia, deben ser explicados en la medida de lo posible por la serie de variables que, directa e indirectamente, participan en su concreción. Al aplicar el análisis de regresión múltiple lo más frecuente es que tanto la variable dependiente como las independientes sean variables continuas medidas en escala de intervalo o razón.

El Análisis de Regresión Lineal Múltiple nos permite establecer la relación que se produce entre una variable dependiente Y; y un conjunto de variables independientes (X1, X2,...XK), el objetivo no solo es la estimación sino, la inferencia del problema.

En este caso la variable dependiente se ve afectada por los cambios que se le hagan a las variables independientes en conjunto.

La anotación matemática del modelo o ecuación de regresión lineal múltiple es la que sigue:

Y = a + b1x1 + b2x2 +... + bnxn + u

En donde:

Y : Es la variable a predecir

a, b1x1, b2x2... bnxn: Son parámetros desconocidos a estimar

Hay dos dificultades básicas a que nos enfrentamos al estimar un modelo de regresión múltiple:

Una es la interpretación de los efectos de una de las variables explicativas separadamente de las demás.

Por otro lado, la posibilidad de que la variable endógena se determine simultáneamente con alguna de las variables explicativas es indudablemente mayor cuantas más variables explicativas se incluyen en el modelo.

La razón por la que trabajamos en muchas ocasiones con modelos de regresión múltiple es sencillamente, porque hay más de una variable con capacidad explicativa significativa sobre la evolución de la variable endógena.

APLICACIONES DE LA REGRESIÓN MÚLTIPLE

Es cierto que la regresión múltiple se utiliza para la predicción de respuestas a partir de variables explicativas. Pero no es ésta realmente la aplicación que se le suele dar en investigación. Los usos que con mayor frecuencia encontraremos en las publicaciones son los siguientes:

Identificación de Variables Explicativas.- Nos ayuda a crear un modelo donde se seleccionen las variables que puedan influir en la respuesta, descartando aquellas que no aporten información.

Detección de Interacciones entre variable independientes que afectan a la variable respuesta.- Un ejemplo clásico es el de estudiar la respuesta de un paciente al alcohol y a un barbitúrico, y observar que cuando se ingieren ambos, el efecto es mucho mayor del esperado como suma de los dos.

Identificación de Variables Confusoras.- Es un problema difícil el de su detección, pero de interés en investigación no experimental, ya que el investigador frecuentemente no tiene control sobre las variables independientes.

1.2. MODELO CON DOS VARIABLES INDEPENDIENTES. CASO GENERAL

y = B0 + B1x1 + B2x2 + u

B0 es el término constante. representa el punto donde el plano corta al eje Y (ahora la relación entre las dos variables independientes y Y está representada por un plano).

B1 representa el cambio esperado en Y por cada incremento unitario en X1, siempre y cuando X2 permanezca constante.

B2 representa el cambio esperado en Y por cada incremento unitario en X2, siempre y cuando X1 permanezca constante.

1.3. MODELO CON K VARIABLES INDEPENDIENTES

y = B0 + B1x1 + B2x2 + • • • + Bkxk + u

k + 1 parámetros.

B0 es el término constante.

B_j mide el efecto sobre y de un cambio en x_j, manteniendo otros factores constantes (parámetros de pendiente).

u: otros factores que afectan y no son x_1,x_2 ,...,x_k.

REGRESIÓN MÚLTIPLE: PROBLEMA DE INFERENCIA

2.1. PRUEBA DE SIGNIFICANCIA

La prueba de significancia del modelo nos permite determinar estadísticamente si las variables independientes (en conjunto) tienen efecto o no sobre la variable dependiente.

Para realizar esta prueba se requiere descomponer la suma total de cuadrados, representada por Syy, en dos componentes: SSR y SSE

Syy = SSR + SSE

Donde:

Syy es la suma total de cuadrados

SSR es la suma de cuadrados de la regresión

SSE es la suma de cuadrados del error

Las ecuaciones apropiadas para calcular las expresiones anteriores son:

SSE=Syy-SSR

Partimos de las hipótesis:

Utilizamos la tabla de análisis de varianza:

Fuente de Variación Suma de cuadrados Grados

de libertad Media de cuadrados Estadístico de prueba

Regresión SSR K MSR=SSR/k

Error SSE n – k-1 MSE=SSE/n-k-1

Total Syy n – 1

El estadístico de prueba F0 tiene una distribución F (Fisher) con v1 = k y v2 = n -k-1 grados de libertad en el numerador y el denominador, respectivamente.

En este caso, si el estadístico de prueba es mayor que el valor de tablas F_(α,k n-k-1), se rechaza la hipótesis nula; concluiremos que la variable independie.nte está relacionada con al menos una de las variables independientes.

PRUEBAS SOBRE COEFICIENTES INDIVIDUALES

Las hipótesis sobre los parámetros del modelo son equivalentes a las realizadas para

...

Descargar como (para miembros actualizados)  txt (12.9 Kb)  
Leer 6 páginas más »
Disponible sólo en Clubensayos.com