ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Regresión Lineal Y Correlacion


Enviado por   •  2 de Diciembre de 2013  •  3.714 Palabras (15 Páginas)  •  949 Visitas

Página 1 de 15

INTRODUCCION

El objetivo de este trabajo es analizar el grado de la relación existente entre variables utilizando modelos matemáticos y representaciones gráficas. Así pues, para representar la relación entre dos o más variables desarrollaremos una ecuación que permitirá estimar una variable en función de la otra.

En la regresión lineal múltiple vamos a utilizar más de una variable explicativa; esto nos va a ofrecer la ventaja de utilizar más información en la construcción del modelo y, consecuentemente, realizar estimaciones más precisas.

Al tener más de una variable explicativa (no se debe de emplear el término independiente) surgirán algunas diferencias con el modelo de regresión lineal simple. Una cuestión de gran interés será responder a la siguiente pregunta: de un vasto conjunto de variables explicativas: x1, x2, …, xk, cuáles son las que más influyen en la variable dependiente Y.

INDICE

2.1 Modelo de regresión múltiple ……………………………………….………………5

2.2 Estimación de la ecuación de regresión múltiple……………….………………6-7

2.3 Matriz de varianza-covarianza ………………………………………………..….8-9

2.4 Pruebas de hipótesis para los coeficientes de regresión……….…………. 10-11

2.5 Correlación lineal múltiple ………………………………………………..…….11-14

2.6 Aplicaciones ……………………………………………………………………..15-20

Conclusión………………………………………………………………………………..21

2.1 Modelo de regresión múltiple

2.2 Estimación de la ecuación de regresión múltiple

2.3 Matriz de varianza-covarianza

2.4 Pruebas de hipótesis para los coeficientes de regresión.

2.5 Correlación lineal múltiple

2.6 Aplicaciones

2.1 Modelo de regresión múltiple

La regresión lineal múltiple estima los coeficientes de la ecuación lineal, con una o más variables independientes, que mejor prediga el valor de la variable dependiente. Por ejemplo, se puede intentar predecir el total de facturación lograda por servicios prestados en una IPS cada mes (la variable dependiente) a partir de variables independientes tales como: Tipo de servicio, edad, frecuencia del servicio, tipo de usuario y los años de antigüedad en el sistema del usuario.

Muchos problemas de regresión múltiple involucran más de una variable regresiva. Tales modelos se denominan de regresión múltiple. La regresión múltiple es una de las técnicas estadísticas más ampliamente utilizada. Las variables biológicas suelen presentar multicorrelaciones. P.e. para estudiar el efecto del consumo de grasas saturadas en el nivel del colesterol en sangre, se puede plantear un modelo de RLS, sin embargo el nivel de colesterol puede depender también de otras variables: consumo de otras substancias, ejercicio realizado, edad, factores metabólicos genéticos, etc.

Si, para cada valor del consumo de grasas, las demás variables se distribuyen aleatoriamente, la estimación por RLS es adecuada y la variación "debida" a las otras variables estaría incluida en la variación aleatoria alrededor de la regresión, pero en caso contrario la estimación sería incorrecta, si p.e., las costumbres dietéticas variaran con la edad y ésta influyera en el colesterol, una parte no cuantificada de la variación del colesterol que el modelo atribuye al consumo de grasas sería "debida" a la edad.

La regresión lineal múltiple (RLM) es un modelo que permite estudiar estos efectos. El modelo es

a0: media de Y cuando todas las Xi son cero (cuando no tiene sentidoXi=0, p.e. edad, se interpreta como la media de Y que no depende de lasXi).

ai: cambio en la media de Y cuando Xi aumenta una unidad permaneciendo constantes las demás.

Las asunciones del modelo son una generalización de las de RLS y dado el resultado de RLS no vamos a distinguir entre modelo I y II.

La estimación de los coeficientes también se hace por mínimos cuadrados o máxima verosimilitud y se obtienen los mismos resultados. Estos resultados, usando notación matricial, son (incluyen como caso particular la RLS):

siendo la matriz columna de coeficientes estimados, Y la matriz columna de observaciones de la variable dependiente y X la denominada matriz de diseño

es decir la matriz de datos con una primera columna de 1's. Estos coeficientes se distribuyen como una normal multivariante cuya matriz de medias son los verdaderos coeficientes y matriz de varianzas-covarianzas

un buen estimador de s2 es

que se distribuye como una c2 con n - (k+1) grados de libertad.

Estas fórmulas ponen de manifiesto unas limitaciones al resolver estos modelos. Para ello hay que invertir una matriz y no todas las matrices pueden invertirse (singulares). En dos situaciones no se puede:

1. El número de observaciones (n), es menor o igual que el número de variables independientes (k).

2. Una variable independiente es combinación lineal de otra(s) o constante (colinealidad ).

2.2 Estimación de la ecuación de regresión múltiple

Usando la teoría resumida anterior, los intervalos de confianza para los coeficientes se construyen igual que en RLS.

y los contrastes de hipótesis

H0:

...

Descargar como (para miembros actualizados)  txt (23.9 Kb)  
Leer 14 páginas más »
Disponible sólo en Clubensayos.com