ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Habia Una Vez Un Barco Chiquito


Enviado por   •  7 de Julio de 2015  •  1.640 Palabras (7 Páginas)  •  273 Visitas

Página 1 de 7

Tema 13. Inferencias en modelos de regresión múltiple y predicción

Explicación

Anteriormente se utilizó el modelo de regresión lineal simple para analizar cómo una variable cuantitativa (la variable dependiente Y) es afectada por otra variable cuantitativa (la variable independiente X). En general, se prefiere incluir tantas variables independientes que demuestren afectar significativamente la variable dependiente. La principal ventaja de la regresión múltiple es que nos permite utilizar más información disponible para estimar la variable dependiente. Además, en la regresión múltiple se puede observar cada una de las variables independientes y probar si contribuyen de manera significativa a la forma en que la regresión describe los datos. La regresión múltiple permitirá también ajustar tanto curvas como rectas. Las curvas de ajuste son una técnica de modelado que se puede utilizar en la regresión múltiple para aumentar la precisión de nuestras ecuaciones de estimación.

Como ejemplo, uno de los problemas más fuertes que tienen que afrontar los administradores es el ausentismo de los empleados o trabajadores, pues esto hace que decrezca la productividad de un grupo operacional, el personal de oficina, una planta manufacturera y otros, y disminuye también la calidad del producto.

Por consiguiente, los administradores de negocios tratan de identificar las causas del ausentismo de los empleados para poder tomar medidas para controlarlo o reducirlo. El análisis de regresión es un método para determinar variables que están relacionadas con el ausentismo de los trabajadores. El primer paso sería definir una medida Y para el ausentismo de los empleados; por ejemplo, el número de inasistencias por mes. El siguiente paso sería definir un conjunto de variables independientes que podrían estar relacionadas con Y. Finalmente, se relaciona Y con las variables independientes utilizando un modelo de regresión múltiple, y se ajusta el modelo al conjunto de datos.

Si la ecuación de predicción por mínimos cuadrados resultante proporciona un buen ajuste de los datos, es decir, si permite predecir una medida Y del ausentismo con un pequeño error de predicción, se concluirá que al menos una de las variables independientes aporta información para predecir Y.

Pronóstico para la variable dependiente Y

Una vez ajustado el modelo de regresión a los datos, se puede pronosticar el peso promedio de peso final y desarrollar intervalos de confianza y de predicción estimados con la suposición de que el modelo de regresión ajustado es adecuado. Supóngase que se desea predecir el peso promedio final cuando X1, el peso inicial, es de 35 kilogramos y X2, los alimentos consumidos, es igual a 280 kilogramos.

Solución:

Si se utiliza la ecuación de regresión múltiple:

Ŷ = -22.1377 + 1.4420 X1 + 0.2110X2

Con X1 = 35 y X2=280, se tiene:

Ŷ = -22.1377 + 1.4420 (35) + 0.2110(280)

Y así:

Ŷ = 87.55

Por lo tanto, se estima que el peso final en promedio será de 87.55 cuando el peso inicial es de 35 kg y la cantidad de alimentos consumidos sea de 280 Kg.

Inferencias en modelos de regresión múltiple

La evaluación del modelo se puede hacer en tres formas:

Error estándar de la estimación

Recuérdese que σε es la desviación estándar de la variable del error e y que, debido a que es un parámetro poblacional, es necesario estimar su valor por medio del uso de Sε. En regresión múltiple, el error estándar de la estimación se define como sigue:

En donde:

n = número de observaciones

k = número de variables independientes en la función de regresión

SCE = suma de cuadrados del error

CME = cuadrado medio del error

Ejemplo

Volviendo al ejemplo anterior, en donde se realizó un experimento para determinar si el peso de un animal puede predecirse después de un periodo dado, con base en el peso inicial del animal y en la cantidad de alimento consumida por este, se registraron los siguientes datos, medidos en kilogramos:

Peso

final

Y

Peso

inicial

X1

Alimentos

consumidos

X2

95

42

272

77

33

226

80

33

259

100

45

292

97

39

311

70

36

183

50

32

173

80

41

236

92

40

230

94

38

235

A continuación puede verse parte de la salida de Excel:

Análisis de varianza

Grados de libertad

Suma de cuadrados

Cuadrados

medios

F

Regresión

2

1738.3393

869.1696

15.13

Residuos (error)

7

402.1607

57.4515

Total

9

2140.5000

Coeficiente de determinación

El coeficiente de determinación es dado por:

Y representa la razón de la variación de la respuesta Y explicada por su relación con las X. Para el ejemplo anterior se tiene que el coeficiente de determinación es:

En este caso, el 81.21% de la variación en el peso final se explica por X1 (peso inicial) y X2 (alimentos consumidos). En la práctica, 0 ≤ R2 ≤ 1, y el valor de R2 debe interpretarse en relación con los extremos, 0 y 1.

El coeficiente de determinación R2 siempre se puede incrementar al agregar una variable independiente X adicional a la función de regresión, aun si la variable adicional es no-significativa (no importante). Por esta razón, algunos analistas prefieren calcular el valor de R2, ajustado al número de términos en la función de regresión. El coeficiente de determinación ajustado se da

...

Descargar como (para miembros actualizados)  txt (13 Kb)  
Leer 6 páginas más »
Disponible sólo en Clubensayos.com