Regresion Lineal Simple
danielaleyvac28 de Marzo de 2012
3.885 Palabras (16 Páginas)6.956 Visitas
II. REGRESIÓN LINEAL SIMPLE Y MÚLTIPLE
INTRODUCCIÓN
Regresión lineal simple
La regresión y los análisis de correlación nos muestran como determinar tanto la naturaleza como la fuerza de una relación entre dos variables
En el análisis de regresión desarrollaremos una ecuación de estimación, esto es, una fórmula matemática que relaciona las variables conocidas con la variable desconocida. Entonces podemos aplicar el análisis de correlación para determinar el grado de en el que están relacionadas las variables. El análisis de correlación, entonces, nos dice qué tan bien están relacionadas las variables. El análisis de correlación, entonces, nos dice que tan bien la ecuación de estimación realmente describe la relación.
Regresión lineal múltiple
Como la Estadística Inferencial nos permite trabajar con una variable a nivel de intervalo o razón, así también se puede comprender la relación de dos o más variables y nos permitirá relacionar mediante ecuaciones, una variable en relación de la otra variable llamándose Regresión Lineal y una variable en relación a otras variables llamándose Regresión múltiple.
Casi constantemente en la práctica de la investigación estadística, se encuentran variables que de alguna manera están relacionados entre si, por lo que es posible que una de las variables puedan relacionarse matemáticamente en función de otra u otras variables.
Es evidente que lo más económico y rápido para modelar el comportamiento de una variable Y es usar una sola variable preeditora y usar un modelo lineal. Pero algunas veces es bastante obvio de que el comportamiento de Y es imposible que sea explicada en gran medida por solo una variable.
2.1 REGRESIÓN LINEAL SIMPLE
Introducción
Como se sabe, la regresión lineal simple se aplica en aquellas investigaciones en las que deseamos conocer la posible relación (lineal) entre dos variables. Normalmente, ambas variables son cuantitativas, aunque se verá que este requisito puede ser salvado en lo que respecta a la variable independiente, que puede ser una variable cualitativa, con lo que el modelo de regresión puede extenderse a los contrastes de medias y análisis de la varianza, sin pérdida de generalidad.
El análisis de una regresión permite desarrollar un modelo para predecir los valores de una variable numérica con base en los valores de una o más variables diferentes. En el análisis de la regresión, la variable dependiente es la variable que desea predecir. Las variables utilizadas para hacer una predicción son las variables independientes. Además de predecir los valores de la variable dependiente, el análisis de regresión también permite identificar el tipo de relación matemática que existe entre la variable dependiente y la independiente, para cuantificar el efecto que los cambios en la variable independiente tienen sobre la variable dependiente, así como para identificar las observaciones inusuales. En la regresión lineal simple se emplea una sola variable numérica independiente X para predecir la variable numérica dependiente Y.
En este tipo de análisis de regresión hay una sola variable independiente y la dependencia de la variable respuesta respecto a la predictora sigue una función lineal como la siguiente:
Si sabemos que existe una relación entre una variable denominada dependiente y otras denominadas independientes (como por ejemplo las existentes entre: la experiencia profesional de los trabajadores y sus respectivos sueldos, las estaturas y pesos de personas, la producción agraria y la cantidad de fertilizantes utilizados, etc.), puede darse el problema de que la dependiente asuma múltiples valores para una combinación de valores de las independientes.
La dependencia a la que hacemos referencia es relacional matemática y no necesariamente de causalidad. Así, para un mismo número de unidades producidas, pueden existir niveles de costo, que varían empresa a empresa.
Si se da ese tipo de relaciones, se suele recurrir a los estudios de regresión en los cuales se obtiene una nueva relación pero de un tipo especial denominado función, en la cual la variable independiente se asocia con un indicador de tendencia central de la variable dependiente. Cabe recordar que en términos generales, una función es un tipo de relación en la cual para cada valor de la variable independiente le corresponde uno y sólo un valor de la variable dependiente.
ASPECTOS TEÓRICOS
La Regresión es una técnica de la estadística que se puede utilizar para solucionar problemas comunes en los negocios.
Muchos estudios se basan en la creencia de que es posible identificar y cuantificar alguna Relación Funcional entre dos o más variables, donde una variable depende de la otra variable.
Se puede decir que Y depende de X, en donde Y y X son dos variables cualquiera en un modelo de Regresión Simple.
"Y es una función de X"
Y = f(X)
Como Y depende de X,
Y es la variable dependiente, y
X es la variable independiente.
En el Modelo de Regresión es muy importante identificar cuál es la variable Dependiente y cuál es la variable independiente.
En el Modelo de Regresión Simple se establece que Y es una función de sólo una variable independiente, razón por la cual se le denomina también Regresión Divariada porque sólo hay dos variables, una dependiente y otra independiente y se representa así:
Y = f (X)
"Y está regresando por X"
La variable dependiente es la variable que se desea explicar, predecir. También se le llama REGRESANDO ó VARIABLE DE RESPUESTA.
La variable Independiente X se le denomina VARIABLE EXPLICATIVA ó REGRESOR y se le utiliza para explicar Y.
ANÁLISIS ESTADÍSTICO: REGRESIÓN LINEAL SIMPLE
En el estudio de la relación funcional entre dos variables poblacionales, una variable X, llamada independiente, explicativa o de predicción y una variable Y, llamada dependiente o variable respuesta, presenta la siguiente notación:
Y = a + b X + e
Donde:
a es el valor de la ordenada donde la línea de regresión se intercepta con el eje Y.
b es el coeficiente de regresión poblacional (pendiente de la línea recta)
e es el error.
SUPOSICIONES DE LA REGRESIÓN LINEAL
1. Los valores de la variable independiente X son fijos, medidos sin error.
2. La variable Y es aleatoria
3. Para cada valor de X, existe una distribución normal de valores de Y (subpoblaciones Y)
4. Las variancias de las subpoblaciones Y son todas iguales.
5. Todas las medias de las subpoblaciones de Y están sobre la recta.
6. Los valores de Y están normalmente distribuidos y son estadísticamente independientes.
Principales técnicas utilizadas en el análisis de regresión lineal simple
1) Ordenamiento y análisis de la información original
2) Diagrama de dispersión e interpretación
El primer paso para determinar si existe o no una relación entre dos variables es observar la grafica de datos observados. Esta grafica se llama diagrama de dispersión.
Un diagrama nos puede da dos tipos de información, visualmente podemos buscar patrones que nos indiquen que las variables están relacionadas. Entonces si esto sucede, podemos ver qué tipo de línea, o ecuación de estimación, describe esta relación.
Primero tomamos los datos de la tabla que deseamos analizar y dependiendo de que se desea averiguar se construye la grafica colocando la variable dependiente en el eje Y y la independiente en el eje X, Cuando vemos todos estos puntos juntos, podemos visualizar la relación que existe entre estas dos variables. Como resultado, también podemos trazar, “o ajustar” una línea recta a través de nuestro diagrama de dispersión para representar la relación. Es común intentar trazar estas líneas de forma tal que un número igual de puntos caiga a cada lado de la línea.
2.2 PRUEBA DE HIPÓTESIS EN LA REGRESIÓN LINEAL
Conceptos básicos de una prueba de hipótesis.
Planteamiento de una hipótesis estadística.
Una hipótesis estadística es una afirmación sobre los valores de los parámetros de una población o proceso, que es susceptible de probarse a partir de la información contenida en una muestra representativa que es obtenida de la población.
H0: p= 0.08 Hipótesis Nula
HA: p<0.08 Hipótesis Alternativa
El nombre de hipótesis nula, se deriva del hecho que comúnmente se plantea como una igualdad.
La estrategia a seguir para probar una hipótesis es suponer que la H0 es verdadera,y que en caso de ser rechazada por la evidencia que aportan los datos se aceptara la HA.
Estadístico de prueba.
La hipótesis nula es verdadera mientras no se demuestre lo contrario. El estadístico de prueba es un numero calculado a partir de los datos y la hipótesis nula, cuya magnitud permite discernir si se rechaza o no la H0.
Criterio de rechazo.
Es el conjunto de posibles valores del estadístico de prueba que llevan a rechazar la H0.
Pruebas de una y dos colas.
La ubicación de la región de rechazo depende de si la hipótesis es bilateral o unilateral.
H0: p= 0.08 Unilateral
HA: p<0.08
H0: p= 0.08 Bilateral
HA: p≠0.08
EJEMPLO:
...