Regresion multiple. Aplicación de la regresión múltiple
as0510Monografía26 de Abril de 2017
5.000 Palabras (20 Páginas)537 Visitas
INDICE
Introducción
Capítulo 1
1.1- Marco Teórico
1.2- Clases de regresión
Capítulo 2
2.1-Regresión Simple
2.1.1-Objetivos principales
2.1.2-Coeficiente de regresión y sus clases
2.1.3- Procedimiento para hallar el coeficiente de regresión
Capítulo 3
3.1- Regresión múltiple
3.1.1-Aplicación de la regresión múltiple
3.1.2-Requisitos de la regresión múltiple
3.1.3-Variables Dummy
3.1.4-Interpretacion de resultados
Capítulo 4
4.1-Aplicaciones reales de la regresiónmúltiple
Conclusiones
Referencias Bibliográficas
INTRODUCCIÓN:
La regresión múltiple consiste en ser un método multivariado para poder determinar una ecuación, ya sea de regresión o predicción, de tal manera de poder predecir un valor de la variable dependiente a partir de un conjunto de variables independientes.
La regresión múltiple es usada con mayor frecuencia en las publicaciones de las investigaciones cuando se requiere crear un modelo donde se seleccionan variables que pueden influir en la respuesta, descartando aquellas que no aportan información, cuando se requiere detectar la interacción entre variables independientes que afectan a la variable y cuando se requiere identificar variables confusoras.
Al momento de aplicar la regresión múltiple se tienen ciertos requisitos y limitaciones, entre los cuales se pueden citar los siguientes:
- Linealidad
- Normalidad y equidistribución de los residuos.
- Número de variables independientes.
- Colinealidad
- Observaciones anómalas.
En general, el objetivo de la regresión múltiple es tratar de expresar una variable respuesta (numérica) en función de varias posibles variables explicativas (todas ellas numéricas).A través de este trabajo monográfico se espera que el tema de regresión múltiple quede explicado de manera detallada.
CAPITULO I
- MARCO TEORICO:
La regresión proviene del latín “cuantum” ,lo cual traducido al español refiere a “cantidad de cambio”que puede experimentar una determinada variable dependiente (Y) ,con respecto al cambio que pueda tener una variable independiente (X).También es defina como procedimiento mediante el cual se intenta determinar si existe o no relación de dependencia entre una, dos o más variables. Es decir, conociendo los valores de una variable independiente, se trata de estimar los valores, de una o más variables dependientes. La regresión en forma gráfica, trata de lograr que una dispersión de las frecuencias sea ajustada a una línea recta o curva. La regresión es un concepto estadístico estrechamente ligado al concepto de correlación, dentro del concepto de correlación podemos destacar dos tipos:
- COEFICIENTE DE CORRELACIÓN DE PEARSON (R):
En términos estadísticos, el coeficiente de correlación de Pearson es una medición de la relación lineal entre dos variables aleatorias cuantitativas, otro aspecto importante de la correlación de Pearson es que esta es independiente de la escala de medida de las variables. Es decir el coeficiente de correlación de Pearson es una especie de índice que puede ser utilizado para la medición del grado de relación de dos variables pero estás siempre deben ser de tipo cuantitativas. Por ejemplo al contar con dos variables cuantitativas y si se desea medir su grado de asociación se utiliza el coeficiente de correlación de Pearson. Debemos tener en cuenta que en primera instancia es aconsejable la previa realización de un gráfico de dispersión entre las variables a estudiar, y visualizar la posible relación entre ellas. Ya que este coeficiente es el encargado de medir la asociación lineal y al realizar una prueba paramétrica se necesita para un correcto uso que ambas variables tengan distribuciones normales. De no ser de esta manera, debemos recurrir a la utilización del coeficiente no paramétrico de Spearman.
El coeficiente de correlación de Pearson (r) puede tomar valores de entre -1 y +1, de tal modo que un valor de "r" positivo nos permite indica que al aumentar el valor de una variable también aumenta el valor de la otra, y por el contrario, "r" será negativo si al aumentar el valor de una variable disminuye la otra. La correlación será perfecta si r= ±1, en este caso los puntos formarán todos una recta. Previamente es importante determinar qué valor de "r" vamos a considerar como clínicamente relevante, puesto que una correlación tan baja como r= 0,07 sería significativa (p=0,027) con un tamaño de muestrade unas 1000 personas. Al igual que cualquier otro parámetro, conviene darlo con sus correspondientes intervalos de confianza. Un coeficiente de correlación significativo, lo único que nos indica es que es bastante improbable que en nuestra población "r" sea cero, y por tanto su intervalo de confianza no incluirá el cero.
- COEFICIENTE DE CORRELACIÓN NO PARAMÉTRICO DE SPEARMAN (RHO):
En términos estadísticos, el coeficiente de correlación de Spearman (RHO) es una medición de la relación (asociación o interdependencia),de entre dos variables aleatorias continuas. Para calcular el coeficiente de Spearman se requiere que los datos sean ordenados y reemplazados en su respectivo orden.Es por esto que al igual que el coeficiente de Pearson, también podemos utilizarlo para la medición del grado de asociación entre dos variables cuantitativas, sin embargo no es primordial que ambas variables sean normales, e inclusive se puede utilizar en variables ordinales. Como todas las pruebas no paramétricas, este coeficiente se construye reemplazando los valores de las variables por sus rangos o posiciones, si los valores de las variables fuesen ordenados de menor a mayor. Al contrario de otras pruebas no paramétricas, si permite construir intervalos de confianza.
La interpretación del coeficiente de correlación de Spearman es muy similar al de Pearson, ya que ambos pueden alcanzar valores de entre -1 y +1 indicando su asociación negativa o positiva respectivamente. Tanto el coeficiente "r" de Pearson como el coeficiente RHO de Spearman, son medidas adimensionales por lo que no poseen unidades.
Algunos usos incorrectos con respecto a los coeficientes de correlación:
Ambos coeficientes de correlación, tanto el de Pearson, como el de Spearman, requieren que sus observaciones sean de manera independiente, por lo cual no debemos aplicar una correlación entre dos variables en las que se tuvieran las medidas de pacientes de manera repetida.
El encontrar una asociación significativa no indica que una variable sea la causa y que la otra el efecto. La correlación nunca mide una relación causa-efecto. Además, no distingue entre variable dependiente e independiente y por tanto la correlación de la variable "x" frente a la variable "y" es la misma que la de la variable "y" frente a "x" 1. Esto no sucede así en la regresión.
Siempre se debe tener mucha precaución con la interpretación de un coeficiente de correlación puesto que otras variables, llamadas de confusión, pueden ser las verdaderas causantes de la asociación. Esto se produce cuando dos variables independientes entre sí dependen ambas de una tercera. Por ejemplo está demostrado que en los niños, existe una correlación positiva entre el tamaño del pie y su capacidad para sumar. Sin embargo lo que en realidad sucede es que los niños con mayor pie, son también los de mayor edad y por tanto los que mejor suman. Este tipo de correlaciones se denominan espúreas o engañosas y nos pueden llevar a conclusiones erróneas.
También hay que advertir a aquellos investigadores que tengan la tentación de correlacionar un número grande de variables cuantitativas con el único objetivo de "a ver si encuentro algo". Aparte de tener una difícil justificación este modo de actuar, si cruzáramos solo 20 variables todas ellas independientes, tendríamos hasta 190 pares de variables en los que estudiar la correlación, y sólo por azar, es de esperar aproximadamente unas 9 ó 10 como significativas. Es decir, el 5% de las correlaciones realizadas serian significativas con una p<0,05, cometiendo un error tipo I al afirmar que hay asociación cuando en realidad no la hay. Para evitarlo, podríamos utilizar para cada p la corrección de Bonferroni.
La correlación no debe ser utilizada para la realización de la evaluación de la concordancia entre dos medidas cuantitativas, lo recomendable es seleccionar otros índices como el coeficiente de correlación intraclase o analizar otra serie de técnicas.
- CLASES DE REGRESION:
Las clases de regresión se pueden clasificar mediante diversos criterios, principalmente en función de:
- El número de variables independientes:
- Regresión simple: Cuando la variable Y depende únicamente de una única variable X.
- Regresión múltiple: Cuando la variable Y depende de varias variables (X1, X2, ..., Xr).
- El tipo de función f(X):
- Regresión lineal: Cuando f(X) es una función lineal.
- Regresión no lineal: Cuando f(X) no es una función lineal.
- La naturaleza de la relación que exista entre las dos variables:
- La variable X puede ser la causa del valor de la variable Y.
Cuadro1-Tipos de regresión
CAPITULO 2
2.1-REGRESIÓN SIMPLE:
EL análisis de la regresión simple, por lo general, siempre permite obtener una función lineal de una o más variables independientes o predictorias (X1, X2,... XK), de tal manera que a partir esta se puede explicar o predecir el valor de una variable dependiente o criterio (Y). En la parte del análisis de la regresión simple, logramos diferenciar entre el análisis de regresión lineal simple y análisis de regresión lineal múltiple. En el primero, regresión lineal simple, se quiere lograr explicar o predecir la variable dependiente (Y), a partir de una única variable independiente, (X1); mientras que en el segundo, regresión lineal múltiple, se requiere contar con un conjunto de variables independientes(X1, X2,... XK), para estimar la variable dependiente (Y). En ambos casos, tanto como para la regresión lineal simple y regresión lineal múltiple, la variable dependiente como las independientesestá medidas en una escala de intervalo o de razón (RUA, 2008).
...