ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Conocer el peso o influencia que ejerce cada variable independiente o predictora a la hora de explicar la variabilidad de la variable dependiente o criterio.


Enviado por   •  15 de Enero de 2017  •  Apuntes  •  9.546 Palabras (39 Páginas)  •  714 Visitas

Página 1 de 39

Análisis de Regresión

El Análisis de regresión es una técnica que se aplica siempre que una variable cuantitativa (la variable dependiente o criterio), sea estudiada como una función de una variable o de una combinación de varias variables independientes o predictoras.

De este modo el análisis de regresión permite:

  • Conocer el peso o influencia que ejerce cada variable independiente o predictora a la hora de explicar la variabilidad de la variable dependiente o criterio.
  • Establecer predicciones sobre el comportamiento de la variable dependiente, a partir de información proveniente, únicamente, de la variable o variables independientes.

Cuando la variable dependiente o criterio es función de una solo variable independiente o predictora hablamos de Análisis de Regresión Simple (ARS)

Cuando la variable dependiente o criterio es función de una combinación de dos o más variables independientes o predictoras hablamos de Análisis de Regresión Múltiple (ARM)

La función que pone en relación la/s variable/s independiente/s con la dependiente son muy diversas, así por ejemplo, pueden encontrarse relaciones de diversos tipos: lineales, exponenciales, potenciales, polinómicas…

En el caso específico de que la variable dependiente sea el resultado de una función lineal o una combinación lineal de varias variables independientes hablaremos de Análisis de regresión lineal.

Análisis de Varianza - ANOVA

El análisis de varianza o ANOVA es un test paramátrico que se aplica con el fin de conocer si existen  diferencias significativas entre las medias de las poblaciones de tres o más grupos.

El procedimiento del análisis consiste en descomponer la variabilidad o varianza total en:

-    Varianza intergrupos: varianza atribuible al efecto de los distintos niveles del factor sobre la variable dependiente u objeto de estudio

-    Varianza intragrupos: varianza del error, debida a toda una serie de factores no controlados en el experimento

De tal modo, en la medida que la varianza intergrupos sea significativamente mayor que la varianza intragrupos se admitirá la hipótesis alternativa de que las medias de los grupos son distintas, pues gran parte de la varianza observada en el objeto de estudio viene explicada por el efecto o impacto de los distintos niveles del factor en estudio.

Para poder aplicar un análisis de varianza se deben cumplir los supuestos de independencia, normalidad y homocedasticidad.

El análisis de varianza se aplica para conocer si existen diferencias entre tres o más grupos, no obstante este análisis no identifica los pares de grupos entre los que existen diferencias, para lo que habrá de utilizarse comparaciones múltiples, concretamente las denominadas comparaciones no planificadas, a posteriori o post hoc; siendo algunas de las pruebas post hoc más utilizadas: la prueba de comparaciones múltiples de Tukey y la prueba de comparaciones múltiples de Scheffé.

Análisis de varianza de dos o más factores

Ver Diseño factorial

Análisis robusto

Ver Robusto (análisis)

ANOVA con efectos aleatorios o modelo aleatorio

Se trata de un modelo de Análisis de Varianza en el que los i niveles del factor son una muestra aleatoria de todos los posibles niveles del factor, de tal modo que las conclusiones obtenidas se generalizarán a todos los niveles del factor.

ANOVA con efectos fijos o modelo fijo

Se trata de un modelo de Análisis de Varianza en el que el investigador establece o fija como niveles del factor sólo aquellos que está interesado en estudiar. De este modo, aunque el investigador es consciente de que existen más niveles, sólo estudia aquellos que le interesan.

Coeficiente de alienación (Análisis de regresión)

Representado como (1- R2) es la parte residual de la variabilidad de la variable dependiente atribuible a otros factores no relacionados linealmente con la variable dependiente.

Coeficiente de correlación de Pearson

El coeficiente de correlación describe la intensidad de la relación entre dos variables (medidas como mínimo a nivel de intervalo). Este coeficiente, que se expresa como rxy , o simplemente r mide concretamente la intensidad de la relación lineal entre dos variables, siendo resultado de dividir la covarianza de X e Y: Cov(X,Y) entre las desviaciones típicas de las distribuciones marginales de X e Y.

El valor del coeficiente de correlación varía entre [-1, +1], es decir, El valor del coeficiente de correlación puede tomar valores desde menos uno hasta uno, indicando que mientras más cercano a uno sea el valor del coeficiente de correlación, en cualquier dirección, más fuerte será la asociación lineal entre las dos variables. Mientras más cercano a cero sea el coeficiente de correlación indicará que más débil es la asociación entre ambas variables. Si es igual a cero se concluirá que no existe relación lineal alguna entre ambas variables.

De este modo:

  • Si r = 1, existe una correlación positiva perfecta. El índice indica una dependencia total entre las dos variables denominada relación directa: cuando una de ellas aumenta, la otra también lo hace en proporción constante.
  • Si 0 < r < 1, existe una correlación positiva.
  • Si r = 0, no existe relación lineal. Pero esto no necesariamente implica que las variables son independientes: pueden existir todavía relaciones no lineales entre las dos variables.
  • Si -1 < r < 0, existe una correlación negativa.
  • Si r = -1, existe una correlación negativa perfecta. El índice indica una dependencia total entre las dos variables llamada relación inversa: cuando una de ellas aumenta, la otra disminuye en proporción constante.

Coeficiente de correlación múltiple (Análisis de regresión múltiple)

Representado como Ry.12 o R dentro del Análisis de regresión múltiple es el coeficiente que correlaciona la variable dependiente con una combinación óptima de dos o más variables independientes.

Coeficiente de correlación parical (Análisis de regresión múltiple)

Presentado como pri este coeficiente, utilizado en el análisis de regresión múltiple, mide la correlación existente entre cada variable independiente y la variable dependiente, habiendo eliminado el influjo del resto de variables independientes tanto de la variable independiente como de la variable dependiente.

...

Descargar como (para miembros actualizados)  txt (64.4 Kb)   pdf (352.4 Kb)   docx (145.5 Kb)  
Leer 38 páginas más »
Disponible sólo en Clubensayos.com