ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

TEORIA DE CORRELACIÓN Y REGRECIÓN LINEAL

WichamariaInforme31 de Mayo de 2016

2.646 Palabras (11 Páginas)423 Visitas

Página 1 de 11

TEORIA DE CORRELACIÓN Y REGRECIÓN LINEAL

Definiciones Básicas para la Correlación

  • Análisis de Correlación: Un grupo de técnicas estadísticas usado para medir el grado de relación o la intensidad de asociación entre dos (2) variables.
  • Diagrama de Dispersión (Scatter Diagram) : Una gráfica que muestra la relación entre las 2 variables de interés.
  • Variable Dependiente (Y): La variable que se predice o estima. Se traza en el eje vertical, o eje “Y” o abscisas.
  • Variable Independiente (X): La variable que se usa para hacer la predicción o estimación. Es la que proporciona las bases para predecir la variable “Y”.

El Coeficiente de Correlación, (r): (r de PEARSON), describe el grado de intensidad de la relación lineal entre dos variables.

  • Puede tomar cualquier valor entre   -1.00 a +1.00.
  • Un valor calculado  de r de  -1.00 ó +1.00 indican una perfecta y fuerte correlación.
  • Un valor calculado de  indica que la variable independiente X y la variable dependiente Y están perfectamente relacionadas en forma lineal negativa.[pic 1]
  • Un valor calculado de  indica que la variable independiente X y la variable dependiente Y están perfectamente relacionadas en forma lineal positiva.[pic 2]
  • Cuando el r de PEARSON igual a cero (0) indica que no existe relación de dependencia entre las dos variables
  • Un r  cercano a 0,0 indican una débil correlación.

Coeficiente de Determinación

  • El Coeficiente de Determinación, r2 – la proporción de las variaciones totales en la variable dependiente Y que es explicada (no causada) o atribuida a las variaciones en la variable independiente X.
  • El coeficiente de determinación es el cuadrado del coeficiente de correlación, y varía de 0 a 1.00.

Diagrama de dispersión que señalan correlación Nula, Débil y Fuerte

[pic 3][pic 4]

[pic 5]

Fórmula para Determinar el Coeficiente de Correlación de Pearson (r)

[pic 6]

Donde:

[pic 7]

        [pic 8][pic 9]

[pic 10]

[pic 11]

[pic 12]

[pic 13]

[pic 14]

Contraste de Hipótesis de la Correlación

El coeficiente de correlación muestral es una medida descriptiva de la relación lineal en una muestra. También se puede utilizar para contrastar la hipótesis de que no existe una relación lineal en la población entre un par de variables aleatorias; es decir,
[pic 15]

Esta hipótesis nula de que no existe una relación lineal entre dos variables aleatorias es muy interesante en algunas aplicaciones. Cuando se calcula r muestral a partir de datos es muy probable que el resultado sea diferente de 0 aunque la correlación poblacional sea 0.

Estadística de prueba:

[pic 16]

Sigue una distribución t de student con (n-2) grados de libertad.

Sea r el coeficiente de correlación muestral, calculado a partir de una muestra aleatoria de n pares observados de una distribución normal conjunta. Los siguientes contrastes de la hipótesis nula

[pic 17]

Tiene un valor de significancia α:

  1. Para contrastar H0 frente a la hipótesis alternativa

[pic 18]

La regla de decisión es

[pic 19]

  1. Para contrastar H0 frente a la hipótesis alternativa

[pic 20]

La regla de decisión es

[pic 21]

  1. Para contrastar H0 frente a la hipótesis alternativa

[pic 22]

La regla de decisión es

[pic 23]

El valor  es el número para el que   donde la variable aleatoria  sigue una distribución t de student con (n-2) grados de libertad.[pic 24][pic 25][pic 26]

Análisis de Regresión por el método de mínimos cuadrados

Definiciones Básicas para el Análisis de Regresión

Análisis de Regresión: Técnica empleada para desarrollar la Ecuación de la Recta.  Su propósito es determinar la Ecuación de la Línea de Regresión.

Ecuación de regresión: Expresión matemática que define la relación entre dos variables. Se utiliza para predecir el valor de la variable Dependiente (Y) basada en los valores de la Variable Independiente (X).

Principio de Mínimos Cuadrados: Técnica empleada para obtener la ecuación de Regresión, minimizando la suma de los cuadrados de las distancias verticales entre los valores “Y” verdaderos y los valores pronosticados de “Y1”

Consideraciones Básicas para el Análisis de Regresión Lineal

  1. Para cada valor de X existe un grupo de valores Y, y estos valores se distribuyen en forma normal,
  2. Las medias de estas distribuciones normales de valores Y se encuentran todos en la línea de regresión,
  3. Las desviaciones estándares de dichas distribuciones normales son iguales,
  4. Los valores Y son estadísticamente independientes

Forma General de la Ecuación de Regresión Lineal

[pic 27]

Donde:

[pic 28]

a =Es la ordenada de la intercepción con el eje "Y" cuando X=0.Corresponde al valor estimado de Y1, donde la Recta de regresión cruza el eje Y cuando X=0

b=Es la Pendiente de la Recta, o sea, el cambio promedio en Y1 por unidad de cambio (incremento o disminución) en la variable independiente X.

 X= Es cualquier valor seleccionado de la variable independiente.

Los valores de a y b en la ecuación de regresión se les denominan Coeficientes de regresión estimados.

Ecuación para determinar la Pendiente de la Línea de Regresión

[pic 29]

Ecuación para determinar la intercepción con el el eje Y (ordenada)

[pic 30]

Donde:

X: es el valor de la variable independiente

Y: es el valor de la variable dependiente

n: número de elementos de la muestra

Etapas del Análisis de Regresión y Correlación

  1. Seleccionar una Muestra de la Población a ser estudiada y organizarla en pares de valores;
  2.  Dibujar un Diagrama de Dispersión (Scatter Diagram) para visualizar la posible relación entre las variables;
  3.  Determinar la Ecuación de la Línea de Regresión, usando el Método de los Cuadrados Mínimos.
  4. Evaluar la Ecuación.

Hacer las Proyecciones a partir de la Ecuación

Error Estándar Estimado

  • El Error Estándar del Estimado mide la dispersión o variabilidad de los datos alrededor de la línea de regresión con base en X, o por el contrario cuan inexacta podría ser la predicción.
  • Determina que tan preciso es el pronóstico de la variable Y
  • Las fórmulas usadas para calcular el Error Estándar Estimado es:

[pic 31]

[pic 32]

Intervalos de Confianza y de Predicción

El error estándar de estimación también se utiliza para establecer intervalos de confianza cuando el tamaño de la muestra es grande y la dispersión con respecto a la línea de regresión corresponde a una distribución casi normal.

 Existen dos tipos de estimaciones de intervalos  

  1. Intervalos de confianza: presenta el valor medio de Y para un valor dado de X.

  • Se evalúa a través de la siguiente formula:

[pic 34][pic 33]

  • La amplitud del intervalo es afectada por el nivel de confianza, la magnitud del error estándar de estimación y el tamaño de la muestra, así como por el valor de la variable independiente.

Donde:

[pic 35]

[pic 36]

[pic 37]

[pic 38]

[pic 39]

[pic 40]

  1. Intervalo de Predicción: informa acerca de la gama de valores de Y para cierto valor de X.

  • Se calcula a través de la siguiente formula:

[pic 42][pic 41]

  • El intervalo de predicción será más amplio que el intervalo de confianza.
  • Se basa en el nivel de confianza, el tamaño del error estándar de estimación, la dimensión de la muestra y el valor de la variable independiente.

1 Ejemplo de aplicación:

La empresa Representaciones R&R, C.A, vende fotocopiadoras a empresas de todo tipo. El gerente de ventas convoca una reunión con los representantes de ventas de todo el país, para discutir la importancia de realizar más llamadas telefónicas, para vender más fotocopiadoras e informar la relación entre el número de llamadas realizadas y el número de máquinas vendidas. Selecciona una muestra de 10 representantes y determinó el número de llamadas que hicieron en el último mes y las copiadoras que vendieron.

...

Descargar como (para miembros actualizados) txt (17 Kb) pdf (2 Mb) docx (2 Mb)
Leer 10 páginas más »
Disponible sólo en Clubensayos.com