ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Correlacion

6sigmalfja14 de Junio de 2013

2.084 Palabras (9 Páginas)483 Visitas

Página 1 de 9

CORRELACION

Notas

Indice

INDICE 1

1. OBJETIVOS DEL TEMA 1

2. CONCEPTOS BÁSICOS PREVIOS 2

3. INTRODUCCIÓN 2

4. APUNTE HISTÓRICO 3

5. GRÁFICOS DE DISPERSIÓN 4

6. EL COEFICIENTE DE CORRELACIÓN DE PEARSON, r 5

7. CÁLCULO DEL COEFICIENTE DE CORRELACIÓN r 8

8. ESTADÍSTICA INFERENCIAL 10

9. EL COEFICIENTE DE DETERMINACIÓN 11

10. OTRAS MEDIDAS DE CORRELACIÓN. (1) SIMPLIFICACIÓN DEL CÁLCULO DEL COEFICIENTE DE CORRELACIÓN 11

11. OTRAS MEDIDAS DE LA CORRELACIÓN. (2) COEFICIENTE DE CORRELACIÓN NO PARAMÉTRICO 14

12. MEDIDAS DE ASOCIACIÓN 16

13. OTRAS MEDIDAS DE ASOCIACIÓN RELACIONADAS CON EL ANOVA 18

14. COEFICIENTE DE CORRELACIÓN PARCIAL Y SEMIPARCIAL: CONTROL DEL IMPACTO DE OTRAS VARIABLES SOBRE LA

CORRELACIÓN 18

15. EXTENSIÓN MULTIVARIADA 19

BIBLIOGRAFÍA 20

1. Objetivos del tema

• Conocer y comprender el concepto de correlación

• Saber cuándo debe utilizarse técnicas de correlación y sus limitaciones

• Saber representar e interpretar un diagrama de dispersión

• Saber leer los resultados de un análisis de correlación producido por un sistema informático

• Saber calcular e interpretar un coeficiente de correlación

• Saber calcular e interpretar los intervalos de confianza del coeficiente de correlación

• Conocer, saber cuándo utilizar y como interpretar las medidas de correlación alternativas al coeficiente

de correlación de Pearson

• Saber calcular e interpretar el coeficiente de determinación

• Conocer, saber cuándo utilizar y como interpretar los coeficientes de correlación parcial y semiparcial

• Conocer, saber cuándo utilizar y como interpretar el coeficiente de correlación múltiple

2

2. Conceptos básicos previos

2.1. Varianza y cuasivarianza

En las notas anteriores se ha descrito la varianza (Descriptivos, página 4) y la cuasivarianza (Muestreo,

página 6) como una medida de dispersión de los datos:

2 ( )2

1

2

2 2

1 1

1

1

1 1

1 i

n

x i

i

n n

x i

i i

s x x

n

s x x

n n

=

= =

= −

 

= −   −  

Σ

Σ Σ

2.2. Covarianza

La covarianza 2

x y s es una medida de cuantificación de la concordancia de la desviación de dos variables:

2 ( ) ( )

1

2

1 1 1

1

1

1 1

1

n

x y i i

i

n n n

x y i i i i

i i i

s x x y y

n

s xy x y

n n

=

= = =

= − −

= −

Σ

Σ Σ Σ

2.2. Estandarización

La estandarización es un proceso de cálculo para lograr variables comparables en magnitud y dispersión.

Consiste en restar a cada observación la media y dividir este resultado por la desviación típica. Se

transforma en una distribución de media cero y varianza igual a uno.

3. Introducción

El estudio de la relación entre dos o más variables tiene una gran importancia en el Laboratorio Clínico.

Además de las aplicaciones en investigación básica, aplicada y clínica, los problemas de calibración,

validación y comparación metodológica son corrientes en el día a día.

En general, cuando se habla de medir relaciones entre dos o más variables, se habla de dos tipos de

análisis: regresión y correlación. El análisis de la regresión se utiliza para establecer las relaciones entre dos

variables, habitualmente en el contexto de un estudio prospectivo o experimental. El análisis de la

correlación, sin embargo, pretende averiguar la intensidad o fortaleza de esta relación, la proximidad de los

puntos a la línea (recta) de regresión y acostumbra a hacerse en el contexto de un estudio retrospectivo u

observacional.

La correlación es la relación medible matemáticamente mediante un número que representa la intensidad

de la relación, pero no la causalidad.

La correlación sirve para:

(a) explorar la existencia de la relación particular estadísticamente significativa entre las dos variables,

es decir, si los cambios en una son consistentes en la otra;

(b) conocer si la relación es positiva o negativa;

(c) cuantificar el grado de significación estadística de la relación, es decir, la confianza (estadística)

relacionada con dicha relación;

(d) averiguar que parte de la variación de una variable es explicada por la otra.

El análisis de la correlación implica los siguientes pasos:

(a) el estudio descriptivo mediante el “gráfico de dispersión”;

(b) la estimación del coeficiente de correlación (incluyendo su intervalo de confianza);

(c) la valoración de este coeficiente de correlación (signo y magnitud) y la significación estadística;

(d) la interpretación del coeficiente de correlación evaluando el coeficiente de determinación.

3

El análisis de la correlación tiene unas aplicaciones concretas pero tiende a ser sobreutilizado y

malinterpretado, especialmente quizás porque se asocia una alta correlación con causalidad (y viceversa).

El análisis de correlación es preferible reservarlo para generar hipótesis en lugar de para comprobarlas.

4. Apunte histórico

Francis Galton fue el primero en medir la correlación en 1888 a propósito del estudio que reaslizó para

probar la “regresión a la mediocridad” de las alturas de los hijos y la de sus padres, mencionando por

primera vez un índice de “co-relación”.

Francis Galton (1822-1911)

F. Y. Edgeworth fue el primero en utilizar el término “coeficiente de correlación” en 1892.

Francis Y. Edgeworth (1845-1926)

La fórmula de cálculo del coeficiente de correlación tal como se conoce hoy es debida a K. Pearson que la

publicó en dos trabajos aparecidos en 1896. También fue K. Pearson el primero en hacer inferencia con

grandes muestras.

Karl Pearson (1857-1936)

Sin embargo el método utilizado para estas inferencias no era demasiado bueno y Student (William Gosset)

lo demostró así en 1908.

William S. Gosset (1876-1937)

En 1915, R.A. Fisher confirmó la apreciación de Student, obteniendo además la distribución exacta del

coeficiente de correlación. Fisher propuso una transformación aproximadamente normal en 1921 que

incluyó más adelante en su influyente obra Statistical methods for research workers haciéndola accesible a

la comunidad científica. Desde 1932 se conoce como transformación de Fisher.

Ronald A. Fisher (1890-1962)

En 1896, G. U. Yule acuñó el término de “coeficientes netos” en oposición a “coeficientes brutos” para los

coeficientes de correlación entre dos variables cuando se pretende eliminar el efecto de la variación de una

tercera variable. Pearson (1897) juzgó mas oportuno denominarlos “parcial” y “total”. En 1907, una

publicación de Yule ya adoptaba esta denominación (1), aunque ya en 1896 G.U. Yule introdujo también el

concepto de correlación múltiple. Al año siguiente se refería a él como el “coeficiente de doble correlación

1 R ”y en 1907 presentó el “enésimo-coeficente de correlación” (coefficient of n-fold correlation) al que

denominó 1234... R y al que K Pearson rebautizó en 1914 (y 1915) como coeficente de “correlación múltiple”.

4

George U. Yule (1871-1951)

Otras aportaciones notables fueron obra de C. Spearman y M. Kendall. C. Spearman describió en 1904 el

coeficiente de correlación ordinal (basado en la posición ordinal de la observación y no en su valor

absoluto), y M. Kendall una alternativa diferente al de no paramétrica al

...

Descargar como (para miembros actualizados) txt (15 Kb)
Leer 8 páginas más »
Disponible sólo en Clubensayos.com