ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

CORRELACION Y REGRESION


Enviado por   •  23 de Julio de 2013  •  4.873 Palabras (20 Páginas)  •  282 Visitas

Página 1 de 20

CORRELACION Y REGRESION

INTRODUCCION

Regresión es una palabra un tanto rara. La utilizan los biólogos, los médicos, lospsicólogos... y suena como "ir hacia atrás", "volver al pasado", y realmente este esverdadero significado del vocablo.

Fue un biólogo y estadístico inglés, SIR FRANCIS GALTON*, quien introdujo en1889 el término regresión en Estadística. Empleó este concepto para indicar la relaciónque existía entre la estatura de los niños de una muestra y la estatura de su padre.

Observó, que si los padres son altos, los hijos generalmente también lo son, y si lospadres son bajos los hijos son también de menor estatura. Pero ocurría un hechocurioso: cuando el padre es muy alto o muy bajo, aparece una perceptible "regresión"hacia la estatura media de la población, de modo que sus hijos retroceden hacia lamedia de la que sus padres, por cierto, están muy alejados. Hoy día, el término no seutiliza en ese sentido.

En muchas ocasiones, se desea conocer algo acerca de la relación o dependenciaentre dos características cuantitativas, o másde una, consideradas sobre la mismapoblación objeto de estudio (por ejemplo la talla y el peso). Hay muchos casos en losque ya de antemano se "sospecha" que puede existir algún tipo de relación, y porconsiguiente, se pretende saber por ejemplo, en el caso de que tengamos únicamente dosvariables:

1.- Si ambas variables están realmente relacionadas entre sí o si, por elcontrario, pueden considerarse independientes.

2.- Si existe dependencia, es necesario conocer el "grado de relación", asícomo el "tipo" de relación entre ambas.

3.- Si puede predecirse la variable que es considerada como dependiente apartir de los valores de la otra, que es considerada independiente, y si es así, con que precisión.

CORRELACION

Como hemos visto con anterioridad, al analizar las relaciones existentes entre dos variables aleatorias cuantitativas, deberemos responder a las preguntas, de si existe dependencia estocástica entre ellas y de qué grado. El análisis de correlación nos dará respuesta a dichas preguntas.

PRUEBA DE INDEPENDENCIA DE DOS CARACTERES CUANTITATIVOS

Dos variables X e Y son independientes, es decir, no están relacionadas, cuando lavariable Y tiene el mismo valor, en media, sea cual sea el valor de la variable X yviceversa.

Como sabemos, la covarianza podía ser una medida que noshabla de la dependencia entre las dos variables. Sin embargo, la covarianza presenta elinconveniente de que no se trata de una medida adimensional, y por lo tanto se hacenecesario conocer la fuerza de la relación -si existe- así como poder realizarcomparaciones entre parejas de variables que vienen medidas en unidades diferentes.

Por ello, y dado que viene medida en unidades de la variable X por unidades de lavariable Y, la dividimos entre las correspondientes desviaciones típicas, obteniendo así,el denominado Coeficiente de correlación lineal de Pearson y que denotamos con unar minúscula:

Es importante fijarnos en que hemos denominado a dicho coeficiente: coeficientede correlación lineal de Pearson. El "apellido lineal" es conveniente utilizarlo porquedicho coeficiente solo tiene potencia para analizar si la relación entre las dos variableses o no de tipo lineal. Si las variables son independientes, es un hecho de que elcoeficiente de correlación lineal debe ser cero. Sin embargo, si el coeficiente decorrelación lineal es 0, no implica que las variables sean independientes, simplementeque la relación no es lineal. Como vemos, el coeficiente de correlación lleva asociado el mismo signo que lacovarianza, por lo que si éste resulta ser positivo, indicará que se trata de una relaciónlineal directa, mientras que si es negativo, la relación será inversa.

RELACIÓN ENTRE r Y R2

Una propiedad sumamente importante del coeficiente de correlación r es que si el

procedimiento de ajuste de la recta de regresión es el del criterio de los mínimos

cuadrados, resulta:

r2 = R2

En el apartado 6.1.3.2 vimos que el coeficiente de determinación era un valor

acotado entre 0 y 1. Teniendo en cuenta la relación anterior, podemos asegurar que el coeficiente de correlación es un valor acotado entre -1 y +1. Si r=+1, existe una correlación positiva perfecta, y si r=-1, análogamente pero negativa (en ambos casos R2=1, por lo tanto no hay errores, sería una dependencia funcional). A nivel muestral, es difícil encontrarnos con un valor de r = 0 aun cuando las variables sean independientes, de modo que podríamos pensar que cuanto más se acerque r a 1, el grado de relación entre X e Y será más fuerte. ¿Sin embargo, a partir de qué valor muestral de r decidiremos que las variables son independientes, y a partir de cuál diremos que están relacionadas?

DISTRIBUCIÓN DEL COEFICIENTE DE CORRELACIÓN MUESTRAL

Para dar respuesta a la pregunta anterior, se ha estudiado la ley de probabilidad de los coeficientes de correlación observados en muestras extraídas al azar de una población en la que se sabe que X e Y son independientes, es decir, que el coeficiente de correlación poblacional () es 0.

Al extraer muestras de dicha población, los coeficientes de correlación muestral

obtenidos, fluctúan alrededor de cero en forma simétrica, lo cual no ocurre si es

distinto de cero. Por ello, se ha construido una tabla en la que aparece el valor de r, que sólo era superado en el 5% (o el 1%) de las muestras extraídas de la población con =0;

En la primera columna de la tabla aparece el tamaño de muestra n -2.

grados de

libertad (n-2) 5% 1% grados de

libertad (n-2) 5% 1%

1

2

3

4

5

6

7

8

9

10

...

Descargar como (para miembros actualizados)  txt (34 Kb)  
Leer 19 páginas más »
Disponible sólo en Clubensayos.com