ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Estadisticas


Enviado por   •  16 de Abril de 2015  •  3.241 Palabras (13 Páginas)  •  121 Visitas

Página 1 de 13

En  estadística, el  análisis de la varianza  o  análisis de varianza  (ANOVA, según terminología inglesa) es una colección de  modelos estadísticos  y sus procedimientos asociados, en el cual la  varianza  está particionada en ciertos componentes debidos a diferentes  variables explicativas. Las técnicas iniciales del análisis de varianza fueron desarrolladas por el  estadístico  y  genetista  R. A. Fisher  en los años 1920 y 1930 y es algunas veces conocido como  Anova de Fisher  o  análisis de varianza de Fisher, debido al uso de la  distribución F  de Fisher como parte del  contraste de hipótesis.

 

El análisis de la varianza (o Anova:  Analysis  of  variance) es un método para comparar dos o más medias, que es necesario porque cuando se quiere comparar más de dos medias es incorrecto utilizar repetidamente el contraste basado en la  t de Student. por dos motivos:

En primer lugar, y como se realizarían simultánea e independientemente varios contrastes de hipótesis, la probabilidad de encontrar alguno significativo por azar aumentaría. En cada contraste se rechaza la H0  si la  t  supera el nivel crítico, para lo que, en la hipótesis nula, hay una probabilidad  p. Si se realizan  m  contrastesindependientes, la probabilidad de que, en la hipótesis nula, ningún estadístico supere el valor crítico es (1 -  p)m, por lo tanto, la probabilidad de que alguno lo supere es 1 - (1 -  p)m, que para valores de  p  próximos a 0 es aproximadamente igual a  p  m. Una primera solución, denominada  método de Bonferroni, consiste en bajar el valor de  p, usando en su lugar  p/m, aunque resulta un método muy conservador.

Por otro lado, en cada comparación la hipótesis nula es que las dos muestras provienen de la misma población, por lo tanto, cuando se hayan realizado todas las comparaciones, la hipótesis nula es que todas las muestras provienen de la misma población y, sin embargo, para cada comparación, la estimación de la varianza necesaria para el contraste es distinta, pues se ha hecho en base a muestras distintas.

El método que resuelve ambos problemas es el  anova, aunque es algo más que esto: es un método que permite comparar varias medias en diversas situaciones; muy ligado, por tanto, al diseño de experimentos y, de alguna manera, es la base del análisis multivariante.

 

Existen tres clases conceptuales de estos modelos:

1.   El  Modelo de efectos fijos  asume que los datos provienen de  poblaciones normales  las cuales podrían diferir únicamente en sus medias.

2.   El  Modelo de efectos aleatorios  asume que los datos describen una jerarquía de diferentes poblaciones cuyas diferencias quedan restringidas por la jerarquía. Ejemplo: El experimentador ha aprendido y ha considerado en el experimento sólo tres de muchos más métodos posibles, el método de enseñanza es un factor aleatorio en el experimento.

3.   El  Modelo de efectos mixtos  describen situaciones que éste puede tomar. Ejemplo: Si el método de enseñanza es analizado como un factor que puede influir donde están presentes ambos tipos de factores: fijos y aleatorios.

 

 

El ANOVA parte de algunos supuestos que han de cumplirse:

1.   La  variable dependiente  debe medirse al menos a nivel de intervalo.

2.   Independencia de las observaciones.

3.   La distribución de los residuales debe ser  normal.

4.   Homocedasticidad: homogeneidad de las varianzas.

 

La técnica fundamental consiste en la separación de la suma de cuadrados (SS, 'sum of squares') en componentes relativos a los factores contemplados en el modelo. Como ejemplo, mostramos el modelo para un ANOVA simplificado con un tipo de factores en diferentes niveles. (Si los niveles son cuantitativos y los efectos son lineales, puede resultar apropiado un análisis de  regresión lineal)

SSTotal  =  SSError  +  SSFactores

El número de  grados de libertad  (gl) puede separarse de forma similar y se corresponde con la forma en que la  distribución chi-cuadrado  (χ² o Ji-cuadrada) describe la suma de cuadrados asociada.

glTotal  =  glError  +  glFactores

 

Bases del análisis de la varianza

 

Supónganse  k  muestras aleatorias independientes, de tamaño  n, extraídas de una única población normal. A partir de ellas existen dos maneras independientes de estimar la varianza de la población  s2

1) Una llamada  varianza dentro de los grupos  (ya que sólo contribuye a ella la varianza dentro de las muestras), o  varianza de error, ocuadrados medios del error, y habitualmente representada por  MSE(Mean  Square  Error) o  MSW  (Mean  Square  Within) que se calcula como la media de las  k  varianzas muestrales (cada varianza muestral es un estimador centrado de  s2  y la media de  k  estimadores centrados es también un estimador centrado y más eficiente que todos ellos).  MSE  es un cociente: al numerador se le llama  suma de cuadrados del error  y se representa por  SSE  y al denominador  grados de libertad  por ser los términos independientes de la suma de cuadrados.

2) Otra llamada  varianza entre grupos  (sólo contribuye a ella la varianza entre las distintas muestras), o  varianza de los tratamientos, ocuadrados medios de los tratamientos  y representada por  MSA  o  MSB(Mean  Square  Between). Se calcula a partir de la varianza de las medias muestrales y es también un cociente; al numerador se le llamasuma de cuadrados de los tratamientos  (se le representa por  SSA)  y al denominador (k-1) grados de libertad.

MSA  y  MSE, estiman la varianza poblacional en la hipótesis de que las  kmuestras provengan de la misma población. La distribución muestral del cociente de dos estimaciones independientes de la varianza de una población  normal  es una  F  con los grados de libertad correspondientes al numerador y denominador respectivamente, por lo tanto se puede contrastar dicha hipótesis usando esa distribución.

Si en base a este contraste se rechaza la hipótesis de que  MSE  y  MSAestimen la misma varianza, se puede rechazar la hipótesis de que las  kmedias provengan de una misma población.

Aceptando que las muestras provengan de poblaciones con la misma varianza, este rechazo implica que las medias poblacionales son distintas, de modo que con un único contraste se contrasta la igualdad de  k  medias.

Existe una tercera manera de estimar la varianza de la población, aunque no es independiente de las anteriores. Si se consideran las  knobservaciones como una única muestra, su varianza muestral también es un estimador centrado de  s2:

Se suele representar por  MST,

...

Descargar como (para miembros actualizados)  txt (22 Kb)  
Leer 12 páginas más »
Disponible sólo en Clubensayos.com