Pruebas De Bondad De Ajuste
88072123 de Abril de 2015
887 Palabras (4 Páginas)904 Visitas
Introducción:
Una de las bases fundamentales del control estadístico de la calidad es la inferencia estadística. Por ello, la determinación del tipo de distribución correspondiente a un conjunto de datos provenientes del estudio es absolutamente necesaria.
La prueba de bondad de ajuste permite probar el ajuste de los resultados de un experimento a una distribución de probabilidad teórica sujeto a un error o nivel de confianza.
Algunos estudios producen datos cualitativos, como habilidades o rasgos, que no representan magnitudes pero se pueden clasificar en diferentes clases. Las pruebas no paramétricas, también conocidas como “pruebas de bondad de ajuste” sirven para analizar la distribución de estos datos y determinar si existen diferencias significativas entre los resultados obtenidos y los resultados esperados.
Las pruebas de Bondad de Ajuste más comúnmente conocidas, son:
Anderson-Darling
Chi-Cuadrada
Kolmogorov-Smirnov
La prueba Chi-Cuadrada se emplea tanto para distribuciones continuas como para discretas, mientras que la de Kolmogorov-Smirnov como la de Anderson Darling se emplean sólo para distribuciones continúas.
Desarrollo:
Prueba De Anderson-Darling
La prueba de Anderson-Darling es usada para probar si una muestra viene de una distribución especifica. Esta prueba es una modificación de la prueba de KolmogorovSmirnov donde se le da más peso a las colas de la distribución que la prueba de Kolmogorov-Smirnov.
En estadística, la prueba de Anderson-Darling es una prueba no paramétrica sobre si los datos de una muestra provienen de una distribución específica.
La fórmula para el estadístico determina si los datos (observar que los datos se deben ordenar) vienen de una distribución con función acumulativa F. Formulas:
A2 = − N − S
Donde: El estadístico de la prueba se puede entonces comparar contra las distribuciones del estadístico de prueba (dependiendo que F se utiliza) para determinar el valor.
Prueba De Chi-cuadrada
La prueba Chi-cuadrado (X2) mide la divergencia entre la distribución obtenida de una muestra y la distribución que teóricamente debió de haber tenido esa muestra.
La prueba se basa en la comparación entre las frecuencias observadas (fo) y las frecuencias esperadas (fe). De tal manera que se crean dos hipótesis: la hipótesis nula que establece que no existe una diferencia significativa entre la distribución observada y la esperada (Ho: fo=fe); y la hipótesis alterna que señala que los datos no siguen la distribución supuesta (Ha: fo≠fe).
Si existe una gran diferencia según la significancia (α) entre la frecuencia observada y la esperada, se crea duda sobre la exactitud de la proporción de la hipótesis. Para saber si dicha diferencia es “grande” o “pequeña” se utiliza el estadístico de prueba que es la sumatoria de los residuos expresados en términos de frecuencia esperada para cada una de las clases:
X^2=∑〖(fo-fe)〗^2/fe
En cuanto mayor sea el valor de Chi cuadrada, es menos probable que la hipótesis nula sea la correcta. De igual modo, mientras más cercano sea el valor de Chi cuadrada a cero, más ajustadas están las distribuciones.
Para mayor exactitud, es necesario considerar los valores críticos que al ser rebasados, indican que las distribuciones están desajustadas. Estos valores críticos dependen de los “grados de libertad” que corresponden al número de clases menos uno. Cuando el valor calculado de Chi cuadrada rebasa al valor crítico de Chi cuadrada, es posible rechazar la hipótesis nula con un riesgo menor al nivel de significancia de 0.05.
Prueba De Kolmogorov Smirnov
En esta prueba también se está interesado en el grado de concordancia entre la distribución de frecuencia muestral y la distribución
...