Estadistica No Parametrica
Jehovanny0718 de Julio de 2014
745 Palabras (3 Páginas)1.272 Visitas
INTRODUCCIÓN
La mayor parte de los métodos utilizados están basados en que se conoce la forma de la distribución de la población. Casi todas las pruebas hasta ahora estudiadas permitían que se estimaran algunos valores desconocidos de los parámetros a partir de valores calculados gracias a muestras elegidas al azar en una población dada. Las hipótesis se enunciaban en función del valor o valores especificados de los parámetros de la población.
Al presentarse situaciones en las que no se cumplen los supuestos, se han desarrollado numerosas pruebas estadísticas que no exigen supuestos rigurosos sobre la distribución de la población y que no requieren enunciar las hipótesis en los términos de valores especificados de los parámetros:
• De distribución libre: método de probar hipótesis o de definir un intervalo de confianza que no depende de la distribución que se esté considerando.
• No paramétricas: no hay hipótesis enunciada en términos de valores especificados de parámetros.
Las pruebas no paramétricas no deben emplearse si se pueden aplicar eficazmente los métodos paramétricos. Esto es debido a que las pruebas no paramétricas son de potencia relativamente baja en comparación con las paramétricas.
Cuando se utilizan pruebas no paramétricas debemos tomar muestras de
gran tamaño.
Ventajas de los métodos no paramétricos:
• Son fáciles de aplicar.
• Son relativamente sencillos.
• Son claros de exponer.
• Son fáciles de comprender.
Estadística no paramétrica
La estadística no paramétrica es una rama de la estadística que estudia las pruebas y modelos estadísticos cuya distribución subyacente no se ajusta a los llamados criterios paramétricos. Su distribución no puede ser definida a priori, pues son los datos observados los que la determinan. La utilización de estos métodos se hace recomendable cuando no se puede asumir que los datos se ajusten a una distribución conocida, cuando el nivel de medida empleado no sea, como mínimo, de intervalo.
Las principales pruebas no paramétricas son las siguientes:
Prueba χ² de Pearson
Prueba binomial
Prueba de Anderson-Darling
Prueba de Cochran
Prueba de Cohen kappa
Prueba de Fisher
Prueba de Friedman
Prueba de Kendall
Prueba de Kolmogórov-Smirnov
Prueba de Kruskal-Wallis
Prueba de Kuiper
Prueba de Mann-Whitney o prueba de Wilcoxon
Prueba de McNemar
Prueba de la mediana
Prueba de Siegel-Tukey
Prueba de los signos
Coeficiente de correlación de Spearman
Tablas de contingencia
Prueba de Wald-Wolfowitz
Prueba de los rangos con signo de Wilcoxon
La mayoría de estos test estadísticos están programados en los paquetes estadísticos más frecuentes, quedando para el investigador, simplemente, la tarea de decidir por cuál de todos ellos guiarse o qué hacer en caso de que dos test nos den resultados opuestos. Hay que decir que, para poder aplicar cada uno existen diversas hipótesis nulas y condiciones que deben cumplir nuestros datos para que los resultados de aplicar el test sean fiables. Esto es, no se puede aplicar todos los test y quedarse con el que mejor convenga para la investigación sin verificar si se cumplen las hipótesis y condiciones necesarias pues, si se violan, invalidan cualquier resultado posterior y son una de las causas más frecuentes de que un estudio sea estadísticamente incorrecto. Esto ocurre sobre todo cuando el investigador desconoce la naturaleza interna de los test y se limita a aplicarlos sistemáticamente.
Es
...