ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Prueba De Fisher


Enviado por   •  12 de Mayo de 2014  •  12.885 Palabras (52 Páginas)  •  812 Visitas

Página 1 de 52

3.4. PRUEBA DE FISHER

En estadística se denomina prueba F (de Fisher) a cualquier prueba en la que el estadístico utilizado sigue una distribución F si la hipótesis nula no puede ser rechazada. En estadística aplicada se prueban muchas hipótesis mediante el test F, entre ellas:

• La hipótesis de que las medias de múltiples poblaciones normalmente distribuidas y con la misma desviación estándar son iguales. Esta es, quizás, la más conocida de las hipótesis verificada mediante el test F y el problema más simple del análisis de varianza.

• La hipótesis de que las desviaciones estándar de dos poblaciones normalmente distribuidas son iguales.

En muchos casos, el test F puede resolverse mediante un proceso directo. Se requieren dos modelos de regresión, uno de los cuales restringe uno o más de los coeficientes de regresión conforme a la hipótesis nula. El test entonces se basa en un cociente modificado de la suma de cuadrados de residuos de los dos modelos como sigue:

Dadas n observaciones, donde el modelo 1 tiene k coeficientes no restringidos, y el modelo 0 restringe m coeficientes, el test F puede calcularse como

El valor resultante debe entonces compararse con la entrada correspondiente de la tabla de valores críticos.

DEFINICIÓN

Una variable F se define como el cociente entre dos variables ji-cuadrado divididas por sus correspondientes grados de libertad.

CARACTERISTICAS

Una variable con distribución F es siempre positiva por lo tanto su campo de variación es 0 “ F “ “

La distribución de la variable es asimétrica, pero su asimetría disminuye cuando aumentan los grados de libertad del numerador y denominador.

Hay una distribución F por cada par de grados de libertad.

Parámetros: Grados de libertad asociados al numerador y denominador

¿Cómo se deduce una distribución F?

Extraiga k pares de muestras aleatorias independientes de tamaño n < 30.

Calcule para cada par el cociente de variancias que proporciona un valor de F.

Graficar los valores de F de los k pares de muestras.

Distribución F para diferentes grados de libertad.

DISTRIBUCION F DE FISHER

Recibió este nombre en honor a Sir Ronald Fisher, uno de los fundadores de la estadística moderna. Esta distribución de probabilidad se usa como estadística prueba en varias situaciones. Se emplea para probar si dos muestras provienen de poblaciones que poseen varianzas iguales. Esta prueba es útil para determinar si una población normal tiene una mayor variación que la otra y también se aplica cuando se trata de comparar simultáneamente varias medias poblacionales. La comparación simultánea de varias medias poblacionales se conoce como análisis de varianza (ANOVA). En ambas situaciones, las poblaciones deben ser normales y los datos tener al menos la escala de intervalos.

Coeficiente de asimetría de Fisher

Cuando al trazar una vertical, en el diagrama de barras o histograma, de una variable, según sea esta discreta o continua, por el valor de la media, esta vertical, se transforma en eje de simetría, decimos que la distribución es simétrica. En caso contrario, dicha distribución será asimétrica o diremos que presenta asimetría.

R. A. Fisher, quien fue el primero en obtener la distribución y desarrollar la prueba, de ahí el nombre dela distribución. La prueba f se utiliza principalmente para probar la igualdad entre dos varianzaspoblacionales que provienen de poblaciones que tiene una distribución normal, también se hadesarrollado un procedimiento basado en esta prueba para investigar la igualdad entre tres ó másmedias poblacionales, procedimiento que comúnmente se denomina análisis de varianza (ANOVA).El estadístico de prueba para la prueba F es la razón de los estimadores insesgados de de dosvarianzas poblacionales.

la que podemos apreciar la figura inicial.

3.5. COMPARACION DE DOS MUESTRAS PARIADAS

Preparado por Luis M. Molinero (Alce Ingeniería)

CorreoE: bioestadistica alceingenieria.net

Mayo 2003 Artículo en formato PDF

www.seh-lelha.org/stat1.htm

Una de las hipótesis sobre las que habitualmente se fundamentan las pruebas estadísticas de comparación de grupos es que las observaciones pertenecientes a cada una de las muestras son independientes entre sí, no guardan relación; siendo precisamente ese uno de los objetivos de la aleatorización (elección aleatoria de los sujetos o unidades de observación, asignación aleatoria del tratamiento a cada paciente, etc). Sin embargo, como veremos en este artículo, la falta de independencia entre las observaciones de los grupos puede ser una característica de diseño del estudio para buscar fundamentalmente una mayor eficiencia del contraste estadístico al disminuir la variabilidad. En otras ocasiones con este tipo de diseño pareado lo que se busca es dar una mayor validez a las inferencias obtenidas, controlando o eliminando la influencia de variables extrañas cuyo efecto ya es conocido o sospechado, y no se desea que intervenga en el estudio actual pudiendo enmascarar el efecto del tratamiento o de la variable de interés.

Pruebas pareadas para variables cuantitativas

Si estamos comparando un resultado cuantitativo en dos grupos de datos, a partir de muestras extraídas de forma aleatoria de una población normal, siendo nA el tamaño de la primera muestra y nB el de la segunda, la cantidad:

(donde son las medias muestrales, las correspondientes medias poblacionales, s la desviación típica muestral conjunta), se distribuye como una t de Student con nA+nB-2 grados de libertad, proporcionándonos una referencia probabilística con la que juzgar si el valor observado de diferencia de medias nos permite mantener la hipótesis planteada, que será habitualmente la hipótesis de igualdad de las medias (por ejemplo igualdad de efecto de los tratamientos), o lo que es lo mismo nos permite verificar si es razonable admitir que

...

Descargar como (para miembros actualizados)  txt (72.8 Kb)  
Leer 51 páginas más »
Disponible sólo en Clubensayos.com