ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Prueba De Fisher

upav2612 de Mayo de 2014

12.885 Palabras (52 Páginas)883 Visitas

Página 1 de 52

3.4. PRUEBA DE FISHER

En estadística se denomina prueba F (de Fisher) a cualquier prueba en la que el estadístico utilizado sigue una distribución F si la hipótesis nula no puede ser rechazada. En estadística aplicada se prueban muchas hipótesis mediante el test F, entre ellas:

• La hipótesis de que las medias de múltiples poblaciones normalmente distribuidas y con la misma desviación estándar son iguales. Esta es, quizás, la más conocida de las hipótesis verificada mediante el test F y el problema más simple del análisis de varianza.

• La hipótesis de que las desviaciones estándar de dos poblaciones normalmente distribuidas son iguales.

En muchos casos, el test F puede resolverse mediante un proceso directo. Se requieren dos modelos de regresión, uno de los cuales restringe uno o más de los coeficientes de regresión conforme a la hipótesis nula. El test entonces se basa en un cociente modificado de la suma de cuadrados de residuos de los dos modelos como sigue:

Dadas n observaciones, donde el modelo 1 tiene k coeficientes no restringidos, y el modelo 0 restringe m coeficientes, el test F puede calcularse como

El valor resultante debe entonces compararse con la entrada correspondiente de la tabla de valores críticos.

DEFINICIÓN

Una variable F se define como el cociente entre dos variables ji-cuadrado divididas por sus correspondientes grados de libertad.

CARACTERISTICAS

Una variable con distribución F es siempre positiva por lo tanto su campo de variación es 0 “ F “ “

La distribución de la variable es asimétrica, pero su asimetría disminuye cuando aumentan los grados de libertad del numerador y denominador.

Hay una distribución F por cada par de grados de libertad.

Parámetros: Grados de libertad asociados al numerador y denominador

¿Cómo se deduce una distribución F?

Extraiga k pares de muestras aleatorias independientes de tamaño n < 30.

Calcule para cada par el cociente de variancias que proporciona un valor de F.

Graficar los valores de F de los k pares de muestras.

Distribución F para diferentes grados de libertad.

DISTRIBUCION F DE FISHER

Recibió este nombre en honor a Sir Ronald Fisher, uno de los fundadores de la estadística moderna. Esta distribución de probabilidad se usa como estadística prueba en varias situaciones. Se emplea para probar si dos muestras provienen de poblaciones que poseen varianzas iguales. Esta prueba es útil para determinar si una población normal tiene una mayor variación que la otra y también se aplica cuando se trata de comparar simultáneamente varias medias poblacionales. La comparación simultánea de varias medias poblacionales se conoce como análisis de varianza (ANOVA). En ambas situaciones, las poblaciones deben ser normales y los datos tener al menos la escala de intervalos.

Coeficiente de asimetría de Fisher

Cuando al trazar una vertical, en el diagrama de barras o histograma, de una variable, según sea esta discreta o continua, por el valor de la media, esta vertical, se transforma en eje de simetría, decimos que la distribución es simétrica. En caso contrario, dicha distribución será asimétrica o diremos que presenta asimetría.

R. A. Fisher, quien fue el primero en obtener la distribución y desarrollar la prueba, de ahí el nombre dela distribución. La prueba f se utiliza principalmente para probar la igualdad entre dos varianzaspoblacionales que provienen de poblaciones que tiene una distribución normal, también se hadesarrollado un procedimiento basado en esta prueba para investigar la igualdad entre tres ó másmedias poblacionales, procedimiento que comúnmente se denomina análisis de varianza (ANOVA).El estadístico de prueba para la prueba F es la razón de los estimadores insesgados de de dosvarianzas poblacionales.

la que podemos apreciar la figura inicial.

3.5. COMPARACION DE DOS MUESTRAS PARIADAS

Preparado por Luis M. Molinero (Alce Ingeniería)

CorreoE: bioestadistica alceingenieria.net

Mayo 2003 Artículo en formato PDF

www.seh-lelha.org/stat1.htm

Una de las hipótesis sobre las que habitualmente se fundamentan las pruebas estadísticas de comparación de grupos es que las observaciones pertenecientes a cada una de las muestras son independientes entre sí, no guardan relación; siendo precisamente ese uno de los objetivos de la aleatorización (elección aleatoria de los sujetos o unidades de observación, asignación aleatoria del tratamiento a cada paciente, etc). Sin embargo, como veremos en este artículo, la falta de independencia entre las observaciones de los grupos puede ser una característica de diseño del estudio para buscar fundamentalmente una mayor eficiencia del contraste estadístico al disminuir la variabilidad. En otras ocasiones con este tipo de diseño pareado lo que se busca es dar una mayor validez a las inferencias obtenidas, controlando o eliminando la influencia de variables extrañas cuyo efecto ya es conocido o sospechado, y no se desea que intervenga en el estudio actual pudiendo enmascarar el efecto del tratamiento o de la variable de interés.

Pruebas pareadas para variables cuantitativas

Si estamos comparando un resultado cuantitativo en dos grupos de datos, a partir de muestras extraídas de forma aleatoria de una población normal, siendo nA el tamaño de la primera muestra y nB el de la segunda, la cantidad:

(donde son las medias muestrales, las correspondientes medias poblacionales, s la desviación típica muestral conjunta), se distribuye como una t de Student con nA+nB-2 grados de libertad, proporcionándonos una referencia probabilística con la que juzgar si el valor observado de diferencia de medias nos permite mantener la hipótesis planteada, que será habitualmente la hipótesis de igualdad de las medias (por ejemplo igualdad de efecto de los tratamientos), o lo que es lo mismo nos permite verificar si es razonable admitir que a la luz de los datos obtenidos en nuestro experimento.

Veamos un pequeño ejemplo. Se efectuó un estudio para comparar dos tratamientos en cuanto a la mejoría en la salud percibida, determinada mediante un cuestionario de calidad de vida en pacientes hipertensos. Se asignaron 10 pacientes de forma aleatoria a cada uno de los grupos de tratamiento, obteniéndose los siguientes resultados:

Tabla 1

Trat. A 5.2 0.2 2.9 6.3 2.7 -1.4 1.5 2.8 0.8 5.3

Trat. B 6.0 0.8 3.2 6.2 3.8 -1.6 1.8 3.3 1.3 5.6

Si calculamos el valor de t según la fórmula anterior (o utilizando la calculadora disponible en el enlace que indicamos más abajo) obtenemos:

Tabla 2

Dif.medias 0.41

Err.est.dif. 1.11

t Student 0.37

gl 18

P 0.7165

Intervalo 95% para la dif. de medias -1.93 a 2.75

Tabla 3

Trat. A Trat. B

Media 2,63 3,04

Desv.Típ. 2,45 2,52

Figura 1

De acuerdo con esos resultados, al ser la probabilidad obtenida alta, vemos que no hay razones para rechazar la hipótesis de que no existe diferencia entre los grupos (P= 0.7165), aceptamos que las medias son iguales, lo que podemos también comprobar de forma gráfica, si representamos cada serie de valores en dos posiciones del eje X, obteniendo un gráfico como el representado en la figura 1.

Ahora bien, sabemos que dos variables que influyen en los resultados de los cuestionarios de calidad de vida percibida son la edad y el sexo de los pacientes. Al asignar de forma aleatoria los pacientes a cada grupo de tratamiento esperamos que las variables que puedan influir en el resultado, diferentes del propio tratamiento asignado, se distribuyan en ambos grupos de forma parecida; pero cuando de antemano conocemos que algunas variables sí influyen en el parámetro objeto de estudio, podemos controlarlas en el diseño para evitar que puedan afectar al resultado, sobre todo cuando vamos a trabajar con una muestra pequeña.

Así en nuestro ejemplo podemos dividir los pacientes dentro de cada sexo en varios grupos de edad y buscar parejas de pacientes con el mismo sexo y con edades similares. Dentro de cada pareja, seleccionada con ese criterio (igual sexo y edad similar), asignamos de forma aleatoria cada uno de los tratamientos.

Esto es lo que precisamente habíamos hecho en el estudio de la tabla 1: habíamos dividido la edad en 5 categorías y seleccionado 5 parejas de hombres y 5 de mujeres en cada grupo de edad. Dentro de cada par hemos asignado de forma aleatoria el tratamiento A o el B a cada uno de sus elementos.

En este caso hemos "diseñado" un estudio, en el que mediante el emparejamiento estamos controlando (o bloqueando) la influencia de las variables edad y sexo.

Ahora en el análisis estadístico de los datos, para tener en cuenta el diseño, hay que comparar cada pareja de valores entre sí.

Pero antes de hacer un análisis estadístico vamos a representar gráficamente el nuevo planteamiento.

Si calculamos las diferencias entre el valor del elemento B y el elemento A y las representamos gráficamente obtenemos la figura 2, donde hemos dibujado una línea horizontal en el valor 0, que corresponde a la igualdad entre los tratamientos.

Figura 2

Vemos que el panorama cambia radicalmente con respecto a la figura 1, ya que ahora la mayor parte de los puntos están por encima de esa línea de igualdad de efecto, reflejando una mayor puntuación por término medio en el tratamiento B que en el A dentro de las parejas.

En la siguiente

...

Descargar como (para miembros actualizados) txt (73 Kb)
Leer 51 páginas más »
Disponible sólo en Clubensayos.com