ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Varianza


Enviado por   •  25 de Enero de 2014  •  Informes  •  1.538 Palabras (7 Páginas)  •  317 Visitas

Página 1 de 7

 Que es varianza: Se trata de una palabra impulsada por el matemático y científico inglés Ronald Fisher (1890-1962) y sirve para identificar a la media de las desviaciones cuadráticas de una variable de carácter aleatorio, considerando el valor medio de ésta.

La varianza de las variables aleatorias, por lo tanto, consiste en una medida vinculada a su dispersión. Se trata de la esperanza del cuadrado de la desviación de esa variable considerada frente su media y se mide en una unidad diferente.

 Análisis de varianza: es una colección de modelos estadísticos y sus procedimientos asociados, en el cual la varianza está particionada en ciertos componentes debidos a diferentes variables explicativas.

Las técnicas iniciales del análisis de varianza fueron desarrolladas por el estadístico y genetista R. A. Fisher en los años 1920 y 1930 y es algunas veces conocido como "Anova de Fisher" o "análisis de varianza de Fisher", debido al uso de la distribución F de Fisher como parte del contraste de hipótesis.

 Tipos de modelo:

El anova permite distinguir dos modelos para la hipótesis alternativa:

Modelo I o de efectos fijos en el que la H1 supone que las k muestras son muestras de k poblaciones distintas y fijas.

Modelo II o de efectos aleatorios en el que se supone que las k muestras, se han seleccionado aleatoriamente de un conjunto de m>k poblaciones.

Un ejemplo de modelo I de anova es el Ejemplo 1, porque en él se asume que existen cinco poblaciones (sin tratamiento, con poca sal, sin sal, etc.) fijas, de las que se han extraído las muestras.

Un ejemplo de modelo II sería: un investigador está interesado en determinar el contenido, y sus variaciones, de grasas en las células hepáticas de cobayas; toma del animalario 5 cobayas al azar y les realiza, a cada una, 3 biopsias hepáticas.

La manera más sencilla de distinguir entre ambos modelos es pensar que, si se repitiera el estudio un tiempo después, en un modelo I las muestras serían iguales (no los individuos que las forman) es decir corresponderían a la misma situación, mientras que en un modelo II las muestras serían distintas.

Aunque las asunciones iniciales y los propósitos de ambos modelos son diferentes, los cálculos y las pruebas de significación son los mismos y sólo difieren en la interpretación y en algunas pruebas de hipótesis suplementarias.

 Modelo de efecto fijo: un modelo de efectos fijos es un modelo estadístico son representa las cantidades observadas en las variables explicativas que raste con el Modelo de efectos aleatorios y el Modelo mixto en los que todas o algunas de las variables explicativas son tratadas como si se derivarán de causas aleatorias. tratadas como si las cantidades fueran no-aleatorias.

 Modelo de efectos aleatorios: En lo expuesto en este capítulo se supone que el factor tratamiento del modelo de diseño completamente aleatorizado es de efectos fijos, esto es, los niveles del factor son seleccionados específicamente por el experimentador ya que el interés del experimento se centra en conocer los efectos sobre la respuesta de estos niveles particulares. En este caso los efectos del factor (ai) son “constantes” desconocidas (parámetros). Los modelos conteniendo únicamente efectos fijos se denominan también modelos de efectos fijos.

 Modelo de efectos mixtos: Propuesta de análisis estadístico que pr

oporciona un entorno óptimo para responder a las cuestiones de un estudio con diseño experimental complejo, permite modelizar simultáneamente:

- la media del fenómeno estudiado

- su variabilidad

- particularmente, observaciones correlacionadas.

 Grado de libertad: En estadística, grados de libertad, expresión introducida por Ronald Fisher, dice que, de un conjunto de observaciones, los grados de libertad están dados por el número de valores que pueden ser asignados de forma arbitraria, antes de que el resto de las variables tomen un valor automáticamente, producto de establecerse las que son libres, esto, con el fin de compensar e igualar un resultado el cual se ha conocido previamente. Se encuentran mediante la fórmula n-r, donde n=número de sujetos en la muestra que puede tomar un valor de forma libre y r es el número de sujetos cuyo valor dependerá del que tomen los miembros de la muestra que son libres. También pueden ser representados por k-r, donde k=número de grupos, esto, cuando se realizan operaciones con grupos y no con sujetos individuales.

 Prueba de significación:

Las pruebas de significación sirven para comparar variables entre distintas muestras. Si la distribución de la muestra es normal se aplican los llamados tests paramétricos. Si la distribución no puede asumirse normal se aplican las pruebas no paramétricas. Hay que tener siempre en cuenta que los tests paramétricos son más potentes y dan más información que los no paramétricos, por lo que, si pueden usarse, se prefieren. El uso indiscriminado de muestras de distribución fuera de la normalidad conlleva el peligro de obtener conclusiones erróneas.

En general, con pocos datos, es preferible, si no es difícil ni conlleva un alto coste de tiempo y dinero, realizar más determinaciones para poder aplicar pruebas paramétricas al lograr una distribución normal. El teorema del límite nos dice que si el tamaño de la muestra es suficiente, la distribución siempre tiende a ser normal, lo que juega a nuestro favor. También hay que tener presente que la mayoría de las veces no hay suficiente tiempo y dinero para realizar un número elevado de pruebas

...

Descargar como (para miembros actualizados)  txt (9.5 Kb)  
Leer 6 páginas más »
Disponible sólo en Clubensayos.com