ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

DISEÑOS DE EXPERIMENTOS


Enviado por   •  30 de Marzo de 2016  •  Tareas  •  3.089 Palabras (13 Páginas)  •  242 Visitas

Página 1 de 13

DISEÑOS DE EXPERIMENTOS

En el estudio experimental de un fenómeno se plantea una hipótesis, para cuya prueba diseña un procedimiento de ejecución, que denomina diseño del experimento. Esta hipótesis, al ser probada requiere generalizarla a un espectro más amplio que aquel de su experimento, asociándole una medida de probabilidad o confiabilidad.

En otras palabras, se dice que el diseño de experimento es una prueba o serie de pruebas en las cuales se introducen cambios deliberados en las variables de entrada que forman el proceso, de manera que sea posible observar e identificar las causas de los cambios en la variable de salida.

Principios básicos de diseño de experimento

Aleatorización: la asignación de las unidades experimentales a los distintos tratamientos y el orden en el que se realizan los ensayos se determinan al azar.

Replicación.

Homogeneidad del material experimental.

ANALISIS DE VARIANZA

La técnica del Análisis de la Varianza (ANOVA o AVAR) es una de las técnicas más utilizadas en los análisis de los datos de los diseños experimentales. Se utiliza cuando queremos contrastar más de dos medias, por lo que puede verse como una extensión de la prueba t para diferencias de dos medias.

El ANOVA es un método muy flexible que permite construir modelos estadísticos para el análisis de los datos experimentales cuyo valor ha sido constatado en muy diversas circunstancias. Básicamente es un procedimiento que permite dividir la varianza de la variable dependiente en dos o más componentes.

Caracterizar los modelos experimentales para el análisis de varianza

El anova permite distinguir dos modelos para la hipótesis alternativa:

Modelo I o de efectos fijos: donde sólo se estudian determinados niveles del factor y únicamente se persigue sacar conclusiones para cada factor. También, es aquel, en el cual la H1 supone que las k muestras son muestras de k poblaciones distintas y fijas.

Un valor individual se puede escribir en este modelo como:

 es la media global, i es la constante del efecto, o efecto fijo, que diferencia a las k poblaciones. También se puede escribir:

Representa la desviación de la observación j-ésima de la muestra i-ésima, con respecto a su media. A este término se le suele llamar error aleatorio y, teniendo en cuenta las asunciones iniciales del análisis de la varianza son k variables (una para cada muestra), todas con una distribución normal de media 0 y varianza s2.

Modelo II o de efectos aleatorios: en este caso los niveles o categorías son infinitas y estudiamos una muestra de los mismos. También, es aquel, en el cual se supone que las k muestras, se han seleccionado aleatoriamente de un conjunto de m>k poblaciones.

En este modelo se asume que las k muestras son muestras aleatorias de k situaciones distintas y aleatorias. De modo que un valor aislado Yij se puede escribir como:

Donde  es la media global, ij son variables (una para cada muestra) distribuidas normalmente, con media 0 y varianza s2 (como en el modelo I) y Ai es una variable distribuida normalmente, independiente de las ij, con media 0 y varianza

PRUEBA DE HOMOGENEIDAD

La Homogeneidad También conocida como homocedasticidad; se dice que un modelo predictivo presenta homocedasticidad cuando la varianza del error de la variable endógena se mantiene a lo largo de las observaciones. En otras palabras, la varianza de los errores es constante.

Existen muchas pruebas para verificar si el supuesto de homogeneidad es posible o no, pero, dada la complejidad del problema, no es posible realizar estudios comparativos entre ellas que sean exhaustivos, ni de su comportamiento para muestras pequeñas, ya que muchas de ellas son de carácter asintótico.

Prueba de bartlett

Introducida por Bartlett en 1937, es una modificación del test de Neyman y Pearson para “corregir el sesgo”; esta prueba es la que se utiliza con más frecuencia para probar la homogeneidad de las varianzas. En esta prueba los ni en cada tratamiento no necesitan ser iguales; sin embargo, se recomienda que los ni no sean menores que 3 y muchos de los ni deben ser mayores que 5.

El estadístico de prueba se define como:

Donde:

Cuando la hipótesis nula es cierta, el estadístico tiene distribución aproximadamente X2 con k − 1 grados de libertad; cuando el muestreo se realiza en poblaciones normales, la aproximación es buena para muestras bastante pequeñas (Layard 1973). No requiere que los tamaños de las muestras sean iguales. Es muy sensible a alejamientos del supuesto de normalidad.

Prueba de Cochran

La prueba introducida por Cochran (1941) era considerablemente de más fácil computo que las otras pruebas en ese tiempo. El estadístico de prueba es:

Cuando todas las muestras son de igual tamaño n = n1 = n2 = • • • = nk, la hipótesis acerca de la igualdad de varianzas es rechazada si g > gα,n,k donde el valor gα,n,k se obtiene de la tabla de valores críticos para la prueba de Cochran en tablas especiales. Cuando el número de observaciones en cada tratamiento no sea igual pero sea relativamente cercano, el mayor de los ni puede usarse en lugar de n para determinar los grados de libertad requeridos en las tablas. La prueba de Cochran es en particular ´útil para detectar si una varianza es mucho más grande que las otras (Walpole & Myers 1989).

Prueba de Tukey

La prueba de Diferencia Significativa Honesta (DSH) desarrollado Tukey (1953) propuso un procedimiento para testar la hipótesis nula, con siendo exactamente el nivel global de significancia, cuando las muestras tienen tamaños iguales, y en el máximo α, cuando las muestras tienen tamaños diferentes.

El test de Tukey utiliza la distribución de la estadística de amplitud en la forma de Student.

Siendo: Ўmax , Ўmin la mayor y menor

...

Descargar como (para miembros actualizados)  txt (19.2 Kb)   pdf (129.2 Kb)   docx (18.8 Kb)  
Leer 12 páginas más »
Disponible sólo en Clubensayos.com