ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Preguntas


Enviado por   •  27 de Junio de 2015  •  1.503 Palabras (7 Páginas)  •  3.832 Visitas

Página 1 de 7

Contesta las siguientes preguntas

1. ¿Cuáles son las seis principales fuentes de variación que pueden ocurrir en una medición?

• Bias. Es la diferencia entre el procedimiento de una serie de mediciones y algún valor de referencia conocido. Algunas veces es denominado precisión, pero bias es el término generalmente aceptado.

El termino bias se puede definir gráficamente como la desviación que tiene el proceso vista desde un punto de referencia ya establecido (por ejemplo, el centro del circulo); es decir, que tan certero es un proceso para lograr el punto o valor de referencia predeterminado. Un proceso puede ser preciso pero no certero para lograr el objetivo o su meta. La desviación hacia la meta se llama bias.

• Estabilidad. Es la variación en el tiempo para el mismo sistema de medición y la(s) misma(s) pieza(s). A veces se denomina deriva.

Se puede definir estabilidad como el grado de variación que existe en un proceso a lo largo del tiempo. Algunos procesos suelen comportarse de manera excelente en el corto plazo, pero a medida que pasa el tiempo, estos se van degradando y, por ende, presentando ciertas variaciones que ocasiones lecturas erróneas.

• Linealidad. E la diferencia en los valores de bias sobre el rango esperado de operación del sistema de medición. El indicador de linealidad se puede expresar gráficamente como la variación que existe cuando en un sistema de medición hay un movimiento, pero este está relacionado cuando el rango de las mediciones se sale de algunos valores determinados.

• Repetibilidad. Es la variabilidad inherente debida al sistema de medición: una pieza medida con el mismo sistema de medición por el mismo evaluador en múltiples ocasiones. Algunas veces se denomina ruido.

Si en un sistema nada cambia (operador, piezas, variables importantes), pero al momento de evaluar cada evento existe cierta variación inherente al proceso por el solo hecho de repetirse y tener condiciones no controlables. Normalmente este tipo de variaciones se deben a temas ambientales o situaciones que están fuera del control tanto del operador como del sistema.

• Reproducibilidad. Es la variación promedio de las mediciones hechas por diferentes evaluadores utilizando el mismo sistema de medición en la misma pieza. También podría representar la variación a través de diferentes sistemas de medición si se utiliza la misma pieza.

Este factor está relacionado con la operación del sistema por diferentes operadores. Cada uno de ellos ofrecerá una manera diferente de realizar un proceso, y por ende, este ocasionara cierta variación al sistema. En la gráfica se puede observar que existe una variación definida entre los operadores A, B y C que afectaran en mayor o menor medida al proceso.

2. ¿Qué es el coeficiente de correlación intraclase y cómo se calcula?

Desde el punto de vista matemático, el índice más apropiado para cuantificar la concordancia entre diferentes mediciones de una variable numérica es el llamado coeficiente de correlación intraclase (CCI). Dicho coeficiente estima el promedio de las correlaciones entre todas las posibles ordenaciones de los pares de observaciones disponibles y, por lo tanto, evita el problema de la dependencia del orden del coeficiente de correlación. Así mismo, extiende su uso al caso en el que se disponga de más de dos observaciones por sujeto.

Sin embargo, una de las principales limitaciones del CCI es la dificultad de su cálculo, ya que debe ser estimado de distintas formas dependiendo del diseño del estudio. La forma de cálculo más habitual se basa en un modelo de análisis de la varianza (ANOVA) con medidas repetidas. La idea es que la variabilidad total de las mediciones se puede descomponer en dos componentes: la variabilidad debida a las diferencias entre los distintos sujetos y la debida a las diferencias entre las medidas para cada sujeto. Esta última, a su vez, depende de la variabilidad entre observaciones y una variabilidad residual o aleatoria asociada al error que conlleva toda medición. El CCI se define entonces como la proporción de la variabilidad total que se debe a la variabilidad de los sujetos.

En la actualidad el valor del CCI puede obtenerse de modo directo con algunos programas informáticos como el SPSS. Otra forma sencilla de obtener el valor del CCI es a partir de una tabla ANOVA para medidas repetidas.

Supón que se miden muchas piezas dos veces cada una en el mismo sistema de medición y se grafica la primera medición observada contra la segunda. El resultado es una distribución normal de dos variables, la cual se ejemplifica en la figura que a continuación se muestra:

3.

De la gráfica anterior se puede definir una distribución normal compuesta de dos variables; se debería esperar una elipse ‘más estrecha’ si el error de medición es pequeño, y una elipse ‘más ancha’ si el error de medición es grande. Esto llevará a definir al índice de discriminación como una medida de correlación.

La matriz de covarianza que define la distribución normal de dos variables para el modelo de intraclase está dada por Σ, donde Σ es:

4.

El valor eigen de Σ correspondiente al eje mayor es λ1 = σy2 (1 + ρ), y el valor eigen correspondiente al eje menor es λ2 = σy2 (1 - ρ); recordando que el valor eigen es la varianza a lo largo de uno de los ejes ortogonales, el índice de discriminación (D) es definido como una relación entre las longitudes del eje mayor y del eje menor:

5.

3. ¿Cuáles son los criterios para D?

El índice de discriminación es el índice de la desviación estándar a lo largo del eje principal en relación a la desviación estándar a lo largo del eje menor:

El índice de discriminación es una versión transformada del coeficiente de correlación intraclase. Minitab nombra al índice de discriminación como el número de distintas categorías, y es redondeado al entero inmediato inferior.

Existe una relación directa entre el índice de discriminación y el coeficiente de correlación. Es decir, a medida que la relación entre dos variables o pruebas sea evidente o directa, ambos indicadores (índice de discriminación y coeficiente de correlación) serán mayores.

4. ¿Cuál es el porcentaje de tolerancia y cómo se calcula?

5. ¿Cuáles son los criterios para el porcentaje de tolerancia?

6. ¿Bajo cuales circunstancias querrías tú usar una ANOVA?

7. ¿Qué significa el término R cuadrada?

Al coeficiente de correlación R elevado al cuadrado se le llama coeficiente de determinación y es una medida de la bondad del ajuste del modelo ya que da la proporción de variación de Y explicada por el modelo.

Se suele emplear R2 ajustado, que es una corrección de R2 para ajustar mejor el modelo a la población objeto de estudio.

8. ¿Cuándo se utiliza la prueba de Tukey?

Esta prueba fue desarrollada por John W. Tukey.

Se calcula un valor llamado el comparador de Tukey, de la siguiente manera:

Donde:

q es una valor que se obtiene de una tabla (Tabla de Tukey) , de manera parecida a la tabla de F . Horizontalmente se colocan los grados de libertad de los tratamientos y verticalmente los grados de libertad del error. Solamente existen tablas para niveles de significancia del 5% y del 1%.

El término que está dentro de la raíz cuadrada se llama error estándar de la media y es igual al cuadrado medio del error (obtenido en el ANDEVA), dividido entre el número de repeticiones.

Si la diferencia entre dos promedios es mayor que el comparador, se concluye que los dos promedios no son iguales, en caso contrario se concluye que sí son iguales.

Se utiliza el mismo comparador para todos los pares de promedios que se comparan.

Pero ésta fórmula solamente es válida para el caso de experimentos con igual número de repeticiones (balanceado).

9. ¿Cuándo se utiliza la prueba de Bartlett y la de Levine?

La la prueba de Bartlett es quizá la técnica ampliamente usada para probar homogeneidad de varianza. En esta prueba los en cada tratamiento no necesitan ser iguales; sin embargo se recomienda que los no sean menores que y muchos de los deben ser mayores de , La estadística de prueba es

Donde

Cuando la hipótesis nula es cierta, la estadística tiene distribución aproximadamente con grados de libertad.; cuando el muestreo se realiza en poblaciones normales.

Existe evidencia de que las pruebas de Hartley, Cochran y Bartlett son sensibles a la violación del supuesto de normalidad.

La prueba de Levine es una prueba estadística inferencial utilizada para evaluar la igualdad de las varianzas para una variable calculada para dos o más grupos. Algunos procedimientos estadísticos comunes asumen que las varianzas de las poblaciones de las que se extraen diferentes muestras son iguales. La prueba de Levene evalúa este supuesto. Se pone a prueba la hipótesis nula de que las varianzas poblacionales son iguales (llamado homogeneidad de varianza ú homocedasticidad). Si el P-valor resultante de la prueba de Levene es inferior a un cierto nivel de significación (típicamente 0.05), es poco probable que las diferencias obtenidas en las variaciones de la muestra se hayan producido sobre la base de un muestreo aleatorio de una población con varianzas iguales. Por lo tanto, la hipótesis nula de igualdad de varianzas se rechaza y se concluye que hay una diferencia entre las variaciones en la población.

...

Descargar como  txt (9.3 Kb)  
Leer 6 páginas más »
txt