Terminologia
luislp524 de Mayo de 2015
808 Palabras (4 Páginas)220 Visitas
Unidad IV
Medidas de variabilidad
La variabilidad
Son intervalos que indican la dispersión de los datos en la escala de medición. Las medidas de variabilidad más utilizadas son: amplitud (rango), desviación estándar y varianza.
• AMPLITUD Exclusiva (RANGO)
Es la medida de variabilidad más simple.
También llamado rango, es la diferencia entre la puntuación menor, e indica el número de unidades en la escala de medición que se necesitan para incluir los valores máximo y mínimo.
Ejemplo:
17, 18, 20, 20, 24, 28, 28, 30, 33
Rango: 33-17= 16
• VARIANZA
Esta relacionada con el tamaño de la diferencia entre cada puntuación y la media aritmética de la distribución a que pertenece. Es la desviación estándar elevada al cuadrado y se simboliza s y un 2 como potencia. Es un concepto estadístico muy importante, ya que muchas de las pruebas cuantitativas se fundamentan en él. Sin embargo, con fines descriptivos se utiliza preferentemente la desviación estándar.
• DESVIACIÓN ESTÁNDAR O TÍPICA
Es el promedio de desviación de las puntuaciones con respecto a la media. Esta medida se expresa en las unidades originales de medición de la distribución. Cuanto mayor sea la dispersión de los datos alrededor de la media, mayor será la desviación estándar. Se simboliza con s o mediante la abreviatura DE.
Fluctuaciones
Fluctuaciones estadísticas son las fluctuaciones en cantidades derivadas de muchos procesos aleatorios idénticos. Son fundamentales e inevitables. Se puede demostrar que las fluctuaciones relativas reducen como la raíz cuadrada del número de procesos idénticos. Fluctuaciones estadísticas son responsables de muchos de los resultados de la mecánica y la termodinámica estadística, incluyendo fenómenos como el ruido de un disparo en la electrónica.
Descripción:
Cuando un número de procesos aleatorios se produce, se puede demostrar que los resultados fluctúan y que las fluctuaciones son proporcionales a la raíz cuadrada del número de procesos.
Ejemplos:
A modo de ejemplo, que resultará familiar a todo, si una moneda es lanzada muchas veces y el número de cabezas y colas contados, la proporción de cabezas a colas va a ser muy cercano a 1, pero después de unos pocos lanzamientos, los resultados con un exceso significativo de cabezas en las colas o viceversa son comunes, y si un experimento con unos cuantos tiros se repite una y otra vez, los resultados van a variar mucho.
Desviación estándar
La desviación típica o desviación estándar (denotada con el símbolo σ o s, dependiendo de la procedencia del conjunto de datos) es una medida de dispersión para variables de razón (variables cuantitativas o cantidades racionales) y de intervalo. Se define como la raíz cuadrada de la varianza de la variable.
Para conocer con detalle un conjunto de datos, no basta con conocer las medidas de tendencia central, sino que necesitamos conocer también la desviación que presentan los datos en su distribución respecto de la media aritmética de dicha distribución, con objeto de tener una visión de los mismos más acorde con la realidad al momento de describirlos e interpretarlos para la toma de decisiones.
Cálculo y significado
La desviación típica es una medida del grado de dispersión de los datos con respecto al valor promedio. Dicho de otra manera, la desviación estándar es simplemente el "promedio" o variación esperada con respecto a la media aritmética.
Por ejemplo, las tres muestras (0, 0, 14, 14), (0, 6, 8, 14) y (6, 6, 8, 8) cada una tiene una media de 7. Sus desviaciones estándar muéstrales son 7, 5 y 1 respectivamente. La tercera muestra tiene una desviación mucho menor que las otras dos porque sus valores están más cerca de 7.
La desviación estándar puede ser interpretada
...