ESTIMACIÓN ESTADÍSTICA
Karina128117 de Abril de 2013
3.131 Palabras (13 Páginas)411 Visitas
ESTIMACIÓN ESTADÍSTICA
BREVE RESUMEN.
Lo que hemos estudiado hasta ahora son herramientas para desarrollar la estadística inferencial que permite conocer características de la población a partir de la información contenida en una muestra.
Se vieron las formas en que pueden describirse un conjunto de datos. Los métodos gráficos, básicamente la tabla de frecuencias relativas y el histograma, y las medidas descriptivas numéricas: media, varianza, desviación estándar. La estadística inferencial busca describir la población con estos gráficos y medidas descriptivas numéricas a partir de conocer como son para la muestra.
Se estudió el concepto de probabilidad que provee de un método para medir que tan buena es la inferencia. Además permite razonar de la población a la muestra, pues si se conoce la distribución de probabilidad (teórica) de una variable aleatoria es posible saber como va a ser aproximadamente la distribución de frecuencias relativas si se obtiene una muestra de los valores de esta variable, o la probabilidad de obtener un resultado particular. Se estudiaron dos tipos de distribución de probabilidad, las discretas y las continuas.
Por último se vieron las distribuciones muestrales que nos dicen como se distribuyen los valores de las estadísticas (que son las medidas descriptivas numéricas obtenidas de una muestra) al tomar diferentes muestras del mismo tamaño. En este tema vimos parte de la importancia que tiene la distribución normal ya que muchas estadísticas tienen distribución de muestreo aproximadamente normal cuando el tamaño de la muestra es grande. Las estadísticas se usan para aproximar los parámetros y conocer las distribuciones muestrales de las estadísticas permite evaluar que tan confiable o buena es la aproximación.
Hay dos formas de realizar inferencias acerca de un parámetro poblacional: podemos estimar su valor (que es lo que vamos a ver esta clase), o bien, probar una hipótesis acerca de su valor (esto lo vamos a estudiar la próxima clase).
TIPOS DE ESTIMADORES
Los procedimientos de estimación pueden dividirse en dos tipos:
Estimación puntual: la estimación se representa mediante un solo número.
Estimación por intervalo: la estimación se representa mediante dos números que determinan un intervalo sobre la recta.
Ejemplo. Se quiere estimar la altura media de los alumnos de un determinado curso. Se puede dar la estimación diciendo que la altura media es de 1.65 m (estimación puntual) o bien decir que la altura media estará entre 1.6 m y 1.7 m (estimación por intervalo).
Un estimador es una regla que expresa cómo calcular la estimación, basándose en la información de la muestra y se enuncia, en general, mediante una fórmula.
Un estimador puntual utiliza los datos de la muestra para obtener un número que estima el valor del parámetro.
Un estimador por intervalo utiliza los datos de la muestra para obtener dos valores numéricos entre los cuales se supone que está el valor del parámetro estimado.
ESTIMACIÓN PUNTUAL CON MUESTRAS GRANDES
Se pueden usar distintos estimadores para estimar un mismo parámetro. Por ejemplo para estimar la media poblacional se puede usar la media muestral, la mediana, la moda, el promedio entre el valor más chico y más grande de la muestra, etc..
Cada estimador obtenido de muestras de tamaño fijo n, varía con cada muestra que se toma. Por lo tanto, los estimadores son variables aleatorias y pueden considerarse sus distribuciones muestrales (similar a los estadísticos que se estudiaron la clase pasada).
La distribuciones de muestreo de los estimadores se usan para compararlos y decidir cual de todos es el mejor. Se prefiere un estimador que tenga una distribución muestral cuya media coincida con el parámetro que se desea estimar y cuya extensión o dispersión (medida con la variancia) sea lo menor posible.
Notación. Si denota un parámetro entonces denotará la estadística correspondiente.
Como dijimos anteriormente, se prefiere una estadística que tenga una distribución muestral cuya media coincida con el parámetro que se desea estimar. Un estimador de este tipo se llama insesgado.
Si es un estimador de un parámetro y si la media de la distribución de es , es decir,
E( ) = ,
entonces se dice que es un estimador insesgado. De otra manera, se llama sesgado.
En la figura 6.2., p. 198, aparecen las distribuciones muestrales de dos estimadores , el primero insesgado, E( ) = y el segundo sesgado, E( ) > . Si se calcula una vez lo más probable es que se encuentre cerca de la media E( ). Entonces en el primer caso lo más probable es que se encuentre cerca de y en el segundo que sea más grande que .
Se prefiere una estadística que además tenga una distribución muestral cuya extensión o dispersión (medida con la variancia) sea lo menor posible. Nota: Para simplificar se habla de variancia del estimador para referirnos a la variancia de la distribución muestral del estimador.
En la figura 6.3, p. 199, aparecen las distribuciones muestrales de dos estimadores insesgados , E( ) = . Si se calcula una vez , en ambos casos, lo más probable es que se encuentre cerca de la media E( ). Pero como la desviación estándar del primero es menor que la del segundo, es más probable que en el primer caso se encuentre más cerca de la media que en el segundo caso.
En base a lo anterior se elige de todas las estadísticas disponibles aquella con el menor sesgo y variancia posible. Más aún, el mejor estimador posible es aquel que es insesgado y que de todos los insesgados tiene la menor variancia, a este estimador se lo llama estimador insesgado de menor variancia (EIMV).
En este curso definiremos poblaciones y los parámetros de interés y se dirá en cada caso cual es el estimador adecuado, su media y su desviación estándar.
Ejemplos de estimadores insesgados.
Media muestral (estimador insesgado de la media poblacional )
Si se seleccionan muestras aleatorias de n mediciones de una población con media y desviación estándar , la distribución de muestreo de tendrá media
E( ) = .
y desviación estándar
= / .
Proporción muestral (estimador insesgado del parámetro p).
Si se seleccionan muestras aleatorias de n observaciones de una población binomial, con parámetro p, la distribución de muestreo de la proporción muestral = tendrá media
E( ) = p
y desviación estándar
=
Diferencia de medias 1 2 (estimador insesgado del parámetro 1 2).
Se tienen dos poblaciones I y II con medias y desviaciones estándar (1, 1) y (2, 2), respectivamente.
Se seleccionan en forma independiente muestras de tamaño n1 para I y de tamaño n2 para II.
Si 1 y 2 son las medias muestrales para tales muestras, entonces la distribución de muestreo de 1 2 tendrá media
E( 1 2) = 1 2
y desviación estándar
=
Proporción muestral 1 2 (estimador insesgado del parámetro p1 p2)
Se tienen dos poblaciones binomiales I y II con parámetros p1 y p2, respectivamente.
Se seleccionan en forma independiente muestras de tamaño n1 para I y de tamaño n2 para II.
Si 1 y 2 son las proporciones muestrales de tales muestras, entonces la distribución de muestreo de 1 2 tendrá media
E( 1 2) = p1 p2
y desviación estándar
=
Observar que en cada caso, se toma como estimador la estadística que corresponde al parámetro que se quiere estimar.
La media muestral, la proporción muestral, la diferencia de medias muestrales y la diferencia de proporciones muestrales tienen una distribución de muestreo que se aproxima a una normal cuando el tamaño de la/s muestra/s es grande. Como regla práctica se supone que esto se cumple cuando n 30.
Teniendo en cuenta esto y como estamos interesados en muestras grandes, en adelante supondremos que n 30, y que trabajamos con un estimador insesgado de que tiene una distribución normal.
Una manera de evaluar la bondad de una estimación puntual es a través de la distancia entre el estimador y el parámetro. Esta cantidad se denomina
Error de estimación. | |.
Como se desea que este error sea lo menor posible, interesa saber si es menor que una cierta cota que se suele expresar en términos de la desviación estándar del estimador:
Cota para el error de estimación. c .
Ahora bien, no se puede saber si | | < c pues desconocemos . Sin embargo, conociendo las características de la distribución de , se puede calcular la probabilidad de que | | < c , es decir,
P(| | < c )
Por ejemplo, si c = 1.96 y suponiendo que la distribución de es normal,
...