Estimacion
sandyyeguez13 de Noviembre de 2014
3.430 Palabras (14 Páginas)173 Visitas
República Bolivariana de Venezuela
Ministerio del Poder Popular para la Educación Universitaria
Universidad Nacional Experimentar “Simón Rodríguez”
Núcleo Barcelona. Extensión Cumaná -Aulas Marigüitar
Dra. Mirian Balestrini
ESTIMACIÓN
Facilitador: Participante:
Juan Echenique Frontado Roraima
C.I: 19.239.180
Sección “T
Marigüitar, octubre de 2014.
INTRODUCCIÓN
Como tomadores de decisiones, en ocasiones, nos veremos forzados, a confiar en nuestros presentimientos. Sin embargo, en otras situaciones, en las cuales se tenga disponible información podamos aplicar los conceptos de la estadística, La diferencia entre la estadística muestral y el correspondiente parámetro de la población se suele llamar error de estimación. Solo conoceríamos dicho error si se conociera el parámetro poblacional que por lo general se desconoce. La única forma de tener alguna certeza al respecto es hacer todas las observaciones posibles del total de la población; en la mayoría de las aplicaciones prácticas es imposible o impracticable.
En este tema se analizan las formas adecuadas para el establecimiento del conocimiento numérico o abstracto de un parámetro de una población, y que evidentemente nos es desconocido, partiendo, claro está, de la información suministrada por la muestra. También se estudiaran los problemas de estimación, la cual se define como el proceso por el que llegamos a la obtención y análisis de los estimadores. La estimación se divide en estimación puntual y estimación por intervalos.
TEORIA DE LA ESTIMACION:
Se ocupará, dentro del marco de la perspectiva clásica, de estudiar las características deseables de los estimadores permitiéndonos escoger aquel estimador que reúna más propiedades ventajosas para que realicemos buenas estimaciones.
ESTIMACIÓN Y ESTIMADOR:
En inferencia estadística se llama estimación al conjunto de técnicas que permiten dar un valor aproximado de un parámetro de una población a partir de los datos proporcionados por una muestra. Por ejemplo, una estimación de la media de una determinada característica de una población de tamaño N podría ser la media de esa misma característica para una muestra de tamaño n. Un estimador es una regla que establece cómo calcular una estimación basada en las mediciones contenidas en una muestra estadística.
CLASES DE ESTIMACIÓN:
Estimaciones de punto y estimaciones de intervalo
Una estimación de un parámetro de la población dada por un solo número se llama una estimación de punto del parámetro. Una estimación de un parámetro de la población dada por dos puntos, entre los cuales se pueden considerar encajado al parámetro, se llama una estimación del intervalo del parámetro.
Las estimaciones de intervalo que indican la precisión de una estimación y son por tanto preferibles a las estimaciones de punto
Ejemplo:
Si decimos que una distancia sé a medido como 5.28 metros (m), estamos dando una estimación de punto. Por otra parte, si decimos que la distancia es 5.28 ± 0.03 m, (ósea, que está entre 5.25 y 5.31 m), estamos dando una estimación de intervalo. El margen de error o la percepción de una estimación nos informan su fiabilidad.
ESTIMADORES Y PROPIEDADES DESEABLES DE LOS ESTIMADORES
Consideraremos criterios adicionales para seleccionar estimadores. Las propiedades deseables que ha de tener un estimador para considerarse adecuado son las siguientes:
Ausencia de sesgo: Se dice que un estimador es insesgado (o centrado) si la esperanza del estimador coincide con el parámetro a estimar. . En caso contrario se dice que es sesgado y a la cantidad se la denomina sesgo.
La propiedad es importante ya que los posibles valores del estimador fluctúan alrededor del verdadero parámetro. Por ejemplo, si utilizamos la media muestral como estimador de la media poblacional en una distribución normal, se trata de un estimador insesgado ya que la esperanza de su distribución muestral es la media poblacional m. El hecho de que además, tenga distribución normal, es importante en la práctica, ya que aunque la media muestral y la poblacional no coinciden exactamente, los valores de aquella fluctúan de forma simétrica alrededor de esta, son valores próximos con probabilidad alta y la dispersión disminuye cuando aumenta el tamaño muestral.
Consistencia: Se dice que un estimador es consistente si se aproxima cada vez más al verdadero valor del parámetro a medida que se aumenta el tamaño muestral. Más formalmente, un estimador es consistente si cuando , para . O dicho de otra forma la distribución del estimador se concentra más alrededor del verdadero parámetro cuando el tamaño muestral aumenta.
La media muestral es un estimador consistente de la media poblacional en una distribución normal, ya que, la varianza de la misma tiende a cero para , de forma que la distribución se concentra alrededor del verdadero valor m cuando n crece.
Eficiencia: Es claro que un estimador será tanto mejor cuanto menor sea su varianza, ya que se concentra más alrededor del verdadero valor del parámetro. Se dice que un estimador insesgado es eficiente si tiene varianza mínima.
Una cota inferior para la varianza viene dada por la denominada cota de Cramer-Rao.
Sea X1, X2, ... , Xn. una muestra aleatoria simple de una distribución con densidad f(x; q). Sujeto a ciertas condiciones de regularidad en la función de densidad, cualquier estimador insesgado verifica que
A la cantidad se la denomina cantidad de información de Fisher asociada a una muestra aleatoria simple de tamaño n.
METODOS DE ESTIMACION
Método de los Momentos: Consiste en igualar los momentos muestrales y los poblacionales. Prácticamente no se usa en la investigación actual.
Método de los Mínimos Cuadrados: Consiste en minimizar la suma de cuadrados de los errores (diferencias entre valores observados y esperados tras suponer que las observaciones se obtienen como la suma de una parte sistemática o controlada y una parte aleatoria no controlada o fuente de error).El método es ampliamente utilizado cuando se trabaja con modelos de regresión y técnicas relacionadas.
Ejemplo: Estimación de la media de una población normal.
Cada observación experimental xi puede suponerse como la suma de una constante (la media m) y un error experimental aleatorio (ei)
xi = m + ei con ei = xi - m con distribución N(0, s).
El método de los mínimos cuadrados consiste en minimizar la suma de cuadrados de los errores (Diferencias entre valores observados y esperados)
Derivando con respecto a m e igualando la derivada a cero
Obtenemos la media muestral como estimador de la poblacional.
Método de la Máxima Verosimilitud: Consiste en sustituir los parámetros por aquellos valores que maximizan el logaritmo de la función de verosimilitud de la muestra (función de densidad conjunta de todos los valores muestrales en el supuesto de que son independientes).
Ejemplo: Media y varianza de una población normal
Los valores muestrales X1, ... , Xn se supone que son variables aleatorias independientes y todas con distribución N(m, s). La función de densidad conjunta será el producto de las funciones de densidad de cada una de ellas.
Tomando logaritmos
Derivando con respecto a m y s y resolviendo el sistema se obtienen como estimadores para la media y la varianza
Propiedades de los estimadores Máximo-verosímiles: Los estimadores máximo-verosímiles juegan un papel importante en Estadística debido a que se obtienen mediante un método simple y tienen buenas propiedades con respecto a sesgo eficiencia y consistencia.
Bajo ciertas condiciones de regularidad se verifica:
• Si existe un estimador insesgado y de varianza mínima, cuya varianza alcance la cota de Cramer-Rao, este estimador es máximo verosímil y es la única solución de la ecuación de verosimilitud.
• Si el estimador es sesgado, su sesgo tiende a cero al aumentar el tamaño de la muestra, además es asintóticamente eficiente (Eficiente para n grande).
• Existe una solución de la ecuación de verosimilitud que proporciona un estimador consistente y asintóticamente normal. . Donde es la varianza mínima o cota de Cramer-Rao.
ESTIMADORES PUNTUALES DE LOS PARAMETROS DE UNA POBLACION NORMAL
Sea una muestra aleatoria simple, X1, X2, ...... , Xn de una población con distribución N(m , s).
Estimador de la media
Se trata de un estimador eficiente (insesgado y de varianza mínima).
La distribución muestral de la media es :
La cantidad estima a la desviación típica de la media y se denomina error estándar de la media,
...