ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Estimación de Parámetros


Enviado por   •  31 de Marzo de 2019  •  Trabajos  •  7.960 Palabras (32 Páginas)  •  128 Visitas

Página 1 de 32

UNIDAD

3

                                                                      

        

        Estimación de Parámetros

OBJETIVO  EDUCACIONAL        

Al término de esta unidad el alumno:

  • Estimará e interpretará los intervalos de confianza para los diferentes parámetros que caracterizan a procesos y/o poblaciones.  Determinará el tamaño de la muestra representativa.

  1.  Introducción

La teoría de la inferencia estadística consiste en aquellos métodos con los cuales se pueden realizar generalizaciones acerca de una población. La tendencia actual es distinguir entre el método clásico para estimar un parámetro poblacional, por medio del cual las inferencias se basan en la información obtenida de una muestra  aleatoria seleccionada de la población, y el método bayesiano, el cual utiliza el conocimiento subjetivo previo acerca de la distribución de probabilidad con los parámetros desconocidos, junto con la información proporcionada por los datos muestrales. La inferencia estadística puede dividirse en dos áreas principales: estimación y pruebas de hipótesis.

  1. Necesidad de la Estimación

Las fábricas a menudo deben evaluar las características de desempeño de un producto tomando en cuenta aspectos como la resistencia promedio, el peso o el tiempo de vida. Las grandes tiendas de departamentos deben predecir la demanda de diversos artículos. Así, la estimación comprende: la valoración de inventarios, la estimación de costos de proyectos, la evaluación de nuevas fuentes energéticas, la predicción del desempeño en el trabajo y la estimación de tiempos estándar de tareas asignadas.

  1. Características de un buen estimador.  Propiedades de los Estimadores
  • Un estimador es una regla que establece cómo calcular una estimación basada en las mediciones contenidas en una muestra.
  • Estimador Insesgado. Un estadístico es un estimador insesgado del parámetro,  sí [pic 1]

  • Eficiencia  Relativa.  Si se consideran todos los estimadores insesgados posibles de algún parámetro θ, aquel con la varianza más pequeña es el estimador más eficiente.

  • Estimador Consistente. El estimador insesgado [pic 2] para [pic 3] es un estimador consistente de  [pic 4]  si   [pic 5]

Estimador suficiente. Sea[pic 6]una muestra aleatoria  de una distribución de probabilidad con un parámetro desconocido θ. Se dice que el estadístico [pic 7]es suficiente para [pic 8] sí la distribución condicional de [pic 9] dado  [pic 10] no depende de  [pic 11].

  1.  Estimación Puntual
  1. Método de Máxima verosimilitud. Dadas las observaciones independientes [pic 12][pic 13] de una función de densidad de probabilidad (caso continuo) o una función masa de probabilidad (caso discreto) [pic 14],  el estimador de máxima verosimilitud,  [pic 15], es aquel que maximiza la función de verosimilitud:

[pic 16]

o en forma equivalente

[pic 17]

Para obtener el valor de [pic 18] que maximiza la función de verosimilitud se utiliza el método de localización de máximos y mínimos siguiente:

Paso 1. Calcule la primera derivada de la función y resuelva la ecuación que se obtiene al igualar a cero dicha derivada.

Paso 2.  Investigue si los valores encontrados de θ  encontrados en el paso 1 son máximos o mínimos locales.

  • Calcule la segunda derivada y evalúela en cada valor encontrado en el paso 1
  • Si  la segunda derivada es menor que cero entonces [pic 19] tiene un máximo
  • Si la segunda derivada es mayor que cero entonces  [pic 20] tiene un mínimo

Ejemplo 3.1  Si  n  observaciones  [pic 21] se toman de una población que tiene una distribución de Poisson con parámetro  λ desconocido.  Hallar el estimador de máxima verosimilitud para  λ..

[pic 22]

Solución

        [pic 23]

        [pic 24]

        [pic 25]

        [pic 26]

        1)  [pic 27]        [pic 28]  [pic 29]  [pic 30]

        2)  [pic 31]                [pic 32] [pic 33]

Por lo tanto el estimador de máxima verosimilitud para  λ  es [pic 34], que representa la media muestral.

  1. Método de Momentos

El método de momentos consiste en igualar los primeros momentos de una población a los momentos correspondientes de una muestra, con lo cual se obtienen tantas ecuaciones, según se necesiten, para resolver y obtener los primeros parámetros desconocidos de la población.

El k-ésimo momento de la muestra de un conjunto de observaciones [pic 35] es la media de sus k-ésimas potencias y se representa por medio de [pic 36]; en forma simbólica:

[pic 37]

Por lo tanto el método de momentos consiste en solucionar el sistema de ecuaciones

[pic 38]           k=  1, 2, . . . , p

para obtener los p parámetros de la población.

Ejemplo 3.2   Dada una muestra aleatoria de tamaño n tomada de una población gamma, aplique el método de momentos para estimar sus parámetros α y β.

Solución

...

Descargar como (para miembros actualizados)  txt (40.9 Kb)   pdf (2.7 Mb)   docx (2.4 Mb)  
Leer 31 páginas más »
Disponible sólo en Clubensayos.com