ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Propiedades del estimador

yochetTarea6 de Diciembre de 2017

594 Palabras (3 Páginas)212 Visitas

Página 1 de 3

 Propiedades del estimador

Sesgo

Artículo principal: Sesgo estadístico

Se denomina sesgo de un estimador a la diferencia entre la esperanza (o valor esperado) del estimador y el verdadero valor del parámetro a estimar. Es deseable que un estimador sea insesgado o centrado, es decir, que su sesgo sea nulo por ser su esperanza igual al parámetro que se desea estimar.

Por ejemplo, si se desea estimar la media de una población, la media aritmética de la muestra es un estimador insesgado de la misma, ya que su esperanza (valor esperado) es igual a la media de la población.

En efecto, si una muestra X=(X1,X2,...,Xn)t procede de una población de media μ, quiere decir que:

[pic 1] para cualquier i=1...n

La media aritmética o media presupuestal,

[pic 2], con lo que, al aplicar las propiedades de linealidad de la esperanza matemática se tiene que:

[pic 3]

[pic 4]

[pic 5]

Eficiencia[editar]

Artículo principal: Eficiencia (estadística)

Diremos que un estimador es más eficiente o más preciso que otro estimador, si la varianza del primero es menor que la del segundo. Por ejemplo, si [pic 6] y [pic 7] son ambos estimadores de [pic 8] y

[pic 9]

diremos que [pic 10] es más eficiente que [pic 11]. Un estimador es más eficiente (más preciso), por tanto, cuanto menor es su varianza.

La eficiencia de los estimadores está limitada por las características de la distribución de probabilidad de la muestra de la que proceden. El teorema de Cramér-Rao determina que la varianza de un estimador insesgado [pic 12] de un parámetro [pic 13] es, como mínimo,

[pic 14]

donde [pic 15] es la función de densidad de probabilidad de la muestra [pic 16] en función del parámetro [pic 17], (denominada función de verosimilitud). Si un estimador insesgado alcanza esta cota mínima, entonces se dice que el estimador es de mínima varianza dentro de los estimadores insesgados, pudiendo existir estimadores sesgados con varianza menor.

Consistencia[editar]

Artículo principal: Consistencia (estadística)

Si no es posible emplear estimadores de mínima varianza, el requisito mínimo deseable para un estimador es que a medida que el tamaño de la muestra crece, el valor del estimador tienda a ser el valor del parámetro, propiedad que se denomina consistencia. Existen diversas definiciones de consistencia, más o menos restrictivas, pero la más utilizada es la denominada consistencia en media cuadrática que exige que:

  1. [pic 18] cuando [pic 19]
  2. [pic 20] cuando [pic 21]

Robustez[editar]

El estimador [pic 22] será un estimador robusto del parámetro [pic 23] si la violación de los supuestos de partida en los que se basa la estimación (normalmente, atribuir a la población un determinado tipo de función de distribución que, en realidad, no es la correcta), no altera de manera significativa los resultados que éste proporciona.

...

Descargar como (para miembros actualizados) txt (4 Kb) pdf (133 Kb) docx (20 Kb)
Leer 2 páginas más »
Disponible sólo en Clubensayos.com