Ensayo De Estimacion
Enviado por jack1201 • 4 de Junio de 2014 • 2.065 Palabras (9 Páginas) • 1.286 Visitas
ELECTRÓNICA Y TELECOMUNICACIONES
ESTADÍSTICA Y PROBABILIDAD
CAPÍTULO 7
Estimación
PROFESIONAL EN FORMACIÓN:
Wilson Arturo Torres Ayala
DOCENTE:
Ing. Luis Patricio Puchaicela Huaca
PARALELO:
C
LOJA-ECUADOR
2007-2008
RESUMEN
En este capítulo se estudiará las estimaciones, queson un método para poder aproximar
o estimar el valor numérico de los parámetros pertinentes. Se analizarán tres tipos de
estimadores puntuales: estimadores insesgados, estimadores obtenidos con el método de
momentos y estimadores obtenidos con el método de máxima verosimilitud.
MARCO TEÓRICO
ESTIMACIÓN PUNTUAL
Una de las estadísticas usadas para aproximar o estimar un parámetro poblacional θ se
llama estimador puntual de θ y se denota como θ
ˆ
. El valor numérico de esta
estadística cuando se evalúa para una muestra dada se denomina estimación puntual de
θ . Hay diferencia entre los términos estimador y estimación. El estimador es la
estadística usada para generar la estimación, es decir, una variable aleatoria, mientras
que la estimación es un número.
Propiedades recomendables en un estimador puntual
-Que θ
ˆ
sea insesgado para θ .
-Que θ
ˆ
tenga varianza pequeña para muestras grandes.
Definición de insesgado. Un estimador θ
ˆ
es un estimador insesgado de un parámetro
θ si y solo si E[ θ
ˆ
] = θ .
Insesgado significa centrado en el punto adecuado, donde el punto adecuado es el
parámetro que se estima.
Teorema 1. Sea X 1
, X 2
, X 3
,…, X n
una muestra aleatoria de tamaño n de una
distribución con media µ . La media de la muestra, X , es un estimador insesgado de µ
Es usual que los estudios estadísticos no se repitan un ay otra vez para promediar las
estimaciones obtenidas. A fin de tener cierta garantía de que la estimación tenga valor
cercano a θ , el parámetro que es estima, no solo debe estar exento de sesgo, sino que
también ha tener varianza pequeña con muestras grandes.
Teorema 2. Sea X la X la media muestral basada en una muestra aleatoria de tamaño n
de una distribución con media µ y varianza σ
2
. Entonces:
Var X =
n
σ
2
En la definición anterior note que σ
2
es una constante, entonces la varianza de X
disminuye conforme aumenta el tamaño muestral n, y puede ser tan pequeño como se
desee, si se selecciona un valor de n suficientemente grande.
Definición de error estándar de la media. Sea X la media muestral basada en una
muestra de tamaño n y seleccionada de una distribución con desviación estándar σ . La
desviación estándar de X está dada por n / σ y se llama error estándar de la media.
Teorema 3. Sea S
2
la varianza muestral basada en una muestra aleatoria de tamaño n
de una distribución con media µ y varianza σ
2
.
S
2
es un estimador insesgado de σ
2
.
EL MÉTODO DE MOMENTOS Y EL MÉTODO DE MÁXIMA
VEROSIMILITUD
Método de momentos
Los términos de la forma ] [ X E
k
(k=1, 2,3,...) se llaman k-ésimos mometos de X. Puesto
que la esperanza es un promedio teórico, la lógica implica que los momentos de X
pueden estimarse mediante un promedio aritmético. En otras palabras, un estimador
M k
de E[ X
k
] basado en una muestra aleatoria de tamaño n es:
∑ =
=
n
i
k
i
k
...