Ensayo De Estimacion
Enviado por jack1201 • 4 de Junio de 2014 • 2.065 Palabras (9 Páginas) • 1.357 Visitas
ELECTRÓNICA Y TELECOMUNICACIONES
ESTADÍSTICA Y PROBABILIDAD
CAPÍTULO 7
Estimación
PROFESIONAL EN FORMACIÓN:
Wilson Arturo Torres Ayala
DOCENTE:
Ing. Luis Patricio Puchaicela Huaca
PARALELO:
C
LOJA-ECUADOR
2007-2008
RESUMEN
En este capítulo se estudiará las estimaciones, queson un método para poder aproximar
o estimar el valor numérico de los parámetros pertinentes. Se analizarán tres tipos de
estimadores puntuales: estimadores insesgados, estimadores obtenidos con el método de
momentos y estimadores obtenidos con el método de máxima verosimilitud.
MARCO TEÓRICO
ESTIMACIÓN PUNTUAL
Una de las estadísticas usadas para aproximar o estimar un parámetro poblacional θ se
llama estimador puntual de θ y se denota como θ
ˆ
. El valor numérico de esta
estadística cuando se evalúa para una muestra dada se denomina estimación puntual de
θ . Hay diferencia entre los términos estimador y estimación. El estimador es la
estadística usada para generar la estimación, es decir, una variable aleatoria, mientras
que la estimación es un número.
Propiedades recomendables en un estimador puntual
-Que θ
ˆ
sea insesgado para θ .
-Que θ
ˆ
tenga varianza pequeña para muestras grandes.
Definición de insesgado. Un estimador θ
ˆ
es un estimador insesgado de un parámetro
θ si y solo si E[ θ
ˆ
] = θ .
Insesgado significa centrado en el punto adecuado, donde el punto adecuado es el
parámetro que se estima.
Teorema 1. Sea X 1
, X 2
, X 3
,…, X n
una muestra aleatoria de tamaño n de una
distribución con media µ . La media de la muestra, X , es un estimador insesgado de µ
Es usual que los estudios estadísticos no se repitan un ay otra vez para promediar las
estimaciones obtenidas. A fin de tener cierta garantía de que la estimación tenga valor
cercano a θ , el parámetro que es estima, no solo debe estar exento de sesgo, sino que
también ha tener varianza pequeña con muestras grandes.
Teorema 2. Sea X la X la media muestral basada en una muestra aleatoria de tamaño n
de una distribución con media µ y varianza σ
2
. Entonces:
Var X =
n
σ
2
En la definición anterior note que σ
2
es una constante, entonces la varianza de X
disminuye conforme aumenta el tamaño muestral n, y puede ser tan pequeño como se
desee, si se selecciona un valor de n suficientemente grande.
Definición de error estándar de la media. Sea X la media muestral basada en una
muestra de tamaño n y seleccionada de una distribución con desviación estándar σ . La
desviación estándar de X está dada por n / σ y se llama error estándar de la media.
Teorema 3. Sea S
2
la varianza muestral basada en una muestra aleatoria de tamaño n
de una distribución con media µ y varianza σ
2
.
S
2
es un estimador insesgado de σ
2
.
EL MÉTODO DE MOMENTOS Y EL MÉTODO DE MÁXIMA
VEROSIMILITUD
Método de momentos
Los términos de la forma ] [ X E
k
(k=1, 2,3,...) se llaman k-ésimos mometos de X. Puesto
que la esperanza es un promedio teórico, la lógica implica que los momentos de X
pueden estimarse mediante un promedio aritmético. En otras palabras, un estimador
M k
de E[ X
k
] basado en una muestra aleatoria de tamaño n es:
∑ =
=
n
i
k
i
k
n
X
M
1
El método de momentos aprovecha el hacho de que en muchos casos los momentos de
X pueden expresarse como función de θ , el parámetro que es pretende estimar. Es
frecuente que pueda obtenerse un estimador razonable de θ al sustituir los momentos
teóricos con sus estimadores y despejar θ
ˆ
en la ecuación resultante.
Estimadores de máxima verosimilitud
Este método es más complejo que el de momentos. Supongamos que se tiene una
muestra aleatoria x1
,
x2
,
x3 ,…
xn
. El método de máxima verosimilitud selecciona en
cierto sentido, de todos los posibles valores de θ , el que tenga mayor probabilidad de
haber producido esas observaciones
Pasos del método de máxima verosimilitud para estimar θ
-Obtener una muestra aleatoria x1
,
x2
,
x3 ,…
xn
de la distribución de una variable
aleatoria X con densidad fy parámetro θ.
-Definir una función L(θ) con:
) ( ) (
x
f L
i
n
i
∏ = θ
=1
Esta fórmula se llama función de verosimilitud de la muestra.
-Encontrar la expresión de θ que maximice la función de verosimilitud. Ello puede
hacerse directamente o al maximizar ln L(θ).
-Sustituir θpor θ
ˆ
para obtener una expresión del estimador de máximaverosimilitud de
θ.
-Encontrar el valor observado de dicho estimador para una muestra dada.
El procedimiento de máxima verosimilitud es aplicable cunado la densidad de X se
caracteriza por dos parámetros a calcularse la media ( µ ) y la varianza ( σ
2
).
FUNCIONES DE VARIABLES ALEATORIAS: DISTRIBUCIÓN DE X
Existe una desventaja de la estimación puntual, que en muchos de los casos los
estimadores usados son lógicos. Para obtener una estimación exacta hay que utilizar el
...