ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Ensayo De Estimacion


Enviado por   •  4 de Junio de 2014  •  2.065 Palabras (9 Páginas)  •  1.357 Visitas

Página 1 de 9

ELECTRÓNICA Y TELECOMUNICACIONES

ESTADÍSTICA Y PROBABILIDAD

CAPÍTULO 7

Estimación

PROFESIONAL EN FORMACIÓN:

Wilson Arturo Torres Ayala

DOCENTE:

Ing. Luis Patricio Puchaicela Huaca

PARALELO:

C

LOJA-ECUADOR

2007-2008

RESUMEN

En este capítulo se estudiará las estimaciones, queson un método para poder aproximar

o estimar el valor numérico de los parámetros pertinentes. Se analizarán tres tipos de

estimadores puntuales: estimadores insesgados, estimadores obtenidos con el método de

momentos y estimadores obtenidos con el método de máxima verosimilitud.

MARCO TEÓRICO

ESTIMACIÓN PUNTUAL

Una de las estadísticas usadas para aproximar o estimar un parámetro poblacional θ se

llama estimador puntual de θ y se denota como θ

ˆ

. El valor numérico de esta

estadística cuando se evalúa para una muestra dada se denomina estimación puntual de

θ . Hay diferencia entre los términos estimador y estimación. El estimador es la

estadística usada para generar la estimación, es decir, una variable aleatoria, mientras

que la estimación es un número.

Propiedades recomendables en un estimador puntual

-Que θ

ˆ

sea insesgado para θ .

-Que θ

ˆ

tenga varianza pequeña para muestras grandes.

Definición de insesgado. Un estimador θ

ˆ

es un estimador insesgado de un parámetro

θ si y solo si E[ θ

ˆ

] = θ .

Insesgado significa centrado en el punto adecuado, donde el punto adecuado es el

parámetro que se estima.

Teorema 1. Sea X 1

, X 2

, X 3

,…, X n

una muestra aleatoria de tamaño n de una

distribución con media µ . La media de la muestra, X , es un estimador insesgado de µ

Es usual que los estudios estadísticos no se repitan un ay otra vez para promediar las

estimaciones obtenidas. A fin de tener cierta garantía de que la estimación tenga valor

cercano a θ , el parámetro que es estima, no solo debe estar exento de sesgo, sino que

también ha tener varianza pequeña con muestras grandes.

Teorema 2. Sea X la X la media muestral basada en una muestra aleatoria de tamaño n

de una distribución con media µ y varianza σ

2

. Entonces:

Var X =

n

σ

2

En la definición anterior note que σ

2

es una constante, entonces la varianza de X

disminuye conforme aumenta el tamaño muestral n, y puede ser tan pequeño como se

desee, si se selecciona un valor de n suficientemente grande.

Definición de error estándar de la media. Sea X la media muestral basada en una

muestra de tamaño n y seleccionada de una distribución con desviación estándar σ . La

desviación estándar de X está dada por n / σ y se llama error estándar de la media.

Teorema 3. Sea S

2

la varianza muestral basada en una muestra aleatoria de tamaño n

de una distribución con media µ y varianza σ

2

.

S

2

es un estimador insesgado de σ

2

.

EL MÉTODO DE MOMENTOS Y EL MÉTODO DE MÁXIMA

VEROSIMILITUD

Método de momentos

Los términos de la forma ] [ X E

k

(k=1, 2,3,...) se llaman k-ésimos mometos de X. Puesto

que la esperanza es un promedio teórico, la lógica implica que los momentos de X

pueden estimarse mediante un promedio aritmético. En otras palabras, un estimador

M k

de E[ X

k

] basado en una muestra aleatoria de tamaño n es:

∑ =

=

n

i

k

i

k

n

X

M

1

El método de momentos aprovecha el hacho de que en muchos casos los momentos de

X pueden expresarse como función de θ , el parámetro que es pretende estimar. Es

frecuente que pueda obtenerse un estimador razonable de θ al sustituir los momentos

teóricos con sus estimadores y despejar θ

ˆ

en la ecuación resultante.

Estimadores de máxima verosimilitud

Este método es más complejo que el de momentos. Supongamos que se tiene una

muestra aleatoria x1

,

x2

,

x3 ,…

xn

. El método de máxima verosimilitud selecciona en

cierto sentido, de todos los posibles valores de θ , el que tenga mayor probabilidad de

haber producido esas observaciones

Pasos del método de máxima verosimilitud para estimar θ

-Obtener una muestra aleatoria x1

,

x2

,

x3 ,…

xn

de la distribución de una variable

aleatoria X con densidad fy parámetro θ.

-Definir una función L(θ) con:

) ( ) (

x

f L

i

n

i

∏ = θ

=1

Esta fórmula se llama función de verosimilitud de la muestra.

-Encontrar la expresión de θ que maximice la función de verosimilitud. Ello puede

hacerse directamente o al maximizar ln L(θ).

-Sustituir θpor θ

ˆ

para obtener una expresión del estimador de máximaverosimilitud de

θ.

-Encontrar el valor observado de dicho estimador para una muestra dada.

El procedimiento de máxima verosimilitud es aplicable cunado la densidad de X se

caracteriza por dos parámetros a calcularse la media ( µ ) y la varianza ( σ

2

).

FUNCIONES DE VARIABLES ALEATORIAS: DISTRIBUCIÓN DE X

Existe una desventaja de la estimación puntual, que en muchos de los casos los

estimadores usados son lógicos. Para obtener una estimación exacta hay que utilizar el

...

Descargar como (para miembros actualizados) txt (11 Kb)
Leer 8 páginas más »
Disponible sólo en Clubensayos.com