ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Ensayo De Estimacion


Enviado por   •  4 de Junio de 2014  •  2.065 Palabras (9 Páginas)  •  1.286 Visitas

Página 1 de 9

ELECTRÓNICA Y TELECOMUNICACIONES

ESTADÍSTICA Y PROBABILIDAD

CAPÍTULO 7

Estimación

PROFESIONAL EN FORMACIÓN:

Wilson Arturo Torres Ayala

DOCENTE:

Ing. Luis Patricio Puchaicela Huaca

PARALELO:

C

LOJA-ECUADOR

2007-2008

RESUMEN

En este capítulo se estudiará las estimaciones, queson un método para poder aproximar

o estimar el valor numérico de los parámetros pertinentes. Se analizarán tres tipos de

estimadores puntuales: estimadores insesgados, estimadores obtenidos con el método de

momentos y estimadores obtenidos con el método de máxima verosimilitud.

MARCO TEÓRICO

ESTIMACIÓN PUNTUAL

Una de las estadísticas usadas para aproximar o estimar un parámetro poblacional θ se

llama estimador puntual de θ y se denota como θ

ˆ

. El valor numérico de esta

estadística cuando se evalúa para una muestra dada se denomina estimación puntual de

θ . Hay diferencia entre los términos estimador y estimación. El estimador es la

estadística usada para generar la estimación, es decir, una variable aleatoria, mientras

que la estimación es un número.

Propiedades recomendables en un estimador puntual

-Que θ

ˆ

sea insesgado para θ .

-Que θ

ˆ

tenga varianza pequeña para muestras grandes.

Definición de insesgado. Un estimador θ

ˆ

es un estimador insesgado de un parámetro

θ si y solo si E[ θ

ˆ

] = θ .

Insesgado significa centrado en el punto adecuado, donde el punto adecuado es el

parámetro que se estima.

Teorema 1. Sea X 1

, X 2

, X 3

,…, X n

una muestra aleatoria de tamaño n de una

distribución con media µ . La media de la muestra, X , es un estimador insesgado de µ

Es usual que los estudios estadísticos no se repitan un ay otra vez para promediar las

estimaciones obtenidas. A fin de tener cierta garantía de que la estimación tenga valor

cercano a θ , el parámetro que es estima, no solo debe estar exento de sesgo, sino que

también ha tener varianza pequeña con muestras grandes.

Teorema 2. Sea X la X la media muestral basada en una muestra aleatoria de tamaño n

de una distribución con media µ y varianza σ

2

. Entonces:

Var X =

n

σ

2

En la definición anterior note que σ

2

es una constante, entonces la varianza de X

disminuye conforme aumenta el tamaño muestral n, y puede ser tan pequeño como se

desee, si se selecciona un valor de n suficientemente grande.

Definición de error estándar de la media. Sea X la media muestral basada en una

muestra de tamaño n y seleccionada de una distribución con desviación estándar σ . La

desviación estándar de X está dada por n / σ y se llama error estándar de la media.

Teorema 3. Sea S

2

la varianza muestral basada en una muestra aleatoria de tamaño n

de una distribución con media µ y varianza σ

2

.

S

2

es un estimador insesgado de σ

2

.

EL MÉTODO DE MOMENTOS Y EL MÉTODO DE MÁXIMA

VEROSIMILITUD

Método de momentos

Los términos de la forma ] [ X E

k

(k=1, 2,3,...) se llaman k-ésimos mometos de X. Puesto

que la esperanza es un promedio teórico, la lógica implica que los momentos de X

pueden estimarse mediante un promedio aritmético. En otras palabras, un estimador

M k

de E[ X

k

] basado en una muestra aleatoria de tamaño n es:

∑ =

=

n

i

k

i

k

...

Descargar como (para miembros actualizados)  txt (10.6 Kb)  
Leer 8 páginas más »
Disponible sólo en Clubensayos.com