ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

A estimación por máxima verosimilitud fue usada en casos especiales por C. F. Gauss


Enviado por   •  14 de Diciembre de 2017  •  Resúmenes  •  399 Palabras (2 Páginas)  •  243 Visitas

Página 1 de 2

[pic 1]

Ronald Fisher en 1913

La estimación por máxima verosimilitud fue usada en casos especiales por C. F. Gauss pero su forma general para propósitos de estadística la expuso Fisher (1890-1962) aproximadamente por 1922. Aunque fue introducido por primera vez por Bernoulli (1700-1782), cuyo planteamiento fue revisado y modificado por su coetáneo y amigo, el gran matemático, Euler (1707-1783).

Esta idea fue de gran importancia en el desarrollo de la teoría estadística moderna.


En estadística, la estimación por máxima verosimilitud (conocida también como EMV y, en ocasiones, MLE Maximun Likelihood Estimators) es un método habitual para ajustar un modelo y encontrar sus parámetros.

Definición: Dada una muestra aleatoria  de una r.v. que depende de un parámetro ; el estimador de máxima verosimilitud de , llamado , es el valor de  que maximiza a , donde L es la función de verosimilitud, la densidad conjunta de la muestra que explicaremos a continuación.[pic 2][pic 3][pic 4][pic 5][pic 6][pic 7]

Entonces para encontrar un EMV de  que será  realizamos:[pic 8][pic 9]

1) Calculamos la función de verosimilitud  que es la densidad conjunta de la muestra[pic 10]

[pic 11]

Donde  es la densidad (si es continua) o la distribución probabilística (si es discreta)[pic 12]

No necesariamente  representará un solo número real,  puede suceder que la r.v dependa de dos o mas valores paramétricos (como en la distribución normal). En tal caso  puede representar un vector [pic 13][pic 14][pic 15]

2) Hallamos un máximo de . Si es necesario previamente se aplica Ln(L) ya que es una función creciente y ésta tiene un máximo precisamente en los puntos en que L tiene un máximo.[pic 16]

Luego resolvemos la derivada igualada a cero (condición de máximo)  y se obtiene [pic 17][pic 18]

Ejemplo: Usando una muestra  encontrar una EMV del parámetro   de una r.v.  [pic 19][pic 20][pic 21][pic 22]

Densidad:      donde [pic 23][pic 24]

[pic 25]

[pic 26]

[pic 27]

Propiedades:

  1.  Los MLE pueden ser sesgados, es decir, el valor esperado no coincide con el parámetro. Pero se puede corregir multiplicando por una constante.

[pic 28]

  1. Consistencia o convergencia

[pic 29]

Bajo condiciones muy generales, los EMV son convergentes, es decir, si los tamaños de muestra sobre los cuales se basan son grandes, el EMV será “próximo” al valor del parámetro que se estima.

Propiedad asintótica
[pic 30]

Esta propiedad es mucho mas fuerte que la primera, dado que la esta propiedad ahora nos describe cual es la condición probabilística de  para un n grande.[pic 31]

...

Descargar como (para miembros actualizados)  txt (2.6 Kb)   pdf (123.6 Kb)   docx (23.1 Kb)  
Leer 1 página más »
Disponible sólo en Clubensayos.com