Estimación De Parámetros
Miguelsdy23 de Octubre de 2013
7.363 Palabras (30 Páginas)455 Visitas
ESTIMACIÓN DE PARÁMETROS
El estudio de poblaciones estadísticas supone en general el conocimiento de la función de probabilidad que gobierna el comportamiento aleatorio de la variable de interés. En muchos casos sabemos o presumimos conocer la familia distribucional de una población. Sabemos por ejemplo que la población es aproximadamente normal; pero desconocemos la media y la varianza poblacionales. Sabemos que la variable de interés es binomial pero desconocemos la probabilidad de éxito poblacional o el número de pruebas de Bernoulli. Sabemos que se trata de un proceso de Poisson pero desconocemos el número de eventos raros por intervalos. Presumimos que la variable es exponencial pero desconocemos el parámetro que precisa la distribución exponencial poblacional.
Lógicamente en todas estas situaciones la función de probabilidad de la variable en estudio se concreta determinando los parámetros poblacionales correspondientes y para lograrlo se utilizan los denominados métodos de estimación de parámetros.
La estimación de uno o varios parámetros poblacionales desconocidos es posible construyendo funciones de probabilidad de variables aleatorias muestrales, mas conocidos como estimadores muestrales.
Dichos estimadores garantizaran un cálculo o una aproximación satisfactoria del parámetro poblacional desconocido siempre que cumplan propiedades de: insesgamiento o máxima simetría, varianza mínima o máxima concentración de los datos alrededor del parámetro estimado y máxima probabilidad.
Estimación puntual
Cuando en una población con familia distribucional conocida queremos estimar el verdadero valor del parámetro poblacional utilizando como lente para determinarlo al estimador muestral ; procedemos a seleccionar una muestra de tamaño n de dicha población, calculamos a partir de ella un valor y afirmamos entonces que es una estimación puntual de con un error, por exceso o defecto, de valor k.
K depende en general de la variable aleatoria muestral y de su desviación . En los casos de muestras grandes, cuando los valores de la muestra corresponden a variables aleatorias estadísticamente independientes (iid) y por lo tanto se dan las condiciones del TLC, se tiene que:
¿Pero como escoger el estimador que mejor precisa el parámetro ?
Hay dos métodos generales: el método de momentos y el método de máxima verosimilitud.
Método de máxima verosimilitud
El método de estimación de máxima verosimilitud permite, en el caso de un parámetro o n vector de parámetros poblacionales desconocidos, determinar el estimador o vector de estimadores que maximizan la función de probabilidad conjunta de una muestra de n v.a. seleccionadas de la población en estudio.
Sea la fdp de una población en la cual queremos determinar .
Sea x1,x2,….,xn una muestra de v.a. iid seleccionadas de dicha población, a la función de probabilidad conjunta L( ) de las n v.a. de la muestra la llamaremos funcion de verosimilitud muestral, es decir:
L ( )=L(x1,x2,….,xn; )
Pero como las v.a. son independientes tenemos: L( ) = f(x1, ) f(x2, )….f (xn, ). Es decir:
L ( )=
Estimador de máxima verosimilitud -EMV-
El EMV del parámetro es siempre que L( ) sea el valor de máxima probabilidad de la función de verosimilitud L es decir:
es el EMV de si y solo si L( ) es máximo
En la expresión L( )= la función de verosimilitud varia con el parámetro y para el proceso de optimización se considera que las xi son constantes luego de haber determinado la muestra aleatoria.
Observe que como la función logaritmo natural es siempre creciente el EMV de L( ) también optimiza a Ln (L( )) y podemos definir:
l( )=Ln (L( ))= Ln ( )=
y optimizar así: . Si maximiza a l( ) es claro que y <0.
Ejemplo: Considere una población Bernoulli, calcule el EMV para la probabilidad de éxito poblacional p.
Sabemos que f(x,p)=px(1-p)1-x, x=0,1. De esta manera
L (p)=
L (p)=
Y empleando la funcion logaritmo natural se tiene que:
Observe que y .
Y ademas que .
Así si entonces L(p)=(1-p)n que es máximo en p = 0
Y si entonces L(p)=pn que es máximo en p = 1
Por lo tanto es el EMV para p Bernoulli
Ejemplo: Considere una población Poisson y calcule el EMV para la tasa poblacional de sucesos raros
Sabemos que para x = 0,1,2,…
L( )=
como es constante
Observe que , ya que y .
Ejemplo: Considere una función Pareto y calcule EMV para si la fda es
con y
con α conocido y β desconocido.
Primero f(x,β)= ya que F, la fda, es la función integral de f, la fdp.
f(x,β) = αβ β x-(β+1)
La función de verosimilitud es
Aplicando logaritmo natural,
Si α fuese desconocido se podría estimar como el mínimo muestral
=min (x1,x2,…,xn)
observe que .
Ejercicios
Hallar el EMV para
a) λ si f(x,λ)=λ e-λx, x>0.
b) α si f(x,α)=(α+1)xα, 0<x<1
calcule α si
(x1=0.3, x2=0.5, x3=0.7, x4=0.62, x5=0.7,x6=0.3, x7=0.4, x8=0.55, x9=0.60,x10=0.65)
c) Si una población es lognormal, halle EMV para μ si conoce σ2.
d) σ2 si conoce μ.
e) μ y σ2 son desconocidos.
Estimación Por Intervalos
Estamos en una población conocida y desconocemos pero queremos hallar un intervalo de valores que contenga a θ, además conocemos o podemos estimarla con un error pequeño. Para ello seleccionaremos una muestra aleatoria . El Teorema Del Límite Central permite afirmar que
y podemos afirmar con un nivel α que P(-z <Z< z )=1-α
Equivalentemente, P =1-α
P ( )=1-α
Sustituyendo E ( )= ,
Al efectuar la estimación puntual afirmamos con confianza al , que la diferencia absoluta entre el parámetro θ y el valor muestral está acotada por
Denominado intervalo Z para θ, es decir,
θ Є con confianza 1-α.
Intervalo para la proporción p en una población Binomial
Seleccionamos una muestra aleatoria conformada por (p1, p2, p3,…,pn) donde las pi son v.a iid que cumplen E(pi)=p. Es claro que si , y , según el resultado previo de una población binomial se tendrá:
siempre que np y n(1-p) 10
y que con un nivel de significación
Como afirmamos con probabilidad 1-α que
es el error de estimación
es la desviación estándar de la distribución binomial
Al hacer la estimación puntual =π afirmamos con confianza 1- que.
O sea
p con confianza 1-
Intervalo para la media μ en una población normal
Intervalos Z para la media μ
Sea (x1, x2, x3,…,xn) una muestra aleatoria, o sea que las xi son i.i.d., esto es la fdp conjunta de la muestra es
f(x1,x2,…,xn;μ)=
Así el EMV de μ es y también
E( )=μ y
Si en una muestra con n 30 preestablecemos un nivel de significación α podemos afirmar con probabilidad 1-α que:
Es decir que con probabilidad 1-α la diferencia absoluta máxima entre μ y es, o sea , si estimamos afirmamos que
.
Si σ2 es desconocida se debe estimar mediante s2 calculado en la muestra particular así afirmamos que:
Aunque en Z= se introduce variabilidad en el numerador con y en el denominador con S este efecto se contrarresta con n grande.
¿Que pasa si σ2 es desconocida y n<30?, que ahora si aumenta la variabilidad y necesitamos una distribución acampanada con colas robustas que permitan mayor variabilidad, o sea, una distribución T.
P(T>t ,v )= E(T)=0 V(T)= n>2
Si la población es normal entonces T= se distribuye según Gosset como una t-student con n-1 grados de libertad. Observe que S se basa en el cálculo de de forma que en el cálculo de =0 sólo hay n-1 variables libremente determinadas. La n-ésima depende de ellas, a este número se le denomina grados de libertad v =n-1.
Si de una población normal seleccionamos una muestra pequeña n<30 y calculamos y S=s preestableciendo un nivel de significación α podemos construir un intervalo T bilateral de confianza 1-α con v=n-1 grados de libertad para μ así:
con confianza 1-α
PROBLEMAS SELECCIONADOS
1. Ingenieros químicos de la Universidad de Murcia (España) realizaron una serie de experimentos para determinar cuál es la membrana más efectiva para usarse en un muestreador pasivo (Environmental science & Technology, Vol.27, 1993). La efectividad de un muestreador pasivo se midió en términos de la tasa de muestreo, registrada en centímetros cúbicos por minuto.
...