ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Probabilidades

rossale2529 de Enero de 2014

7.268 Palabras (30 Páginas)222 Visitas

Página 1 de 30

Distribuciones de Probabilidad.

Definición

Una distribución de probabilidad indica toda la gama de valores que pueden representarse como resultado de un experimento si éste se llevase a cabo.

Es decir, describe la probabilidad de que un evento se realice en el futuro, constituye una herramienta fundamental para la prospectiva, puesto que se puede diseñar un escenario de acontecimientos futuros considerando las tendencias actuales de diversos fenómenos naturales.

Variables Aleatorias

Una variable aleatoria o variable estocástica es una variable estadística cuyos valores se obtienen de mediciones en algún tipo de experimento aleatorio. Formalmente, una variable aleatoria es una función, que asigna eventos.

Los valores posibles de esta pueden representar los posibles resultados de un experimento aún no realizado, o los posibles valores de una cantidad cuyo valor actualmente existente es incierto, Ejem: como resultado de medición incompleta o imprecisa.

Puede tomarse como una cantidad cuyo valor no es fijo pero puede tomar diferentes valores; una distribución de probabilidad se usa para describir la probabilidad de que se den los diferentes valores.

Una variable aleatoria X es una función real definida en el espacio muestral, Ω, asociado a un experimento aleatorio.

Rango de una variable aleatoria.

Se llama rango de una variable aleatoria X y lo denotaremos RX, a la imagen o rango de la función X, es decir, al conjunto de los valores reales que ésta puede tomar, según la aplicación X. Queda definida de la siguiente manera:

Distribución de probabilidad de una Variable Aleatoria

También llamada función de distribución de X es la función , que asigna a cada evento definido sobre una probabilidad dada por la siguiente expresión:

Y de manera que se cumplan las siguientes tres condiciones:

1. y

2. Es continua por la derecha.

3. Es monótona no decreciente.

La distribución de probabilidad de una variable aleatoria, describe teóricamente la forma en que varían los resultados de un experimento aleatorio. Intuitivamente se trataría de una lista de los resultados posibles de un experimento con las probabilidades que se esperarían ver asociadas con cada resultado.

Funciones de variables aleatorias

Sea una variable aleatoria sobre y una función medible de Borel , entonces será también una variable aleatoria sobre , dado que la composición de funciones medibles también es medible a no ser que sea una función medible de Lebesgue. El mismo procedimiento que permite ir de un espacio de probabilidad a puede ser utilizado para obtener la distribución de . La función de probabilidad acumulada de es

Si la función g es invertible, es decir g-1 existe, y es monótona creciente, entonces la anterior relación puede ser extendida para obtener:

Trabajando de nuevo bajo las mismas hipótesis de invertibilidad de g y asumiendo además diferenciabilidad, podemos hallar la relación entre las funciones de densidad de probabilidad al diferenciar ambos términos respecto de y, obteniendo

.

Si g no es invertible pero cada y tiene un número finito de raíces, entonces la relación previa con la función de densidad de probabilidad puede generalizarse así:

Donde xi = gi-1(y). Las fórmulas de densidad no requieren que g sea creciente.

Parámetros de una Variable aleatoria

La función de densidad o la distribución de probabilidad de una variable aleatoriacontiene exhaustivamente toda la información sobre la variable. Sin embargo resulta conveniente resumir sus características principales con unos cuantos valores numéricos. Estos son, fundamentalmente la esperanza y la varianza.

Variable discreta

Una variable discreta es aquella que toma valores aislados, es decir no admite valores intermedios entre dos valores específicos. Por ejemplo:

El número de hermanos de 5 amigos: 2, 1, 0, 1, 3.

Para una variable aleatoria discreta con valores posibles y sus probabilidades representadas por la función de probabilidad la esperanza se calcula con la siguiente expresión:

Ejemplo para variable aleatoria discreta:

Se tiene una moneda que al lanzarla puede dar sólo dos resultados: o cara (50%), o cruz (50%).

La siguiente tabla muestra los posibles resultados de lanzar dos veces una moneda:

PRIMER LANZAMIENTO SEGUNDO LANZAMIENTO NUMERO DE CARAS EN 2 LANZAMIENTOS PROBABILIDAD DE LOS 4 RESULTADOS POSIBLES

CARA CARA 2 0.5 X 0.5 = 0.25

CARA CRUZ 1 0.5 X 0.5 = 0.25

CRUZ CARA 1 0.5 X 0.5 = 0.25

CRUZ CRUZ 0 0.5 X 0.5 = 0.25

Al realizar la tabla de distribución del número posible de caras que resulta de lanzar una moneda dos veces, se obtiene:

NÚMERO DE CARAS LANZAMIENTOS PROBABILIDAD DE ESTE RESULTADO

P(CARA)

0 (CRUZ, CRUZ) 0.25

1 (CARA, CRUZ)

+

(CRUZ, CARA) 0.50

2 (CARA, CARA) 0.25

Variable contínua

Una variable continua es aquella que puede tomar valores comprendidos entre dos números. Por ejemplo:

La altura de los 5 amigos: 1.73, 1.82, 1.77, 1.69, 1.75.

En la práctica medimos la altura con dos decimales, pero también se podría dar con tres decimales.

Para una variable aleatoria continua la esperanza se calcula mediante la integral de todos los valores y la función de densidad :

o

Estimaciones.

En inferencia estadística se llama estimación al conjunto de técnicas que permiten dar un valor aproximado de un parámetro de una población a partir de los datos proporcionados por una muestra. Por ejemplo, una estimación de la media de una determinada característica de una población de tamaño N podría ser la media de esa misma característica para una muestra de tamaño N.

La estimación se divide en tres grandes bloques, cada uno de los cuales tiene distintos métodos que se usan en función de las características y propósitos del estudio:

• Estimación puntual:

Método de los momentos;

Método de la máxima verosimilitud;

Método de los mínimos cuadrados;

• Estimación por intervalos.

• Estimación bayesiana.

Estimación puntual.

Consiste en la estimación del valor del parámetro mediante un sólo valor, obtenido de una fórmula determinada. Por ejemplo, si se pretende estimar la talla media de un determinado grupo de individuos, puede extraerse una muestra y ofrecer como estimación puntual la talla media de los individuos. Lo más importante de un estimador, es que sea un estimador eficiente. Es decir, que sea insesgado(ausencia de sesgos) y estable en el muestreo o eficiente (varianza mínima).

- Método de los momentos:

Consiste en igualar momentos poblacionales a momentos muestrales. Deberemos tener tantas igualdades como parámetros a estimar.

- Método de máxima verosimilitud:

Consiste en tomar como valor del parámetro aquel que maximice la probabilidad de que ocurra la muestra observada. Si X1, ..., Xn es una muestra seleccionada de una población con distribución Fθ o densidad fθ(x), la probabilidad de que ocurra una realización x1, ..., xn viene dada por: Lθ(x1, ..., xn) = Yn i=1 fθ(xi ) A Lθ(x1, ..., xn) se le llama función de verosimilitud.(credibilidad de la muestra observada). Buscamos entonces el valor de θ que maximice la función de verosimilud, y al valor obtenido se le llama estimación por máxima verosimilitud de θ. Nota: si la variable X es discreta, en lugar de fθ(xi) consideramos la función masa de probabilidad pθ(xi).

- Métodos de mínimos cuadrados.

El procedimiento mas objetivo para ajustar una recta a un conjunto de datos presentados enun diagrama de dispersión se conoce como "el método de los mínimos cuadrados". La rectaresultante presenta dos características importantes:

1. Es nula la suma de las desviaciones verticales de los puntos a partir de la recta de ajuste∑ (Yー - Y) = 0.

2. Es mínima la suma de los cuadrados de dichas desviaciones. Ninguna otra recta daríauna suma menor de las desviaciones elevadas al cuadrado ∑ (Yー - Y)² → 0

(Mínima).

El procedimiento consiste entonces en minimizar los residuos al cuadrado Ci²

Re emplazando nos queda

Estimación por intervalos.

Dada una población X, que sigue una distribución cualquiera con media µ y desviación estándar σ.

1. Sabemos que, para valores grandes de n , la media muestral x sigue una distribución aproximadamente normal con media µx = µ y desviación estándar n x σ = σ .

2. Por otra parte, el Teorema de Chebyshev nos dice que, en una distribución normal, aproximadamente un 95% de los datos estaban situados a una distancia inferior a dos desviaciones estándar de la media.

Este tipo de intervalos se llaman intervalos de confianza de un parámetro poblacional. El nivel de confianza (1 - α) del intervalo es la probabilidad de que éste contenga al parámetro poblacional.

En la estimación por intervalos se usan los siguientes conceptos:

Intervalo de confianza

El intervalo de confianza es una expresión

...

Descargar como (para miembros actualizados) txt (43 Kb)
Leer 29 páginas más »
Disponible sólo en Clubensayos.com