ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Probabilidad


Enviado por   •  19 de Mayo de 2015  •  2.158 Palabras (9 Páginas)  •  158 Visitas

Página 1 de 9

3.1 Distribuciones discretas de probabilidad

Distribuciones discretas y continuas

Las distribuciones discretas son aquellas en las que la variable puede pude tomar un número determinado de valores:

Ejemplo: si se lanza una moneda al aire puede salir cara o cruz; si se tira un dado puede salir un número de 1 al 6; en una ruleta el número puede tomar un valor del 1 al 32.

Las distribuciones continuas son aquellas que presentan un número infinito de posibles soluciones:

Ejemplo: El peso medio de los alumnos de una clase puede tomar infinitos valores dentro de cierto intervalo (42,37 kg, 42,3764 kg, 42, 376541kg, etc.); la esperanza media de vida de una población (72,5 años, 7,513 años, 72, 51234 años).

Vamos a comenzar por estudiar las principales distribuciones discretas.

Distribuciones discretas: Bernoulli

Es aquel modelo que sigue un experimento que se realiza una sola vez y que puede tener dos soluciones: acierto o fracaso:

Cuando es acierto la variable toma el valor 1

Cuando es fracaso la variable toma el valor 0

Ejemplo: Probabilidad de salir cara al lanzar una moneda al aire (sale cara o no sale); probabilidad de ser admitido en una universidad (o te admiten o no te admiten); probabilidad de acertar una quiniela (o aciertas o no aciertas)

Al haber únicamente dos soluciones se trata de sucesos complementarios:

A la probabilidad de éxito se le denomina "p"

A la probabilidad de fracaso se le denomina "q"

Verificándose que:

p + q = 1

3.2 VALOR ESPERADO Y VARIANZA

Valor esperado

El valor esperado es un concepto fundamental en el estudio de las distribuciones de probabilidad. Desde hace muchos años este concepto ha sido Aplicado ampliamente en el negocio de seguros y en los últimos veinte años ha Sido aplicado por otros profesionales que casi siempre toman decisiones en

Condiciones de incertidumbre.

Para obtener el valor esperado de una variable aleatoria discreta, multiplicamos

Cada valor que ésta puede asumir por la probabilidad de ocurrencia de ese

Valor y luego sumamos los productos. Es un promedio ponderado de los

Resultados que se esperan en el futuro.

Sea X una Variable Aleatoria que toma valores en un conjunto discreto (en un

conjunto finito de números en uno infinito como: los naturales, los enteros o los

racionales), por ejemplo si la variable aleatoria X toma los siguientes valores:

X = 0, 1, 2, 3, … decimos que es discreta

La probabilidad de que X tome cada uno de sus valores viene dada por la función

de probabilidad:

P(X = i ), para i = 0, 1, 2, 3, ... ;

Sea P(X = i ) = pi para i = 0, 1, 2, 3, ... Se tiene que p1 + p2 + p3 +...+ pn +... = 1

Se define el Valor Esperado de una Variable Aleatoria con distribución discreta

como:

µ = E(X) = ∑xf (x)

Y para una variable aleatoria con distribución continua como

−∞

µ = E(X) = ∫ xf (x)dx

Varianza

Se podría usar un argumento parecido para justificar las fórmulas para la varianza

de la población 2 σ y la desviación estándar de la población σ . Estas medidas

numéricas describen la dispersión o variabilidad de la variable aleatoria mediante

el “promedio” o “valor esperado” de las desviaciones cuadráticas de los valores de

x a partir de su media µ.

Sea x variable aleatoria discreta con distribución de probabilidad f(x) y media µ.

La varianza de x es: La varianza de x es: σ2 = E [(- X µ)] =∑(x - µ)2 f (x)

Sea x variable aleatoria continua con distribución de probabilidad f(x) y media µ.

∞ La varianza de x es: σ2 = E [(X -µ)2] = ∫ (x- µ)2 f x dx

3.3 distribución de probabilidad binomial

Es una de las distribuciones de probabilidad más útiles (control de calidad, producción, investigación). Tiene que ver con el experimento aleatorio que produce en cada ensayo o prueba uno de dos resultados posibles mutuamente excluyentes: ocurrencia de un criterio o característica específico (llamado éxito) y no ocurrencia de éste (llamado fracaso). Los términos o calificativos de "éxito y fracaso" son solo etiquetas y su interpretación puede no corresponder con el resultado positivo o negativo de un experimento en la realidad

Criterios o propiedades para definir la Distribución Binomial

Resumiendo, podemos definir estos criterios:

1- El experimento aleatorio consiste en ensayos o pruebas repetidas, e idénticas y fijadas antes del experimento (pruebas de Bernoulli). Son pruebas con reemplazamiento o con reposición.

2- Cada uno de los ensayos o pruebas arroja solo uno de dos resultados posibles resultados: éxito o fracaso.

3- La probabilidad del llamado éxito ( , permanece constante para cada ensayo o prueba.

4- Cada prueba o ensayo se repite en idénticas condiciones y es independiente de las demás.

Cuando estas propiedades se cumplen en el experimento aleatorio se dice que el constituye un proceso Cde Bernoulli y cada uno de los ensayos que lo conforman se llama experimento de Bernoulli.

5. El interés recae en hallar la probabilidad de obtener número de éxitos al realizar ensayos del mismo E.A.

La función de probabilidad de X en esas condiciones será:

Para entero y

Características de la distribución binomial.

Tendencia central: = aplicando la definición de valor esperado se obtiene que para esta distribución:

Dispersión o variación: : = lo que conduce a que una v.a. binomial X tiene como varianza

Por lo tanto su desviación estándar: .

Asimetría o deformación (Forma): con base en la razón entre los momentos centrales de orden dos y tres como quedo definido antes:

Sobre la base de que si:

Generalmente la distribución binomial es sesgada o asimétrica hacia la derecha, sesgo que se va perdiendo cuanto más grande sea el valor de (# de pruebas) y en la medida en que se acerque a (por lo tanto tienda a ), limite en el cual se torna simétrica

3.4 distribución de probabilidad de poisson

La distribución de Poisson describe la probabilidad como un acontecimiento fortuito ocurrido en un tiempo o intervalo de espacio bajo las condiciones que la probabilidad de un acontecimiento ocurre es muy pequeño, pero el número de intentos es muy grande, entonces el evento actual ocurre algunas veces.

Características

El número medio (promedio) de eventos en el espacio temporal o región específica de interés, por lo general esta media se representa por la lambda griega

(λ) El número de resultados que ocurren en un intervalo de tiempo o región específicos es independiente del número que ocurre en cualquier otro intervalo de tiempo o región

La probabilidad de que un resultado muy pequeño ocurra en un intervalo de tiempo muy corto o en una región pequeña es proporcional a la longitud del intervalo de tiempo o al tamaño de la región

La probabilidad de que más de un resultado ocurra en un intervalo de tiempo tan corto o en esa región tan pequeña es inapreciable, que se puede asignar el valor de 0

Fórmula de Poisson

P(x I λ) = λ x * e -λ x!

P (x I λ) = la probabilidad de que ocurran X éxitos cuando el número promedio de ocurrencia de ellos es λ

λ media o promedio de éxitos por unidad de tiempo, área o producto

E es la constante 2.7183, base de los logaritmos naturales, en tanto que los valores de e -λ pueden obtenerse de tablas.

X señala un valor específico que la variable pueda tomar (el número de éxitos que deseamos ocurran)

Por definición, el valor esperado (media en el intervalo o región de interés) de una distribución de probabilidad de Poisson es igual a la media de la distribución. E(X) = λ

La varianza del número de eventos de una distribución de probabilidad de Poisson también es igual a la media de la distribución λ. De este modo, la desviación estándar es la raíz cuadrada de λ. V(X) = λ σ = √λ

3.5 distribución de probabilidad hipergeometrica

La distribución hipergeométrica es especialmente útil en todos aquellos casos en los que se extraigan muestras o se realizan experiencias repetidas sin devolución del elemento extraído o sin retornar a la situación experimental inicial.

Modeliza , de hecho, situaciones en las que se repite un número determinado de veces una prueba dicotómica de manera que con cada sucesivo resultado se ve alterada la probabilidad de obtener en la siguiente prueba uno u otro resultado. Es una distribución .fundamental en el estudio de muestras pequeñas de poblaciones .pequeñas y en el cálculo de probabilidades de, juegos de azar y tiene grandes aplicaciones en el control de calidad en otros procesos experimentales en los que no es posible retornar a la situación de partida.

La distribución hipergeométrica puede derivarse de un proceso experimental puro o de Bernoulli con las siguientes características:

• El proceso consta de n pruebas, separadas o separables de entre un conjunto de N pruebas posibles.

• Cada una de las pruebas puede dar únicamente dos resultados mutuamente excluyentes: A y no A.

• En la primera prueba las probabilidades son: P(A)= p y P(A)= q; con p+q=l.

Las probabilidades de obtener un resultado A y de obtener un resultado no A varían en las sucesivas pruebas, dependiendo de los resultados anteriores.

• (Derivación de la distribución). Si estas circunstancias aleatorias de forma que la variable aleatoria X sea el número de resultados A obtenidos en n pruebas la distribución de X será una Hipergeométrica de parámetros N, n, p así

Los experimentos que tienen este tipo de distribución tienen las siguientes características:

a) Al realizar un experimento con este tipo de distribución, se esperan dos tipos de resultados.

b) Las probabilidades asociadas a cada uno de los resultados no son constantes.

c) Cada ensayo o repetición del experimento no es independiente de los demás.

d) El número de repeticiones del experimento (n) es constante.

3.7 distribución de probabilidad normal

La distribución normal es, sin duda, la distribución de probabilidad más importante del Cálculo de probabilidades y de la Estadística. Fue descubierta por De Moivre (1773), como aproximación de la distribución binomial. De todas formas, la importancia de la distribución normal queda totalmente consolidada por ser la distribución límite de numerosas variables aleatorias, discretas y continuas, como se demuestra a través de los teoremas centrales del límite. Las consecuencias de estos teoremas implican la casi universal presencia de la distribución normal en todos los campos de las ciencias empíricas: biología, medicina, psicología, física, economía, etc. En particular, muchas medidas de datos continuos en medicina y en biología (talla, presión arterial, etc.) se aproximan a la distribución normal. Junto a lo anterior, no es menos importante el interés que supone la simplicidad de sus características y de que de ella derivan, entre otras, tres distribuciones (Ji-cuadrado, t y F) que se mencionarán más adelante, de importancia clave en el campo de la contratación de hipótesis estadísticas.

3.8 distribución de probabilidad exponencial

La distribución exponencial es el equivalente continuo de la distribución geométrica discreta. Esta ley de distribución describe procesos en los que interesa saber el tiempo hasta que ocurre determinado evento; en particular, se utiliza para modelar tiempos de supervivencia. Un ejemplo es el tiempo que tarda una partícula radiactiva en desintegrarse. El conocimiento de la ley que sigue este evento se utiliza, por ejemplo, para la datación de fósiles o cualquier materia orgánica mediante la técnica del carbono 14. Una característica importante de esta distribución es la propiedad conocida como “falta de memoria”. Esto significa, por ejemplo, que la probabilidad de que un individuo de edad t sobreviva x años más, hasta la edad x+t, es la misma que tiene un recién nacido de sobrevivir hasta la edad x. Dicho de manera más general, el tiempo transcurrido desde cualquier instante dado t0 hasta que ocurre el evento, no depende de lo que haya ocurrido antes del instante t0. La distribución exponencial se puede caracterizar como la distribución del tiempo entre sucesos consecutivos generados por un proceso de Poisson; por ejemplo, el tiempo que transcurre entre dos heridas graves sufridas por una persona. La media de la distribución de Poisson, lambda, que representa la tasa de ocurrencia del evento por unidad de tiempo, es el parámetro de la distribución exponencial, y su inversa es el valor medio de la distribución. También se puede ver como un caso particular de la distribución gamma(a, p), con a=lambda y p=1. El uso de la distribución exponencial ha sido limitado en bioestadística, debido a la propiedad de falta de memoria que la hace demasiado restrictiva para la mayoría de los problemas

...

Descargar como  txt (12.8 Kb)  
Leer 8 páginas más »
txt