ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Teorema De Bayes


Enviado por   •  7 de Agosto de 2013  •  2.449 Palabras (10 Páginas)  •  421 Visitas

Página 1 de 10

Teorema de Bayes

Thomas Bayes nació en Londres, Inglaterra en 1702 y murió el 7 de abril de 1761. Ministro presbiteriano y matemático dedicó su vida dedico su vida a el estudio de las causas de los hechos. Ministro de a ROYAL SOCIETY desde 1742, fue el primero en utilizar la probabilidad inductivamente y establecer una base matemática para la inferencia probabilística (la manera de calcular a partir de la frecuencia con la que un acontecimiento ocurrió, la probabilidad de que ocurrirá en el futuro). Este estudio orientado en plan casi teológico al establecimiento de una causa fundamental de las cosas, motivo un trabajo publicado en 1763 sobre la probabilidad de las causas desconocidas a partir de acontecimientos observados, es decir sobre la probabilidad condicionada.

Los únicos trabajos que se sabe que Thomas Bayes publico en vida son: DIVENE PROVIDENCE AND GOVERMENT IS THE HAPPINESS OF THIS CREATURES y AN INTRODUCTION TO THE DOCTRINE OF FLUXION, AND A DEFENCE OF THE ANALYST, que fueron blanco de críticas por parte del obispo BERKELEY, quien sustentaba sus ideas en los fundamentos lógicos en el cálculo de Newton.

En 1763 se publico póstumamente ESSAY TOWARS SOLVING A PROBLEM IN THE DOCTRINE OF CHANCES, donde el reverendo Bayes abordo el problema de las causas a través de los efectos observados y donde se enuncia el teorema que lleva su nombre. Este trabajo fue entregado a la ROYAL SOCIETY por Richard Price y resulta ser la base para la técnica estadística conocida como estadística bayesiana, que se utiliza para calcular la probabilidad de la validez de una proposición tomando como bases la estimación de la probabilidad previa y las evidencias relevantes mas resientes.

La interpretación más aceptada del teorema de Bayes, es que su estructura permite el cálculo de probabilidades después de haber sido realizado un experimento (probabilidades a posteriori), basándose en el conocimiento de la ocurrencia de ciertos eventos que dependan del evento estudiado, o sea, se parte de probabilidades conocidas antes de efectuar el experimento (probabilidades apriori), las cuales son afectadas por las probabilidades propias del experimento (las que aparecen durante la ocurrencia del evento).

Continuando nuestro análisis sobre el teorema de Bayes, la probabilidad condicional deAi dado B, para cualquier i, es:

Aplicando en el numerador la Regla de Multiplicación P(AiÇB) = P(Ai) P(B|Ai) y en el denominador el Teorema de Probabilidad Total P(B) = P(A1) P(B | A1) + P(A2) P(B | A2) + . . . + P(An) P(B | An), obtenemos la ecuación que representa al:

Teorema de Bayes

Ejemplo del teorema de Bayes:

Referente al problema de la fábrica que produce dos tipos de reguladores A y B visto anteriormente en la aparte corresponde al Teorema de Probabilidad Total, cabe hacer el siguiente análisis: si se selecciona un regulador al azar de la producción de la fábrica y se ve que funciona bien ¿Cuál es la probabilidad de que sea del tipo B?

Solución

En este caso el estudio se restringe a los reguladores que funcionan bien, por lo que ese evento actúa como espacio muestral reducido, o sea como evento condición. Por lo tanto, el planteamiento de la pregunta es P(B | F).

Los datos que se tienen son :

P(A) = 0.75 P(F | A) = 0.95

P(B) = 0.25 P(F | B) = 0.98

De acuerdo al Teorema de Bayes:

Podemos observar que el denominador corresponde al resultado obtenido al aplicar el Teorema de Probabilidad Total, lo cual debe ser así, ya que la probabilidad condicional establece que . De esta forma podemos ver que la Probabilidad

Total es el denominador de la fórmula del Teorema de Bayes. También podemos observar que aplicando los conceptos de la Regla de Multiplicación y del Teorema de Probabilidad Total llegamos al planteamiento del teorema de Bayes, Veamos:

Cadenas de Markov:

En la teoría de la probabilidad, se conoce como cadena de Markov o modelo de Márkov a un tipo especial de proceso estocástico discreto en el que la probabilidad de que ocurra un evento depende del evento inmediatamente anterior. En efecto, las cadenas de este tipo tienen memoria. "Recuerdan" el último evento y esto condiciona las posibilidades de los eventos futuros. Esta dependencia del evento anterior distingue a las cadenas de Markov de las series de eventos independientes, como tirar una moneda al aire o un dado.

Reciben su nombre del matemático ruso Andréi Márkov (1856-1922), que las introdujo en 1907

Estos modelos muestran una estructura de dependencia simple, pero muy útil en muchas aplicaciones.

En matemática se define como un proceso estocástico discreto que cumple con la propiedad de Márkov, es decir, si se conoce la historia del sistema hasta su instante actual, su estado presente resume toda la información relevante para describir en probabilidad su estado futuro.

Una cadena de Márkov es una secuencia X1, X2, X3,... de variables aleatorias. El rango de estas variables, es llamado espacio estado, el valor de Xn es el estado del proceso en el tiempo n. Si la distribución de probabilidad condicional de Xn+1 en estados pasados es una función de Xn por sí sola, entonces:

Donde xi es el estado del proceso en el instante i. La identidad mostrada es la propiedad de Márkov.

Procesos estadísticos

Una sucesión de observaciones X1, X2,. . . se denomina proceso estocástico

Si los valores de estas observaciones no se pueden predecir exactamente. Pero se pueden especificar las probabilidades para los distintos valores posibles en cualquier instante de tiempo.

X1: v.a. que define el estado inicial del proceso

Xn: v.a. que define el estado del proceso

...

Descargar como (para miembros actualizados)  txt (14.2 Kb)  
Leer 9 páginas más »
Disponible sólo en Clubensayos.com