ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

CADENAS DE MARKOV


Enviado por   •  5 de Junio de 2013  •  1.749 Palabras (7 Páginas)  •  443 Visitas

Página 1 de 7

NOMBRE DEL ALUMNO:

JOSE BERNARDO PARDO MARTINEZ

NOMBRE DE LA MATERIA:

INV. DE OPERACIONES II

NOMBRE DEL PROFESOR:

ROCHA MARTÍNEZ JUAN

Libro: hillier Lieberman

FECHA:

15/05/13

Introducción

Las cadenas de markov son una herramienta para analizar el comportamiento de determinados procesos estocásticos, estos procesos evolucionan de forma determinativa a lo largo del tiempo en torno a un conjunto de estados. Se enfoca en la toma de decisiones ante la incertidumbre de uno o más eventos futuros con la intención de conocer el verdadero estado de la naturaleza sin embargo algunas decisiones deben tomar en cuenta la incertidumbre acerca de muchos eventos futuros las cadenas de markov tienen la propiedad particular de que las probabilidades que escriben la forma en que el proceso evolucionara en el futuro. Estas poseen ciertos estados que la definen tal como los estados estado transitorio, estado absorbente, estado recurrente, estado alcanzable, estado periódico y estado ergódico.

Hipótesis: Las cadenas de markov se han utilizado para analizar las probabilidades de los patrones de compra

Las cadenas de markov son una herramienta para analizar el comportamiento de determinados procesos estocásticos, estos procesos evolucionan de forma deterministica a lo largo del tiempo en torno a un conjunto de estados.

En las cadenas de markov la cual la probabilidad de que ocurra un evento depende del evento inmediato anterior. En efecto, las cadenas de este tipo tienen memoria. " Recuerdan" el último evento y esto condiciona las posibilidades de los eventos futuros. Esta dependencia del evento anterior distingue a las cadenas de Markov de las series de eventos independientes, como tirar una moneda al aire o un dado.

Una cadena de Markov, que recibe su nombre del matemático ruso Andrei Markov, es una serie de eventos, en la cual la probabilidad de que ocurra un evento depende del evento inmediato anterior. En efecto, las cadenas de este tipo tienen memoria. “ Recuerdan” el último evento y esto condiciona las posibilidades de los eventos futuros. Esta dependencia del evento anterior distingue a las cadenas de Markov de las series de eventos independientes, como tirar una moneda al aire o un dado.

En los negocios, las cadenas de Markov se han utilizado para analizar los patrones de compra de los deudores morosos, para planear las necesidades de personal y para analizar el reemplazo de equipo.

En matemáticas, se define como un proceso estocástico discreto que cumple con la Propiedad de Markov, es decir, si se conoce la historia del sistema hasta su instante actual, su estado presente resume toda la información relevante para describir en probabilidad su estado futuro.

Una cadena de Markov es una secuencia X1, X2, X3, … de variables aleatorias. El rango de estas variables, es llamado espacio estado, el valor de Xn es el estado del proceso en el tiempo n. Si la distribución de probabilidad condicional de Xn+1 en estados pasados es una función de Xn por sí sola, entonces: Donde xi es el estado del proceso en el instante i. La identidad mostrada es la Propiedad de Markov.

Entonces se dice que las probabilidades de transición (de un paso) son estacionarias, así tener probabilidades de transición estacionaras implica que las probabilidades de transición no cambian con el tiempo implican que para cada i, j y n (n=0,1, 2,3….) p{xt+n=i xt=i } = p{xn=j x0=i} asi las probabilidades de transición de n pasos pij son simplemente las probabilidad condicional de que el sistema se encuentre en el estado j exactamente después de n pasos (unidades de tiempo dado que comenzó en el estado i en cualquier tiempo de t cuando n= 1

Es necesario hacer algunos supuestos sobre la distribución conjunta X0, X1,…para obtener resultados analíticos. Un supuesto que conduce el manejo analítico es que el proceso estocástico es una cadena de Markov que tiene una probabilidad markoviana que establece que la probabilidad condicional de cualquier “evento” futuro dado cualquier “evento” pasado y el estado actual Xt=i, es independiente de los eventos pasados y solo depende del estado actual del proceso. Un proceso estocástico {Xt} (t = 0, 1,…) es una cadena de Markov si presenta la propiedad markoviana Los estados en el tiempo __ representan situación exhaustiva y mutuamente excluyentes del sistema en un tiempo específico. Además el número de estado puede ser finito o infinito. Un ejemplo es el juego de lanzar la moneda. Por lo general una cadena de Markov describe el comportamiento de transición de un sistema en intervalos de tiempo igualmente espaciados. Sin embargo, existen situaciones donde los espaciamientos temporales dependen de las características del sistema y por ello, pueden no ser iguales entre sí. Estos casos se denominan cadenas de Markov incrustadas. Con las probabilidades

...

Descargar como (para miembros actualizados)  txt (10.1 Kb)  
Leer 6 páginas más »
Disponible sólo en Clubensayos.com