Ientífico ruso que influyó sobre diversos campos de las matemáticas
Jose Gutierrez BarrazaTarea27 de Noviembre de 2015
2.923 Palabras (12 Páginas)103 Visitas
[pic 2][pic 3]
[pic 4]
Instituto Tecnológico de Culiacán
Carrera:
Ingeniería Industrial
Nombre de la actividad:
Cadenas de Markov
Curso:
Investigación de Operaciones II
[pic 5]
Índice
Resumen…………………………………………….……………………………………..3
Introducción…………………………………………...……………………………….…..4
- Objetivo
- Antecedentes
- Justificación
Marco Teórico………………………………………………………………………..…… 7
- Ejemplo Practico
- Tipos de Cadenas de Markov
- Aplicaciones
- Software Utilizado
- Caso Practico
Conclusión………………………….……………………………………………………..14
Referencias……………………..…………………………………………………….……15
[pic 6]
Resumen
Andréi Andréyevich Markov, científico ruso que influyó sobre diversos campos de las matemáticas, principalmente por sus resultados relacionados con la teoría de la probabilidad es un tipo especial de proceso estocástico discreto en el que la probabilidad de que ocurra un evento depende del evento inmediatamente anterior. En efecto, las cadenas de este tipo se dice que "Recuerdan" el último evento y esto condiciona las posibilidades de los eventos futuros. Esta dependencia del evento anterior distingue a las cadenas de Márkov de las series de eventos independientes, Estos modelos muestran una estructura de dependencia simple, pero muy útil en muchas aplicaciones. Sus principales aplicación son en ramas como: física, meteorología, modelos epidemiológicos, simulación, economía y finanzas.
Abstract
Andrei Andreyevich Markov, Russian scientist who influenced various fields of mathematics, mainly related to their probability theory results is a special type of discrete stochastic process in which the probability of an event occurring depends on the immediately preceding event. Indeed, the chains of this type is said to "remember" the last event and this affects the possibilities for future events. This dependency on the previous event distinguishes Markov chains series of independent events, These models show a simple dependence structure, but very useful in many applications. Its main applications are in industries such as physics, meteorology, epidemiological modeling, simulation, economics and finance.
Introducción
En problemas de toma de decisiones, continuamente surge la necesidad de tomar decisiones fundamentadas en fenómenos donde se encuentra una cierta duda. En este trabajo se explica un modelo de probabilidad procesos conocidos como “Estocásticos” como son las cadenas de markov que tienen la propiedad propia de que las probabilidades que describen la forma en que el proceso evolucionará en el futuro dependiendo de su estado actual, esta herramienta tan útil se dio a conocer en 1887, recibe su nombre del matemático ruso Andrei Markov que desarrollo el método, ésta se utiliza para posibilitar que se encuentre la probabilidad de que un sistema se halle en un estado en particular en un momento dado, Markov fue un matemático ruso conocido por sus trabajos en la teoría de los números y la teoría de probabilidades.
La cadena de Markov es una serie de eventos, en la cual la probabilidad de que ocurra un evento depende del evento inmediato anterior. En efecto, las cadenas de este tipo tienen memoria. “Recuerdan” el último evento y esto condiciona las posibilidades de los eventos futuros. Esta dependencia del evento anterior distingue a las cadenas de Markov de las series de eventos independientes.
Además se habla sobre software para realizar este tipo de modelos como son Excel y WinQSB, los cuales son de gran ayuda debido a que cadenas de Markov son problemas muy complicados que necesitan de mucho tiempo lo que ha ayudado a las empresas a minimizar sus costos y a aumentar sus utilidades. En los negocios, la cadena de Markov se ha utilizado para analizar los patrones de compra de los deudores morosos, para planear las necesidades de personal y para analizar el reemplazo de equipo. En matemáticas, se define como un proceso estocástico discreto que cumple con la Propiedad de Markov, es decir, si la empresa conoce la historia del sistema hasta su instante actual, su estado presente resume toda la información relevante para describir en probabilidad su estado futuro.
El hacer uso de ésta herramienta tiene algunas ventajas por ejemplo: Pueden describir sistemas muy complejos y que su vez pueden ser usados para experimentar con sistemas que existan o que no existan sin alterarlos. Pero también tiene algunas desventajas como que no existe un conjunto de soluciones cerradas, cada cambio en las variables de entrada requiere una solución separada o conjunto de ejecuciones y en modelos de simulación, pueden requerir mucho tiempo para construirlos y ejecutarlos.
Finalmente las cadenas de Markov, se pueden aplicar en áreas como la educación, comercialización, servicios de salud, finanzas, contabilidad y producción.
Marco Teórico
Cuando se habla de una Cadena de Markov hace referencia a una clase específica de proceso estocástico en el ámbito de modelos probabilísticos, por lo tanto para poder hacer usto de éstas es importante conocer a fondo problemas teóricos y prácticos sobre probabilidad, así como también contar con los conocimientos para la solución de matrices y saber sobre la toma de decisiones. Ya que como se mencionó con anterioridad las Cadenas de Markov predicen el futuro con los acontecimientos del presente.
Los componentes de las cadenas de markov son las siguientes:
- Un conjunto finito de M estados, exhaustivos y mutuamente excluyentes.
- Ciclo de markov (“paso”): periodo de tiempo que sirve de base para examinar las transiciones entre estados.
- Probabilidades de transición entre estados, en un ciclo.
Distribución inicial del sistema entre los M estados posibles
Para lograr obtener una definición más clara sobre las cadenas de Markov debemos tener conocimiento de algunos conceptos.
Proceso
Un proceso es un conjunto de actividades mutuamente relacionadas o que, al interactuar, transforman elementos de entrada y los convierten en resultados.
Estocástico
Se denomina estocástico al sistema cuyo comportamiento es no determinista, en la medida que el subsiguiente estado del sistema está determinado tanto por las acciones predecibles del proceso como por elementos aleatorios. No obstante, de acuerdo a M. Kac y E. Nelson, cualquier desarrollo temporal que pueda ser analizable en términos de probabilidad merece ser denominado como un proceso estocástico.
Procesos estocásticos
Según Hillier & Lieberman (2010) un proceso estocástico se define como “una colección indexada de variables aleatorias [Xt], donde el índice t toma valores de un conjunto T dado”. Estos son de interés para la descripción del comportamiento de un sistema de operación durante algunos periodos.
Algunos ejemplos de procesos estocásticos
- Serie mensual de ventas de un producto
- Estado de una máquina al final de cada semana (funciona/averiada)
- Nº de clientes esperando en una cola cada 30 segundos
- Marca de detergente que compra un consumidor cada vez que hace la compra. Se supone que existen 7 marcas diferentes
- Nº de unidades en almacén al finalizar la semana
Desarrollo
Una cadena de Markov tiene la característica de ser clasificado en estados, las propiedades a largo plazo de una cadena de Markov dependen bastante de la característica de sus estados y de la matriz de transición. La matriz de transición es la respuesta que depende solamente de las condiciones iniciales, se obtiene cuando la entrada al sistema u(t) se hace igual a cero, analíticamente viene dada por: x (t) = Ax(t) + Bu(t).
Una Cadena de Markov (CM) es:
- Un proceso estocástico
- Con un número finito de estados (M)
- Con probabilidades de transición estacionarias
- Que tiene la propiedad Markoviana
Es un conjunto o sucesión de variables aleatorias: {X(t)CG } definidas en un mismo espacio de probabilidad, Normalmente el índice t representa un tiempo y X(t) el estado del proceso estocástico en el instante t.
El proceso puede ser de tiempo discreto o continuo si G es discreto o continuo. Si el proceso es de tiempo discreto, usamos enteros para representar el índice: {X1, X2, ...}
Elementos de una cadena de Markov
- Un conjunto finito de M estados, exhaustivos y mutuamente excluyentes (ejemplo: estados de la enfermedad)
- Ciclo de markov (“paso”) : periodo de tiempo que sirve de base para examinar las transiciones entre estados (ejemplo, un mes)
- Probabilidades de transición entre estados, en un ciclo (matriz P)
- Distribución inicial del sistema entre los M estados posibles
Un proceso estocástico tiene la propiedad markoviana si las probabilidades de transición en un paso sólo dependen del estado del sistema en el período anterior (memoria limitada). Como se muestra en la figura 1.
...