Cadena De Markov
kamedina3320 de Abril de 2015
4.905 Palabras (20 Páginas)538 Visitas
UNA APLICACIÓN DE LAS CADENAS DE MARKOV
EN UN PROCESO INDUSTRIAL
ING. JORGE HERNÁN RESTREPO C
Ms. CARLOS ALBERTO OSSA
UNIVERSIDAD TECNOLÓGICA DE PEREIRA
MAESTRIA EN INVESTIGACIÓN DE OPERACIONES Y ESTADÍSTICA
PEREIRA 2002
CONTENIDO
INTRODUCCIÓN 3
ANTECEDENTES 3
OBJETIVOS 5
MARCO TEÓRICO 6
1. PROCESOS MARKOV 6
1.1. ESTADOS DEL SISTEMA: 6
1.2. LA CONDICIÓN DE MARKOV: 8
1.3. PROBABILIDADES DE TRANSICIÓN: 9
1.4. CLASIFICACIÓN DE LOS ESTADOS 12
2. COMPORTAMIENTO A LARGO PLAZO DE UNA CADENA REGULAR 14
3. CADENAS ERGÓDICAS 15
4. LÍMITES ERGÓDICOS EN LAS CADENAS DE MARKOV 15
5. CLASIFICACIÓN DE LOS ESTADOS: 18
SOLUCIÓN DEL PROBLEMA 19
1. DESCRIPCIÓN DE LOS ESTADOS 19
2. EL PROCESO COMO CADENA DE MARKOV 19
3. DATOS PARA CONSTRUIR LA MATRIZ DE TRANSICIÓN. 21
4. ICÓNICO DEL PROBLEMA 25
5. CALCULO DE PROBABILIDADES 25
6. MATRIZ DE TRANSICIÓN 26
7. ACCESIBILIDAD DE LOS ESTADOS 26
8. COMUNICACIÓN ENTRE ESTADOS 27
9. CONCURRENCIA DE LOS ESTADOS 27
10. MOSTRAR QUE LOS ESTADOS SON APERIÓDICOS. 29
11. POLINOMIO CARACTERISTICO Y VALORES PROPIOS. 30
12. DETERMINAR LA REGULARIDAD DE LA MATRIZ. 33
13. LÍMITES ERGÓDICOS 34
14. VECTOR PROPIO PARA EL VALOR PROPIO =1 37
15. PROBABILIDADES DE ESTADO ESTABLE 37
16. TIEMPO DE RECURRENCIA Y PRIMERA OCURRENCIA 38
CONCLUSIONES 40
RECOMENDACIONES 42
BIBLIOGRAFÍA 43
ANEXOS 44
INTRODUCCIÓN
El presente trabajo pretende mostrar la aplicación de las cadenas de Markov en el proceso industrial de fabricación de tejas de asbesto cemento en la empresa Empresa S.A.
ANTECEDENTES
Empresa es una empresa del grupo Eternit Bélgica dedicada a generar soluciones a la industria de la construcción con sus productos de asbesto cemento.
En esta empresa es una prioridad el manejo del Scrap(desperdicio) en el proceso productivo debido a que su acumulación sé convierte en un problema ambiental y a su vez una carga en el costo final del producto.
El proceso productivo se puede describir así:
1. Humectación: lugar donde se combinan las materias primas para generar la mezcla con la que se elaboraran las tejas de asbesto cemento.
2. Fabricación: lugar donde la mezcla del proceso anterior se le da forma de teja.
3. Desmoldeo: lugar donde la teja es fraguada y separada de los moldes y apilada en estibas.
4. Almacén de producto terminado: lugar donde las tejas provenientes de desmoldeo terminan su ciclo de fraguado.
5. Scrap: lugar donde se almacenan los desperdicios o defectuosos generados por los procesos anteriores.
Iconico del proceso:
HUMETACIÓN
FABRICACIÓN DESMOLDEO APT
SCRAP
OBJETIVOS
GENERAL:
Aplicar la teoría fundamental de cadenas de Markov para determinar el comportamiento de la materia prima a futuro en cada proceso.
ESPECIFICOS:
• Mostrar que el proceso es una cadena de Markov.
• Construir la matriz de transición.
• Mostrar que los estados son accesibles.
• Mostrar que los estados se comunican.
• Mostrar que los estados son recurrentes.
• Mostrar que los estados son aperiódicos.
• Determinar el polinomio característico y los valores propios.
• Determinar la regularidad de la matriz.
• Determinar los limites ergódicos.
• Determinar el vector propio para el valor propio = 1.
• Presentar las probabilidades de estado estable.
• Presentar los tiempos de: recurrencia y primera ocurrencia.
MARCO TEÓRICO
1. PROCESOS MARKOV
1.1. ESTADOS DEL SISTEMA:
Un modelo de Markov consiste en un conjunto de estados discretos. Este conjunto es exhaustivo y describe todos los posibles estados donde el sistema puede estar. La transición del estado i a j ocurre con una probabilidad pij
Podemos pensar en un modelo de Markov como una simple línea de transferencia.
Se puede pensar en dos máquinas y en un inventario. Cada máquina es descrita por su tiempo de operación, su tiempo para la falla y su tiempo para la reparación. El tiempo de proceso se refiere a la cantidad de tiempo en que demora hacer una parte. El tiempo para la falla, es el tiempo que ocurre entre la ultima reparación y el siguiente daño. El tiempo para reparación, es el tiempo que transcurre entre el ultimo daño y el momento en que la máquina esta disponible para operar. Estas cantidades pueden ser deterministicas, en estos casos se obtienen estados discretos y una cadena de Markov con transiciones discretas(o tiempos discretos en la cadena de Markov). También puede ser continuo con variables aleatorias.
Se asume que la primera máquina nunca deja de ser alimentada y la ultima maquina nunca es bloqueada.
Se modela para una maquina y así tener una idea básica de la cadena de Markov. En este caso el estado de la maquina se describe por su estatus, Wi, donde:
Wi = 1 máquina disponible
0 máquina en reparación
M1
Inventario
M2
La cadena se puede representar así:
Donde de 0 a 1 se da la probabilidad de repararse.
Donde de 1 a 0 se da la probabilidad de falla.
0
1
Estas probabilidades se obtienen al observar las máquinas en operación por un largo periodo de tiempo. Estos datos se pueden recopilar para determinar que porcentaje de tiempo la máquina esta siendo reparada e igual para el porcentaje de tiempo que la máquina esta disponible para el trabajo.
Ahora los estados de este proceso consisten en el estatus de cada máquina más la cantidad de material presente en el sistema. Específicamente, el estado del sistema es:
S=(n,W1,W2),
Donde :
.n= # de piezas en inventario + # piezas en la máquina 2 0<=n<=N
Ya que n, W1 y W2 son enteros, el sistema es descrito por un conjunto de estados mutuamente excluyentes y colectivamente exhaustivos S1, S2,......., Sm. Entonces el sistema puede estar solo en uno de estos estados en algún instante de tiempo dado.
El sistema puede experimentar un cambio de estado(o una transición de estado) en un instante de tiempo discreto de acuerdo a un conjunto de probabilidades. Permitamos que P[Si(k)]= probabilidad que el sistema este en el estado Si en el tiempo k.
Ahora se puede decir que un cambio de estado ocurrirá con probabilidad, P[Sj(k)]/Sa(k-1), Sb(k-2), Sc(k-3).......] 1<=j,a,b,c<=m k = 1,2,3....
Lo anteriores denota como la probabilidad de transición. Note que (j) podrá ser igual a (a), para el caso en que no cambie de estado.
1.2. LA CONDICIÓN DE MARKOV:
Si P[Sj(k) / Sa(k-1), Sb(k-2), Sc(k-3).....] = P[Sj(k) / Sa(k-1)] para todo k, j,a, b, c,..... entonces el sistema es un estado discreto de discretas transiciones de procesos de Markov. La implicación de esta condición es que la historia anterior del sistema a su llegada en (a) no tiene efecto en la transición a (j). En otras palabras, el sistema no tiene memoria.
1.3. PROBABILIDADES DE TRANSICIÓN:
Para una cadena de Markov, se definen las probabilidades de transición como:
pij = P[Sj(k) / Si(k-1)] 1<= i,j <= m
y las pij son independientes de (k). Estas probabilidades pueden ser incluidas en una matriz de transición,
P11 P12 ........................ P1m
P21 P22 ........................ P2m
P= . . . .
. . . .
Pm1 Pm2 ........................ Pmm
También note que las transiciones de probabilidad satisfacen
0<=pij<=1
y
m
pij =1, i = 1,2,3...........,m
.j=1
Debido a que los estados son mutuamente excluyentes y colectivamente exhaustivos.
La matriz P, proporciona una completa descripción del proceso de Markov el cual se usara para responder numerosas preguntas sobre el sistema. Por ejemplo,
Q1. Cuál es la probabilidad que el sistema este en Si después de k transiciones si el estado en k=0 es conocido?
Se puede responder la pregunta así:
P[Sj(k+1)]=P[S1(k)p1j+P[S2(k)]p2j+......+P[Sm(k)]pmj,
Donde P[Sj(k+1)]=probabilidad que el sistema este en el estado Sj en el tiempo k+1.
En la ecuación anterior, j=1,2,.....,m.
Si se escriben todos las m, se puede representar en forma matricial y obtener:
(P[S1(k+1)] P[S2(k+1)]……….P[Sm(k+1)])
P11 P12 ................. P1m
...