ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Ensayo Cadenas de Markov Inv. Operaciones


Enviado por   •  27 de Mayo de 2020  •  Ensayos  •  27.961 Palabras (112 Páginas)  •  624 Visitas

Página 1 de 112

Cadenas de Markov

Una cadena de Markov es un proceso estocástico y a su vez un sistema matemático que experimenta transiciones de un estado a otro de acuerdo con ciertas reglas probabilísticas. La característica definitoria de una cadena de Markov es que no importa cómo el proceso llegó a su estado actual, los posibles estados futuros son fijos. En otras palabras, la probabilidad de transición a un estado particular depende únicamente del estado actual y el tiempo transcurrido. El espacio de estado, o conjunto de todos los estados posibles, puede ser cualquier cosa, por ejemplo, letras, números, etc. Siendo su autor el señor Andrei Markov Andreevich.

Surgen ampliamente en contextos estadísticos y teóricos de la información y se emplean ampliamente en economía, teoría de colas, genética como también en finanzas. Si bien es posible discutir las cadenas de Markov con cualquier tamaño de espacio de estado, la teoría inicial y la mayoría de las aplicaciones se centran en casos con un número finito de estados.

Las cadenas de Markov se encuentran entre los procesos estocásticos más importantes. Son procesos estocásticos para los cuales la descripción del estado actual captura completamente toda la información que podría influir en la evolución futura de un proceso.

Esta herramienta estudia además la predicción de flujos de tráfico, redes de comunicaciones, colas, entre otros, siendo unos de los ejemplos que se pueden utilizar para modelar dicho rendimiento, que a la hora de diseñar un modelo físico para estos sistemas caóticos sería increíblemente complicado, pero hacerlo usando las cadenas de Markov es bastante simple. Modelar el tráfico de comunicaciones de un lado a otro a través de Internet es un excelente ejemplo de lo que pueden hacer las cadenas de Markov. Hoy en día, Internet se ha vuelto algo fundamental en nuestro día a día, ya sea para informarnos y mantenernos conectando con nuestros cercanos y el mundo en general, siendo extremadamente complejo y el tráfico se mueve de manera aleatoria entre los puntos de intersección o de conexión de la red. Las cadenas de Markov se utilizan comúnmente para describir no solo el tráfico, que es relativamente impredecible, sino también cómo funcionará la red, a pesar de la complejidad de su estructura.

Para describir en profundidad una cadena de Markov es de suma importancia conocer o mas bien saber el estado actual en que se encuentre el proceso y así ver todas las probabilidades de transición que puedan estar presentes. Para visualizar estas las veremos en unas de sus dos métodos, el primero es a través de un diagrama de estados y posteriormente en una matriz de probabilidades de transición. Demostradas gráficamente de la siguiente manera:

Diagrama de Estados: ‘‘Los diagramas de estado muestran el conjunto de estados por los cuales pasa un objeto durante su vida en una aplicación en respuesta a eventos (por ejemplo, mensajes recibidos, tiempo rebasado o errores), junto con sus respuestas y acciones.’’ (Otero Vidal, Mari Carmen 2011 (1)).[pic 1]

Diagrama de probabilidades de Transición: Las Cadenas de Markov están completamente caracterizadas por las probabilidades de transición en una etapa, en este caso están las homogéneas en el tiempo, que pasa de u estado a otro.

Dentro de esto se puede tener la matriz de transición que se agrupa de la siguiente manera:

[pic 2]

Donde es esta matriz cada línea contiene las probabilidades de transición de un estado determinado, la suma de todas estas probabilidades debe ser 1 s elementos de la matriz son mayor o igual a 0 por ser probabilidades. Una matriz que cumpla con estas propiedades se llama matriz por lo que la suma de los elementos de cada fila de dicha matriz deberá valer 1. Como también todos lo estocástica.

Estas se pueden clasificar según estados, donde en primera instancia se puede tener la Probabilidad de alcanzar un estado, donde se dice que un estado es alcanzable desde el estado 1, esto significa que existe una sucesión de arcos. Siendo unos de las herramientas mayormente conocidas y utilizadas por científicos y matemáticos.

Las propiedades que posee esta herramienta van a ser una serie de descripciones de un estado específico en una cadena de Markov o en toda la cadena de Markov permiten una mejor comprensión del comportamiento de esta.

Un estado tiene un período si alguna cadena que comienza en y regresa al estado siguiente con probabilidad positiva debe tomar una serie de pasos divisibles donde el estado se conoce como aperiódico o periódico. Si todos los estados son aperiódicos, entonces la cadena de Markov se conoce como aperiódica.

Una cadena de Markov se conoce como irreducible si existe una cadena de pasos entre dos estados que tiene probabilidad positiva. Los estados absorbentes son cruciales para la discusión sobre la absorción de las cadenas de Markov. Un estado se conoce como recurrente o transitorio dependiendo de si la cadena de Markov eventualmente regresará a él. Un estado recurrente se conoce como positivo recurrente si se espera que regrese dentro de un número finito de pasos, y nulo recurrente de lo contrario. Un estado se conoce como ergódico si es positivo recurrente y aperiódico. Una cadena de Markov es ergódica si todos sus estados lo son. La irreductibilidad y la periodicidad se refieren a los lugares donde podría estar una cadena de Markov en algún momento posterior, dado el lugar donde comenzó. Las distribuciones estacionarias se refieren a la probabilidad de que un proceso se encuentre en un determinado estado en un momento desconocido. Para las cadenas de Markov con un número finito de estados, cada uno de los cuales es positivo recurrente, una cadena de Markov aperiódica es lo mismo que una cadena de Markov irreducible.

Cadenas de Markov

Una cadena de Markov es un proceso estocástico y a su vez un sistema matemático que experimenta transiciones de un estado a otro de acuerdo con ciertas reglas probabilísticas. La característica definitoria de una cadena de Markov es que no importa cómo el proceso llegó a su estado actual, los posibles estados futuros son fijos. En otras palabras, la probabilidad de transición a un estado particular depende únicamente del estado actual y el tiempo transcurrido. El espacio de estado, o conjunto de todos los estados posibles, puede ser cualquier cosa, por ejemplo, letras, números, etc. Siendo su autor el señor Andrei Markov Andreevich.

Surgen ampliamente en contextos estadísticos y teóricos de la información y se emplean ampliamente en economía, teoría de colas, genética como también en finanzas. Si bien es posible discutir las cadenas de Markov con cualquier tamaño de espacio de estado, la teoría inicial y la mayoría de las aplicaciones se centran en casos con un número finito de estados.

Las cadenas de Markov se encuentran entre los procesos estocásticos más importantes. Son procesos estocásticos para los cuales la descripción del estado actual captura completamente toda la información que podría influir en la evolución futura de un proceso.

...

Descargar como (para miembros actualizados)  txt (171.8 Kb)   pdf (576.9 Kb)   docx (53.3 Kb)  
Leer 111 páginas más »
Disponible sólo en Clubensayos.com