ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Libro de administracion financiera


Enviado por   •  29 de Mayo de 2014  •  Ensayos  •  1.321 Palabras (6 Páginas)  •  731 Visitas

Página 1 de 6

Libro de administracion financiera

Ejercicios números 37 al 47

Paginas 247

Introducción

Un proceso o sucesión de eventos que se desarrolla en el tiempo en el cual el resultado en cualquier etapa contiene algún elemento que depende del azar se denomina proceso aleatorio o proceso estocástico. Por ejemplo, la sucesión podría ser las condiciones del tiempo en Paraná en una serie de días consecutivos: el tiempo cambia día a día de una manera que en apariencia es algo aleatoria.

O bien, la sucesión podría consistir en los precios de las acciones que cotizan en la bolsa en donde otra vez interviene cierto grado de aleatoriedad.

Un ejemplo simple de un proceso estocástico es una sucesión de ensayos de Bernoulli, por ejemplo, una sucesión de lanzamientos de una moneda. En este caso, el resultado en cualquier etapa es independiente de todos los resultados previos (esta condición de independencia es parte de la definición de los ensayos de Bernoulli).

Sin embargo, en la mayoría de los procesos estocásticos, cada resultado depende de lo que sucedió en etapas anteriores del proceso. Por ejemplo, el tiempo en un día determinado no es aleatorio por completo sino que es afectado en cierto grado por el tiempo de días previos.

El precio de una acción al cierre de cualquier día depende en cierta medida del

comportamiento de la bolsa en días previos.

El caso más simple de un proceso estocástico en que los resultados dependen de otros, ocurre cuando el resultado en cada etapa sólo depende del resultado de la etapa anterior y no de cualquiera de los resultados previos. Tal proceso se denomina proceso de Markov o cadena de Markov (una cadena de eventos, cada evento ligado al precedente).

CADENAS DE MARKOV

Estas cadenas reciben su nombre del matemático ruso Andrei Andreevitch Markov (1856-1922). Como mencionamos antes, estas cadenas tiene memoria, recuerdan el último evento y eso condiciona las posibilidades de los eventos futuros.

Esto justamente las distingue de una serie de eventos independientes como el hecho de tirar una moneda.

Este tipo de proceso presenta una forma de dependencia simple, pero muy útil en muchos modelos, entre las variables aleatorias que forman un proceso estocástico. Se utilizan, por ejemplo, para analizar patrones de compra de deudores morosos, para planear necesidades de personal, para analizar el reemplazo de un equipo, entre otros.

Definición

Una cadena de Markov es una sucesión de ensayos similares u observaciones en la cual cada ensayo tiene el mismo número finito de resultados posibles y en donde la probabilidad de cada resultado para un ensayo dado depende sólo del resultado del ensayo inmediatamente precedente y no de cualquier resultado previo.

Para que sirven las cadenas de Markov

Una cadena de Márkov, es una serie de eventos, en la cual la probabilidad de que ocurra un evento depende del evento inmediato anterior.

En efecto, las cadenas de este tipo tienen memoria. "Recuerdan" el último evento y esto condiciona las posibilidades de los eventos futuros. Esta dependencia del evento anterior distingue a las cadenas de Márkov de las series de eventos independientes, como tirar una moneda al aire o un dado.

Este tipo de proceso, introducido por Márkov en un artículo publicado en 1907, presenta una forma de dependencia simple, pero muy útil en muchos modelos, entre las variables aleatorias que forman un proceso estocástico. En los negocios, las cadenas de Márkov se han utilizado para analizar los patrones de compra de los deudores morosos, para planear las necesidades de personal y para analizar el reemplazo de equipo.

En matemáticas, se define como un proceso estocástico discreto que cumple con la Propiedad de Márkov, es decir, si se conoce la historia del sistema hasta su instante actual, su estado presente resume toda la información relevante para describir en probabilidad su estado futuro.

Los procesos estocásticos son sucesiones de eventos gobernados por leyes probabilísticas.

Muchas aplicaciones de los procesos estocásticos aparecen en física, ingeniería, biología, medicina y otras disciplinas asi como también en otras ramas de la matemática.

ESTADOS DEL SISTEMA

Un modelo de Markov consiste en un conjunto de estados discretos. Este conjunto es exhaustivo y describe todos los posibles estados donde el sistema puede estar. La transición del estado i a j ocurre con una probabilidad pij

Podemos pensar en un modelo de Markov como una simple línea de transferencia.

Se puede pensar en dos máquinas y en un inventario. Cada máquina es descrita por su tiempo de operación, su tiempo para la falla y su tiempo para la reparación. El tiempo de proceso se refiere a la

...

Descargar como (para miembros actualizados)  txt (8.7 Kb)  
Leer 5 páginas más »
Disponible sólo en Clubensayos.com