ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Procesos Estocasticos


Enviado por   •  6 de Diciembre de 2011  •  468 Palabras (2 Páginas)  •  1.186 Visitas

Página 1 de 2

Proceso Estocástico

Un proceso estocástico es un concepto matemático que sirve para caracterizar una sucesión de variables aleatorias (estocásticas) que evolucionan en función de otra variable, generalmente el tiempo. Cada una de las variables aleatorias del proceso tiene su propia función de distribución de probabilidad y, entre ellas, pueden estar correlacionadas o no.

Cada variable o conjunto de variables sometidas a influencias o impactos aleatorios constituye un proceso estocástico.

En general, se hace uso de los procesos estocásticos en cualquier caso en que intente ajustar un modelo teórico que permita hacer predicciones sobre el comportamiento futuro de un proceso. []

Definición de estados

Estado: Caracterización de la situación en que se halla el sistema en un instante dado; dicha caracterización puede ser tanto cualitativa como cuantitativa.

Clases de estados

Estado Transitorio: Un estado se llama transitorio si existe una probabilidad positiva de no regresar al estado una vez que se sale de él.

Estado Recurrente: Se dice que un estado es recurrente, si después de haber entrado a este estado, el proceso definitivamente regresa a ese estado.

Estado Absorbente: Un estado i es absorbente si después de haber entrado ahí, el proceso nunca saldrá de ese estado. Es decir Pii=1.

Cadenas de Markov

Las cadenas de Markov son modelos probabilísticos que se usan para predecir la evolución y el comportamiento a corto y a largo plazo de determinados sistemas.

El proceso {Xn} es una Cadena de Markov (CM) si para cualquier n ∈ N, j, i, in−1, . . . , i0 ∈ S (espacio de estados)

P (Xn+1 = j| Xn = i, Xn−1 = in−1, . . . , X0 = i0) = P(Xn+1 = j|Xn = i)

Esta expresión es llamada propiedad de Markov y establece que dado el presente, cualquier otra información del pasado es irrelevante para predecir el futuro. []

Cadenas de Markov discretas en el estado y continuas en el tiempo

Una cadena de Markov de tiempo continuo se presenta cuando las probabilidades de transición entre estados no son constantes en un Δt discreto, por tanto se considera que el proceso evoluciona en forma continua a través del tiempo. Los tiempos de transición entre estados son variables aleatorias continuas que se describen mediante distribuciones de probabilidad. []

Frecuencia de ocurrencia de un estado i (fi)

La frecuencia con que se presenta un estado i, representa la cantidad de veces que se presenta un estado del proceso, en el tiempo, según la Ec(4).

...

Descargar como (para miembros actualizados)  txt (2.9 Kb)  
Leer 1 página más »
Disponible sólo en Clubensayos.com