Cadenas de Markov
Cadenas de Markov
Cadenas de Markov
Definiciones elementales
El proceso discreto
es denominado
cadena de Markov si se cumple
es la probabilidad de que en el tiempo k, el
proceso est en el estado j dado que en el tiempo
k-1 estaba en el estado i
Si la distribucin de probabilidad de transicin
entre estados no cambia en el tiempo, la cadena
de Markov es homognea, para este tipo de
cadenas de Markov
Definiciones elementales
Para cadenas de Markov homogeneas
La probabilidad de transicin de n
pasos
Demostracin
Diagramas de transicin
Suponga que al arrojar una moneda, el
resultado dependiera del lanzamiento anterior
Clases de estados
Alcanzable. Un estado j es alcanzable desde algn
estado i sii
Observe que la Matriz
nos brinda informacin de
alcanzabilidad entre estados
Dos estados se comunican si son alcanzables
mtuamente
El concepto de comunicacin divide al espacio de
estados en clases
Dos estados que se comunican pertenecen a la misma
clase
Todos los estados de una misma clase se comunican
entre s
Decimos que una clase es cerrada si ninguno de los
estados que la conforman puede se alcanzado por
ningn estado fuera de la clase
Cadenas sencillas
Un estado j es transitorio (o recurrente) si hay
una probabilidad diferente de cero de que el
proceso no regrese al estado j dado que est en
el estado j
Un estado j es recurrente (o persistente) si con
probabilidad 1, el proceso eventualmente
regresar al estado j dado que est en el estado j
Un conjunto de estados recurrentes forman una
cadena sencilla si cada uno de los estados del
conjunto se comunica con cada uno de los dems
estados del conjunto
Estados peridicos
Un estado recurrente j es llamado estado
peridico si existe un entero d (d>1) tal que
es cero para todo n excepto para d, 2d, 3d ,
d es el periodo
Si d=1 el estado es aperidico
Cadenas ergdicas
Un estado recurrente es recurrente positivo si el
nmero esperado de transiciones para que
regrese a el es finito
Un estado recurrente es recurrente nulo si el
nmero esperado de transiciones para que
regrese a el es infinito
Si un estado es recurrente positivo y aperidico,
entonces se denomina estado ergdico
Una cadena consistente de estados ergdicos se
llama cadena ergdica
Estado absorbente
Un estado para el cual
Tambin se llaman estados trampa
Ejemplo 1
Ejemplo 2
Los estados 1, 2 y 3 son ahora transitorios
El estado 4 es absorbente (o trampa)
Ejemplo 3
Tiene una cadena sencilla {1,2,3}
Los tres estados son peridicos con periodo 3
Nota
Para la matriz de este ejemplo y para un gran
nmero de cadenas de Markov, encontramos
que al multiplicar a la matriz por si misma
muchas veces la matriz tiende a tener valores
fijos
Mas importante que eso es el hecho de que
todos los miembros de una misma columna
convergen hacia un mismo valor
Sabemos que
Y si los estados lmite existen y no dependen
del estado inicial entonces
Ejemplo
Calcular
Alternativamente
Ejemplo
La transformada Z de
En forma matricial:
Ejemplo
Obtener
para una cadena de Markov con la siguiente Matriz de transicin entre estados
Ejemplo
Ejemplo
Como
Podemos despejar
para conlcuir:
Como el tiempo que el proceso dura en cada estado es 1, esta ecuacin dice
que el tiempo promedio es el tiempo que dura en el estado i mas el tiempo medio
de primera transicin del estado k al j dado que el estado que sigue del i es el k
Ejemplo
Determinar el tiempo medio de primera transicin del estado 1 al 3 para
una cadena de Markov con la siguiente matriz de probabilidades de transicin
De donde:
Ejemplo
Determinar