Nothing Special   »   [go: up one dir, main page]

Cadenas de Markov PDF

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 6

INGENIERIA INDUSTRIAL 5°

INVESTIGACION DE OPERACIONES II
U4. CADENAS DE MARKOV
INVESTIGACION DOCUMENTAL
Alumna: Mayra Lizeth Serrano Hernández

Asesor: Ing. Jair de Jesús Rangel Gómez


Unidad 4. Cadenas de Márkov
4.1. Introducción a las cadenas de Márkov ........................................................ 3
4.2. Probabilidad de transiciones estacionarias de n pasos ............................... 3
4.3. Estado estable ............................................................................................ 4
4.4 Casos especiales (Cadenas absorbentes, cadenas cíclicas) ...................... 5
4.1 Introducción a las Cadenas de Markov
Este sistema fue desarrollado por el matemático ruso
Andréi Márkov en el año de 1907, también es conocido
como cadena simple biestable de Márkov.
Una cadena de Márkov es una serie de eventos, en el
cual la probabilidad de que ocurra un evento depende
del evento inmediato anterior.
Definiendo así que en un proceso estocástico la
probabilidad de que algo suceda solamente depende
del pasado histórico de la realidad que estamos
estudiando.
Lo que la cadena experimente en un momento t+1 solamente dependen de lo
acontecido en el momento t (el inmediatamente anterior).

4.2. Probabilidad de transiciones


estacionarias de n pasos
La probabilidad estacionaria se produce
cuando el sistema esta en estado i durante
un periodo, la probabilidad de transición p,
i, j, es la probabilidad de que el sistema este
en el estado j durante el siguiente periodo.
Las probabilidades de transición son
estacionarias de un paso si cumplen la
propiedad:

Prob { X t+1 =j │ Xt= i } = Prob{ X1= j │X0 = i } para todo t


En tal caso se denotan
Propiedad: Si las probabilidades de transición (de un paso) son estacionaria,
entonces se cumple que:

Prob{Xt+n= j │ Xt=i } = Prob{ Xn =j │ X0 =i} para todo t

Estas probabilidades de transicion se denominan probabilidades de transicion de n


pasos y se denotan Pij(n) Observar que Pij(1)= Pij

(0) 1 𝑠𝑖 𝑗= 𝑖
Propiedad 𝑃𝑖𝑗 =⦃
0 𝑠𝑖 𝑗≠ 𝑖
Las ecuaciones de Chapman-Kolmogrov proporcionan un método para calcular
estas probabilidades de transición de n pasos

𝑀
(𝑛) (𝑚) (𝑛 − 𝑚)
𝑝 ∑𝑝 ∙𝑝
𝑖𝑗 𝑖𝑘 𝑘𝑗
𝑘=0

(𝑛)
De forma anóloga, si 𝑝 es la probabilidad de transcision del estado i al estado j
𝑖𝑗
en “n” pasos (0 ≤ i,j, ≤ M), entonces la matriz p(n) que contiene todos estos valores
se denomina matriz de transición de n pasos.
La probabilidad de transición de dos pasos o de segundo orden, es la probabilidad
de ir del estado k al estado j en exactamente dos transiciones

Estas ecuaciones simplemente señalan que al ir de un estado y al estado J en


pasos el proceso estará en algún estado de k después de exactamente m menor
que n pasos.
Propiedad: la matriz de transición de n pasos P(n) se puede obtener multiplicando
la matriz de transición de un paso P.n veces:
P(n) = P. P.P…. P= P(n)
En general: para 0≤m≤n
P= P(n)= P(m). P (n-m)

4.3. Estado estable


Un estado es estable cuando ya no hay cambios en el sistema, es decir que se
alcanza el equilibrio. Una manera posible de obtener las condiciones del sistema
para el estado estable es repetir iterativamente los cálculos para cada periodo con
el fin de hallar el periodo con aquellas probabilidades que se mantienen constantes
o no cambian.
Para cualquier estado i y j y números no negativos t y s
Un par de estados i y j se comunican si existen tiempos t1 y t2, tales que Todos los
estados que se comunican forman una clase. Si todos los estados forman una sola
clase, es decir, si la cadena es irreducible entonces, para toda y todos los estados i
yj
Siempre existe y es independiente del estado inicial de la cadena de Markov, para
j=0,1,… M, estas propiedades limitantes conocidas como probabilidades de estado
estable..

4.4. Casos especiales (Cadenas absorbentes, cadenas cíclicas)


4.4.1. Cadenas absorbentes
Un estado absorbente es aquel que tiene una probabilidad de ser
abandonado igual a 0, o sea que, una vez comenzado es imposible dejarlo
igual a 0 y el proceso o se detiene completamente o se detiene para luego
comenzar a partir de algún otro estado.

Una cadena de Márkov es absorbente sí (1) tiene por lo menos un estado


absorbente y (2) es posible ir de cada estado no absorbente hasta por lo
menos un estado absorbente. no es necesario obtener la probabilidad de
alcanzar cada estado absorbente a partir de cualquier estado no absorbente.

La descripción de los procesos o sistemas qué cesan después de alcanzar


determinadas condiciones se utiliza un caso especial de cadenas de Márkov.
4.4.2. Cadenas cíclicas
Un ciclo es un camino cerrado entre estados recurrentes

Para que una cadena sea cíclica debe de cumplir con que:

• Tenga por lo menos un ciclo.


• Sea posible entrar en el ciclo.

A largo plazo un sistema con régimen permanente llega a formar un


sistema cíclico, dependiendo del porcentaje de tiempo que pasa en
cada estado se calcula con el procedimiento del régimen permanente.

Fuentes de información:
Recuperado de:
http://virtual.umng.edu.co/distancia/ecosistema/odin/odin_desktop.php?path=Li
4vb3Zhcy9pbmdlbmllcmlhX2NpdmlsL2ludmVzdGlnYWNpb25fZGVfb3BlcmFjaW9u
ZXNfaWkvdW5pZGFkXzIv#slide_11
http://www.ingenieria.unam.mx/javica1/ingsistemas2/Simulacion/Cadenas_de_M
arkov.htm
https://campus.fi.uba.ar/pluginfile.php/66255/mod_resource/content/1/Markov_
y_Colas/Cadenas_de_Markov_Clases.pdf

También podría gustarte