Mathematics">
Cadenas de Markov
Cadenas de Markov
Cadenas de Markov
LA EXPO
NOMBRES MAMALONES DE LOS INTEGRANTES DEL EQUIPO:
CESAR PORTILLA SERRANO
…
IRIS CORAL
CAROLINA PAYAN (LA OJOS BONITOS)
INTRODUCCIÓN
• La técnica llamada cadenas de Markov, fue desarrollada por el matemático Ruso Andrei A.
Markov en 1906.
• Una cadena de Markov es una serie de eventos, en la cual la probabilidad de que ocurra
un evento depende del evento inmediato anterior. En efecto, las cadenas de este tipo
tienen memoria, "Recuerdan" el último evento y esto condiciona las posibilidades de los
eventos futuros. Esta dependencia del evento anterior distingue a las cadenas de Markov
de las series de eventos independientes, como tirar una moneda al aire o un dado.
LAS APLICACIONES MÁS RECIENTES
INCLUYEN
• Es una matriz cuadrada en la que cada una de sus filas es un vector de probabilidad.
• Vector de estocástico o vector de probabilidad: Es aquel que cumple con la condición de
que todas sus componentes son no negativas y la sumatoria de ellas es igual a la unidad.
PROCESO ESTOCÁSTICO
Una empresa esta considerando utilizar Cadenas de Markov para analizar los cambios en las
preferencias de los usuarios por tres marcas distintas de un determinado producto. El
estudio ha arrojado la siguiente estimación de la matriz de probabilidades de cambiarse de
una marca a otra cada mes:
• https://www.gestiondeoperaciones.net/cadenas-de-markov/cadenas-de-markov-ejercicios-resueltos/
CLASIFICACIÓN DE LOS ESTADOS EN UNA CADENA DE
MARKOV
• Un estado j es accesible desde el estado i si hay forma de pasar del estado i al estado j en n
pasos, esto es si pi j È 0 para algún valor de n ¸ 0. En el ejemplo 4.1 debido a que pi j È 0 para
toda i y j , cada estado es accesible desde cualquier otro estado. De la figura 4.1 el estado 3 es
accesible desde el estado 2 (vía trayectoria 2!1!3). Los estados 1, 2 y 3 no son accesibles
desde los estados 4, 5 y 6.
• 2. Dos estados i y j se comunican si j es accesible desde i e i es accesible desde j . En el
ejemplo 4.1 todos los estados se comunican. Para la matriz de probabilidad de transición P
representada por la figura 4.1, los estados 1, 2 y 3 se comunican; de igual manera los estados
5 y 6 se comunican.
• 3. Un conjunto de estados es cerrado, si ningún estado fuera de este conjunto es accesible
desde otro estado. De la matriz de transición P de la figura 4.1, los estados 1, 2 y 3 forman un
conjunto cerrado. Observar que una vez que una transacción entra a un conjunto cerrado,
nunca se puede salir de él. Un estado absorbente es un conjunto cerrado con un único estado.
• 4. Se dice que dos estados que se comunican pertenecen a la misma clase. Una clase puede
consistir en un sólo estado de comunicación. En el ejemplo de la figura 4.1 se tienen tres
clases: {1,2,3}, {4} y {5,6}. Una Cadena de Markov donde todos sus estados son accesibles
entre sí y por lo tanto se comunican se dice que es irreducible, es decir que existe una única
clase de estados. En cambio si al menos existen dos clases de estados la cadena no es
irreducible.
• 5. Un estado i es un estado absorbente si y sólo si pi i Æ 1. Siempre que se entre a un estado
absorbente, nunca se saldrá de él.
• 6. Un estado es recurrente si después de haber entrado a este estado, el proceso
definitivamente regresará a ese estado. El estado i es recurrente si fi i Æ P1 nÆ1 f (n) i i Æ 1,
siendo fi i la probabilidad deque comenzando en el estado i , el proceso vuelva a entrar
alguna vez en él. Un estado recurrente i se dice que es recurrente positivo si comenzando
en i , el tiempo esperado (¹i i ) hasta que la cadena vuelva al estado i es finito. Por el
contrario, si el tiempo esperado (¹i i ) hasta que la cadena vuelva al estado i es infinito, se
dice que es recurrente nulo.
• 7. Un estado i es un estado transitorio si después de haber salido de ese estado, el proceso
nunca regresa a él. Por consiguiente, el estado i es transitorio si existe un estado j que es
alcanzable desde el estado i , pero el estado i no es alcanzable desde el estado j . De igual
forma un estado es transitorio si fi i Æ P1 nÆ1 f (n) i i 1.Después de un número grande de
pasos, la probabilidad de estar en cualquier estado transitorio i es cero. Esto se puede
comprobar al calcular las probabilidades de transición a n pasos con el el software IOpeTec.
• 8. Un estado i es periódico con periodo de t (t È 1), si es posible un retorno solamente en t ,
2t , 3t , . . ., pasos. Esto significa que si p(n) i iÈ 0 y n satisface la sucesión t , 2t , 3t , . . .,
entonces el estado es periódico con periodo igual a t , de lo contrario el estado i es no
periódico o también se le denomina aperiódico. De igual manera si p(n) i i È 0 para valores
consecutivos de n, el estado es aperiódico.
ESTADOS ABSORBENTES
• Siempre que un cadena de Markov tenga estados absorbentes, no se podrán calcular las
probabilidades de estado estable, ya que cada una de las unidades finalmente terminará en
algunos de los estados absorbentes.
• Cuando se tienen estados absorbentes, lo que interesa es conocer las probabilidades de que
una unidad de un estado no absorbente pase a los estados absorbentes.
• Para calcular estas probabilidades se requiere la determinación y uso de lo que se conoce
como una matriz fundamental Q. Esta matriz se encuentra por medio del siguiente
procedimiento:
• 1. Eliminar los renglones correspondientes a los estados absorbentes.
• 2. Dividir la matriz restante en estados absorbentes y no absorbentes.
Denominar G a la parte de la matriz de estados absorbentes y a la parte de
estados no absorbentes H.
• 3. Calcular Q Æ (IH)¡1, donde: I es la matriz identidad y el exponente ¡1 se refiere
a la inversa de la matriz.
• 4. Calcular las probabilidades que alcanzará cada uno de los estados
absorbentes, realizando la multiplicación de las matrices R ÆQ ¤G.
EJEMPLO
• Supongamos el caso de la ruina del jugador. Este juega a un juego que tiene probabilidad
1/2 de ganar un dólar y probabilidad 1/2 de perderlo. Parara cuando se quede sin dinero o
cuando alcance 4 dólares.
• https://www.unirioja.es/cu/franpere/ModyOptfiles/Tema6.pdf
CADENA CICLICA
USO DE SOFTWARE