Mathematics">
Cadena Da Markov
Cadena Da Markov
Cadena Da Markov
EN EL VALLE DE SULA.
Sección 1300
1
INDICE
PORTADA 1
INDICE 2
INTRODUCCIÓN 3
CADENA DE MARKOV
Introducción y reseña 4
Procesos/Probabilidad/Planteamiento 5
Clasificación de Cadena de Markov 6
CONCLUSIONES 9
BIBLIOGRAFÍAS 10
ANEXOS 11-12
2
INTRODUCCIÓN
3
La cadena da Markov es un proceso estadístico y la probabilidad que nos indica que un
evento está ligado y depende de que suceda para que ocurra otro.
La probabilidad de eventos ocurre en todas las actividades cotidianas de la vida, hasta para
cruzar la calle o la ropa que usaremos para alguna ocasión se puede encontrar las
probabilidades, que la decisión que tomemos nos llevará a que ocurra otro evento que estará
dependiendo de las decisiones primeras.
Está teoría se inicia gracias al matemático ruso, Andréi Markov en 1907, también se le
conoce como cadena simple biestable de Markov. Figura 1
Markov nos indica con esta teoría que los procesos aleatorios que están activos en el
presente, se puede determinar su historial de eventos, por lo que se puede determinar un
futuro probable, por eso se cree que estas cadenas tienen memoria. Acorde a la definición
podemos plantear que lo ocurrido en la cadena se determina como un t + 1 y que solo
depende de lo acontecido en el momento t.
Este sistema es bastante sencillo y practico, es mayormente utilizado en los negocios y las
finanzas, sobre todo en el área de morosidad, el estudio de la conducta de los consumidores
y la demanda de mano de obra dependiendo la temporada; aunque muchos conocedores
determinan que por ser muy fácil de aplicar no es del todo efectivo en procesos muy
complejos. Por lo cual podemos determinar ciertas ventajas y desventajas de aplicar este
método:
Como fórmula de este sistema podemos determinar que P puede ser dependiente del estado
actual del sistema. Si P es dependiente tanto del tiempo y del estado actual del sistema, P es
una función de t y st, entonces la ecuación de Markov básica se vuelve st=st-1 P (t-1,st-1).
4
Cadena de Markov. Procesos estocásticos
Se le denomina así a la sucesión de eventos, X1, X2,..si los valores no se puede predecir pero
si podemos especificar las probabilidades de los distintas decisiones tomadas en cualquier
tiempo, teniendo las definiciones de variables:
Por lo que determinamos que para cada suceso inicial S1 y los sucesos siguientes Sn de los
estados Xn especificamos:
P (Xn+1 = Sj | Xn = Si)
Para comprobar que es una Cadena de Markov tomamos las siguientes condiciones:
Podemos graficar nuestros eventos mediante un diagrama de transición que son nodos que
representan los estados y los arcos se identifican con la probabilidad. De esta manera
visualizamos de forma ordenada las probabilidades de pasar de un estado a otro.
Pij
i j
5
Clasificaciones de Cadenas de Markov
La cadena es irreductible si todo estado puede alcanzarse desde otro estado después de una
finita cantidad de transiciones, todos los estados se comunican, por lo que su intervalo es
cerrado. Figura 2
Cadena de Markov con estado absorbente es aquella que tiene un conjunto cerrado que
contiene un solo estado, cuando se entra a un estado absorbente no se sale de él. Figura 3
Cadena de Markov con estado transitorio es cuando se puede dejar un estado pero no se
puede volver a él, el estado j es alcanzable desde el estado i, pero el estado i no es alcanzable
desde el j. Figura 3
Cadena de Markov con estado recurrente es cuando el estado i vuelve al estado j y viceversa.
Uno de los aspectos que tiene la Cadena de Markov es que puede tener un comportamiento a
largo plazo, se representa por medio de un vector x que nos indica las probabilidades que se
puede estar en un estado después de un gran número de eventos y repeticiones y la
definimos como: lim𝑘→∞ 𝑥𝑘 .
Si la matriz P tiene todas sus entradas positivas podemos determinar que es a largo plazo y
que está bien definida, su vector x es un vector estacionario siempre y cuando sus entradas
sean mayores o iguales a cero y sumen 1, lo cual podemos definir como: Px=x.
6
Ejemplo de la aplicación de la Cadena de Markov
Para superar este problema ellos modelan el precio del aceite como un proceso de Markov
con tres niveles de precio (estados), correspondiendo a escenarios optimista, probable y
pesimista. Ellos también especifican las probabilidades de hacer una transición entre los
estados cada periodo de tiempo (año). Pueden usarse matrices de transición diferentes para
horizontes de tiempo diferentes (matrices diferentes para el cercano, medio y futuro lejano).
7
8
CONCLUSIONES
Podemos garantizar que todo evento que se ejecute elegido aleatoriamente podrá ser
analizado por medio de la Cadena de Markov, llevándonos a una fuente de sucesos
que nos permitan ver cuál será nuestra mejor opción a tomar.
Este modelo podemos usarlo en casi todos los campos por la manera fácil de entender
y aplicar pero si algun evento conlleva muchos sucesos en su proceso no podríamos
estar seguros que lo que estamos aplicando sea el camino viable y correcto.
Gracias a este teorema podemos conocer el pasado, el historial de eventos, y teniendo
nuestra situación actual planteamos probabilidades futuras sin que intervenga lo que ya
decidimos en el pasado ya que la que más nos importa y afecta es el evento ocurrido
en el tiempo inmediato.
9
Bibliografía
http://investigacindeoperaciones2.blogspot.com/2011/06/cadena-de-markov-el-estado-
estable.html
https://www.ingenieria.unam.mx/javica1/ingsistemas2/Simulacion/Cadenas_de_Markov.ht
m#:~:text=Una%20cadena%20de%20Markov%20es,posibilidades%20de%20los%20evento
s%20futuros.
https://economipedia.com/definiciones/cadena-de-markov.html
10
ANEXOS
11
Figura 3. Estado recurrente (1) y (2)
12