Nothing Special   »   [go: up one dir, main page]

Cadenas de Markov

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 9

UNIVERSIDAD NACIONAL AUTÓNOMA

DE HONDURAS EN EL VALLE DE SULA

Carrera de Ingeniería Industrial

Asignatura de Investigación de Operaciones II

Cadenas de Markov

Astrid Larissa Paz

20152001251

2000

Catedrático:
Ing. Fernando Zelaya

Lugar:
San Pedro Sula, Cortes.

1
Contenido
INTRODUCCION.............................................................................................................3

CADENAS DE MARKOV...............................................................................................4

EJEMPLO..........................................................................................................................6

CONCLUSIONES.............................................................................................................8

BIBLIOGRAFIA...............................................................................................................9

2
INTRODUCCION
En la presente investigación se da a conocer el tema ‘Cadenas de Markov’, llamado así
en honor de un matemático ruso que desarrollo el método en 1907, el cual se basa en
distribución de probabilidad, teniendo gran importancia en el ámbito económico y
financiero ya que esta cadena de Markov nos ayuda a determinar acciones futuras de
cierto proceso, solamente viendo el comportamiento que este tiene en el presente. Se
trabaja con procesos estocásticos o aleatorios generalmente dependiendo del tiempo.
Las cadenas de este tipo tienen memoria, recuerdan el último evento y esto condiciona
las posibilidades de los eventos futuros. Esperando este breve análisis sea de buena
aportación al conocimiento necesario para desempeñar las actividades de la mejor
manera posible dentro de nuestra carrera profesional.

3
CADENAS DE MARKOV
Las cadenas de Markov fueron introducidas por el
matemático ruso Andrey Markov alrededor de 1907. Su
intención era crear un modelo probabilístico para analizar la
frecuencia con la que aparecen las vocales en poemas y
textos literarios.
El éxito del modelo propuesto por Markov radica en que es
lo suficientemente complejo como para describir ciertas
características no triviales de algunos sistemas, pero al
mismo tiempo es lo suficientemente sencillo para ser
analizado matemáticamente. Las cadenas de Markov pueden
aplicarse a una amplia gama de fenómenos científicos y sociales, y se cuenta con una
teoría matemática extensa al respecto. En este capítulo presentaremos una introducción
a algunos aspectos básicos de este modelo.
En general nos limitaremos a procesos markovianos que tienen como base los siguientes
supuestos:

1. Existe un número limitado y finito de estados posibles.


2. La probabilidad de que los estados cambien permanece igual a lo largo del
tiempo.
3. Se puede predecir cualquier estado futuro a partir del estado anterior y de la
matriz de probabilidades de transición.
4. El tamaño del sistema no cambia durante el análisis.

A estos se les llama cadena de Markov con probabilidad de transición estacionarias. A


estos procesos también se les denomina sin memoria.

La principal utilidad de la cadena de Markov es el análisis de comportamiento de


procesos estocásticos, el cual es un concepto matemático que sirve para usar magnitudes
aleatorias que varían con el tiempo o para caracterizar una sucesión de variables
aleatorias que evolucionan en función de otra variable, generalmente el tiempo. Cada
una de las variables aleatorias tienen su propia función de distribución de probabilidad.

Markov señalo que en sistemas o procesos estocásticos que representen un estado actual
es posible conocer sus antecedentes o desarrollo histórico y, por lo tanto, establecer una
descripción de la probabilidad futura de los mismo. La base de las cadenas es conocida

4
como propiedad de Markov, la cual se resume en la siguiente regla: lo que la cadena
experimente en un momento t+1 solamente depende de lo acontecido en el momento t
(el inmediatamente anterior).

Cadenas de Markov y proyección estocástica

El módulo de las cadenas de Markov (MARKOV) simula la predicción del estado de un


sistema en un tiempo determinado a partir de dos estados precedentes. Esto significa
que la modelización no tiene en cuenta las variables explicativas y descriptivas, sino que
se basa exclusivamente en el análisis de la dinámica interna del sistema, que, en nuestro
caso, corresponde a la evolución de los usos del suelo.

Se trata de un procedimiento discreto en un tiempo discreto, en donde el valor en el


tiempo

t1 depende de los valores en los tiempos t0 y t-1 (cadena markoviana de segundo


orden). El algoritmo compara dos mapas de ocupación del suelo que se suceden
cronológicamente, y estima y configura una matriz de probabilidad de transición. La
predicción se materializa en una serie de mapas de ocupación del suelo (uno para cada
categoría) para un tiempo futuro, en donde el nivel digital de cada píxel expresa la
probabilidad de pertenecer a la categoría analizada.

¿Dónde se utiliza la cadena de Markov?

Las cadenas de Markov han experimentado una importante aplicación real en el ámbito
de los negocios y las finanzas, al permitir como se ha señalado analizar y estimar
futuros patrones de conducta de los individuos atendiendo a la experiencia y a los
resultados anteriores. Esto puede reflejarse en diferentes campos como la prevención de
la morosidad, el estudio de las conductas de los consumidores de un sector o la
necesidad estacional de personal y mano de obra.

Pese a que el sistema elaborado por Markov es bastante sencillo y cuenta como hemos
dicho con una aplicación práctica bastante fácil, son muchas las voces críticas que han
señalado esta ventaja como una desventaja al mismo tiempo, debido a que un modelo
tan simplificado no puede ser totalmente efectivo en procesos complejos.

5
Representación gráfica de una matriz de transición

Propiedades:

1. La suma de sus probabilidades de los estados debe ser igual a 1.


2. La matriz de transición debe ser cuadrada.
3. Las probabilidades de transición deben estar entre 0 y 1.

EJEMPLO

6
7
CONCLUSIONES

1. Para concluir podemos decir que las cadenas de Markov son una herramienta
para analizar el comportamiento de determinados tipos de procesos estocásticos,
esto es, procesos que evolucionan de forma no determinística a lo largo del
tiempo en torno a un conjunto de estados.

2. La principal aplicación de la cadena de Markov es en procesos aleatorios.

3. Una de las grandes ventajas de este proceso es que se puede utilizar en multitud
de situaciones reales y muy variadas. Creo que es una herramienta muy útil
puesto que la información que nos da nos ayuda a evitar posibles problemas y
mejorar resultados.

8
BIBLIOGRAFIA
Taha. (2012). Investigacion de Operaciones 9na edicion .

http://economipedia.com/definiciones/cadena-de-markov.html

También podría gustarte