Teaching Methods & Materials > Mathematics">
Nothing Special   »   [go: up one dir, main page]

Cadenas de Markov

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 33

INSTITUTO TECNOLOGICO DE CULIACAN

Ing. Industrial

CADENAS DE MARKOV

Irbe Zazueta Miguel ngel

Prof. Burgos Valdez Marco Antonio

07 de junio de 2011

NDICE INTRODUCCIO Objetivo general 3 Antecedentes de la investigacin 3 Justificacin 3 MARCO TEORICO Cadenas de markov 5 DESARROLLO DEL PROYECTO QUE ES UNA CADENA DE MARKOV? 7 FORMULACION DE UNA CADENA DE MARKOV 11 Procesos estocsticos 11 Propiedad Markoviana de primer orden. 12 Matriz de transicision de n pasos.14 Estados Absorbentes. 15 Probabilidades de estado estable 16 RESULTADOS Metodologa 17 Definicin de los Estados del Sistema 17 Probabilidades de Transicin19 Matriz de Transicin 21 Solucin del Modelo 24 Nmero Esperado de Transiciones hasta Absorcin 25 Probabilidades Condicionales de Absorcin 26 Resultados y discusin27 Conclusiones del ejemplo prctico 30 CONCLUCIONES 32 BIBLIOGRAFIA 33
2

INTRODUCCIN Objetivo general Conocer en qu consiste una cadena de markov y ver en de que manera pude ser aplicada dentro de una empresa, mediante un estudio en el que analicemos los puntos mas importantes de las cadenas de markov, para poder usar esta tcnica en nuestras futuras experiencias.

Antecedentes de la investigacin El anlisis de Markov, llamado as por los estudios realizados por el ruso Andri Andryevich Mrkov entre 1906 y 1907, sobre la secuencia de los experimentos conectados en cadena y la necesidad de descubrir matemticamente los fenmenos fsicos. La teora de Markov se desarrollo en las dcadas de 1930 y 1940 por A.N.Kolmagoron, W.Feller, W.Doeblin, P.Levy, J.L.Doob y otros `` cadenas-de-markov_19.html oct. 2010

Justificacin Al utiliza la informacin recabada en esta investigacin, se tendr conocimiento de cmo poder solucionar problemas dentro de una empresa utilizando la herramienta cadenas de markov, se ampliaran los conocimientos que se puedan tener de este tema y se tendr una definicin ms precisa de lo que es una cadena de markov y aprender los pasos necesarios para llevarla a cabo, mediante ejemplos prcticos e informacin recabada de distintas fuentes.
3

MARCO TORICO Cadenas de markov Se conoce como cadena de Mrkov a un tipo especial de proceso estocstico discreto en el que la probabilidad de que ocurra un evento depende del evento inmediatamente anterior. En efecto, las cadenas de este tipo tienen memoria. "Recuerdan" el ltimo evento y esto condiciona las posibilidades de los eventos futuros. Esta dependencia del evento anterior distingue a las cadenas de Mrkov de las series de eventos independientes, como tirar una moneda al aire o un dado. Reciben su nombre del matemtico ruso Andrei Andreevitch Markov (1856-1922), que las introdujo en 1907.

Una cadena de Markov, que recibe su nombre del matemtico ruso Andrei Markov, es una serie de eventos, en la cual la probabilidad de que ocurra un evento depende del evento inmediato anterior. En efecto, las cadenas de este tipo tienen memoria. Recuerdan el ltimo evento y esto condiciona las posibilidades de los eventos futuros. Esta dependencia del evento anterior distingue a las cadenas de Markov de las series de eventos independientes, como tirar una moneda al aire o un dado.

En los negocios, las cadenas de Markov se han utilizado para analizar los patrones de compra de los deudores morosos, para planear las necesidades de personal y para analizar el reemplazo de equipo.

En matemticas, se define como un proceso estocstico discreto que cumple con la Propiedad de Markov, es decir, si se conoce la historia del sistema hasta su instante

actual, su estado presente resume toda la informacin relevante para describir en probabilidad su estado futuro. Una cadena de Markov es una secuencia X1, X2, X3, de variables aleatorias. El rango de estas variables, es llamado espacio estado, el valor de Xn es el estado del proceso en el tiempo n. Si la distribucin de probabilidad condicional de Xn+1 en estados pasados es una funcin de Xn por s sola, entonces:

Donde xi es el estado del proceso en el instante i. La identidad mostrada es la Propiedad de Markov.

Una cadena de Markov es una serie de eventos, en la cual la probabilidad de que ocurra un evento depende del evento inmediato anterior. En efecto, las cadenas de este tipo tienen memoria. Recuerdan el ltimo evento y esto condiciona las posibilidades de los eventos futuros. Esta dependencia del evento anterior distingue a las cadenas de Markov de las series de eventos independientes, como tirar una moneda al aire o un dado.

En los negocios, las cadenas de Markov se han utilizado para analizar los patrones de compra de los deudores morosos, para planear las necesidades de personal y para analizar el reemplazo de equipo. El anlisis de Markov, llamado as en honor de un matemtico ruso que desarrollo el mtodo en 1907, permite encontrar la probabilidad de que un sistema se encuentre en un estado en particular en un momento dado. Algo ms importante an, es que permite encontrar el promedio a la larga o las probabilidades de estado estable para cada estado.

``mitecnologico.com, ene. 2004 6

DESARROLLO DEL PROYECTO

Qu es una cadena de Markov? Llamemos E1, E2, Ek los estados (resultados) exhaustivos y mutuamente excluyentes de un experimento aleatorio en cualquier tiempo. Inicialmente en el tiempo t0, el sistema puede estar en cualquiera de estos estados. Sea a0j (j = 0, 1,. . ., k) la probabilidad absoluta de que el sistema se encuentre en el estado Ej en t0. Definamos pij como la probabilidad de transicin de un paso de ir al estado i en tn-1, al estado j en tn, es decir, la probabilidad de que en el siguiente periodo (paso) se encuentre en Ej, dado que en el periodo (paso) inmediatamente anterior estuvo en Ei. Supongamos que estas probabilidades son estacionarias (no cambian) a travs del tiempo. Las probabilidades de transicin del estado Ei al estado Ej se describen de manera ms conveniente en forma matricial como sigue:

Por ejemplo p21 es la probabilidad de estar en el estado 1 en el siguiente paso, dado que en este momento se encuentra en el estado 2. La matriz P se llama matriz de transicin homognea porque todas las probabilidades pij son fijas, independientes del tiempo.

Las probabilidades pij deben satisfacer las condiciones

Una Cadena de Markov es: 1. Un conjunto de estados E1, E2, Ek exhaustivos y mutuamente excluyentes de un experimento aleatorio en cualquier tiempo. 2. Una matriz de transicin P. 3. Unas probabilidades iniciales a0j (j = 0, 1,. . . k)
``revistamemorias, articulos9, mrz.2009

Ejemplo 1. En un pas lejano slo existen dos posibilidades en el clima, seco y mojado. Un estudiante de meteorologa sabe que la probabilidad de que el clima sea seco el 1o de Enero del ao en curso es a y la probabilidad de que en dos das consecutivos el clima sea el mismo, tiene un valor p, 0 < p < 1. Escribamos los elementos que identifican en este problema una cadena de Markov. Solucin. Solo hay dos posibles estados E1: Seco y E2: Mojado. Tenemos a01 = a, a02 = 1 - a. La matriz P de transicin de un paso ser:

Se observa en P que las probabilidades de clima seco un da, dado que el anterior fue seco; y de mojado un da, dado que el da anterior fue mojado son iguales a p. En cualquier otro caso tenemos una probabilidad de 1 - p. Las probabilidades a01 y a02, junto con P, determinan en este ejemplo una cadena de Markov.

Qu son las probabilidades absolutas y de transicin para n pasos? Dados {a0j} y P de una cadena de Markov, nos interesa conocer la probabilidad de que ocurra Ej en la transicin n. Estas se conocen como las probabilidades absolutas del sistema despus de un nmero Especfico n de transiciones. Llamemos {anj } estas probabilidades absolutas despus de n transiciones. La expresin general de {anj} en trminos de {a0j} y P se puede calcular de la siguiente manera:

Tambin.

Donde p(2)kj = pkipij es la probabilidad de transicin de dos pasos o de segundo orden, es decir, la probabilidad de ir del estado k al estado j en exactamente dos transiciones. Por induccin se puede ver que:

Donde pij es la probabilidad de transicin de n pasos u orden n dada por la formula

recursiva: En general para todo i y j,

Los elementos de una matriz de transicin ms alta p(n)ij se obtienen de forma directa por multiplicacin matricial. As:

y en general,

Por tanto, si las probabilidades absolutas se definen en forma vectorial Como

Entonces:

``revistamemorias, articulos9, mrz.2009

10

FORMULACION DE UNA CADENA DE MARKOV

El generador de Markov produce uno de n eventos posibles, Ej , donde j = 1, 2, . . . , n, a intervalos discretos de tiempo (que no tiene que ser iguales ). Las probabilidades de ocurrencia para cada uno de estos eventos dependen del estado del generador. Este estado se describe por el ltimo evento generado. La probabilidad de que Ek sea el siguiente evento generado es una probabilidad condicional : P ( Ek / Mj ). Esto se llama probabilidad de transicin del estado Mj al estado Ek. Para describir completamente una cadena de Markov es necesario saber el estado actual y todas las probabilidades de transicin.

Estado Generador Evento Formulador de Markov

E1 E2 E3 E4 .. Ek ---------------------------t1 t2 t3 t4 . tk Tiempo

Procesos estocsticos Un proceso estocstico es una coleccin indexada de variables aleatorias Xt, t con valores en algn conjunto T. En adelante T = 1, 2, ..., el conjunto de los nmeros naturales. Consideraremos variables aleatorias Xt que tienen soporte discreto comn para todas. Un proceso estocstico se define sencillamente como una coleccin indexada de variables aleatorias { X1 }, donde el subndice t toma valores de un conjunto T dado. Con frecuencia T se toma como el conjunto de enteros no negativos y X, representa una

11

caracterstica de inters medible en el tiempo t. Por ejemplo, el proceso estocstico, X1 , X2 , X3, .., Puede representar la coleccin de niveles de inventario semanales (o mensuales) de un producto dado, o puede representar la coleccin de demandas semanales (o mensuales) de este producto.

Un estudio del comportamiento de un sistema de operacin durante algn periodo suele llevar al anlisis de un proceso estocstico con la siguiente estructura. En puntos especficos del tiempo t , el sistema se encuentra exactamente en una de un nmero finito de estados mutuamente excluyentes y exhaustivos, etiquetados 0, 1, . . , S. Los periodos en el tiempo pueden encontrarse a intervalos iguales o su esparcimiento puede depender del comportamiento general del sistema en el que se encuentra sumergido el proceso estocstico. Aunque los estados pueden constituir una caracterizacin tanto cualitativa como cuantitativa del sistema, no hay prdida de generalidad con las etiquetas numricas 0, 1, . . , M , que se usarn en adelante para denotar los estados posibles del sistema. As la representacin matemtica del sistema fsico es la de un proceso estocstico {Xi}, en donde las variables aleatorias se observan en t = 0, 1, 2,. . ., y en donde cada variable aleatoria puede tomar el valor de cualquiera de los M + 1 enteros 0, 1, .. , M .

Propiedad Markoviana de primer orden.

Se dice que un proceso estocstico tiene la propiedad markoviana si

P Xt+1 = j = P X t+1 , para toda t = 0, 1, . . y toda sucesin i, j , K0 , K1 , . . , Ki-1 .


12

Se puede demostrar que esta propiedad markoviana es equivalente a establecer una probabilidad condicional de cualquier evento futuro dados cualquier evento pasado y el estado actual Xi = i , es independiente del evento pasado y slo depende del estado actual del proceso. Las probabilidades condicionales PXt+1 = j se llaman probabilidades de transicin. Si para cada i y j, P Xt+1 = j = pX1 = j , para toda t = 0, 1, . Entonces se dice que las probabilidades de transicin (de un paso) son estacionarias y por lo general se denotan por pij . As, tener probabilidades de transicin estacionarias implica que las probabilidades de transicin no cambian con el tiempo. La existencia de probabilidades de transicin (de un paso) estacionarias tambin implica que, para cada i, j y n (n = 0, 1, 2,), P Xt+n = j = pXn = j , Para toda t = 0, 1, . . . Estas probabilidades condicionales casi siempre se denotan por y se llaman probabilidades de transicin de n pasos. As, es simplemente la probabilidad condicional de que la variable aleatoria X, comenzando en el estado i, se encuentre en el estado j despus de n pasos ( unidades de tiempo ). Si pij es la probabilidad de transicin del estado i al estado j, (0 i, j M), entonces

13

se denomina matriz de transicin, o matriz de probabilidades de transicin de un paso.

Propiedad: Observar que las filas de la matriz de transicin suman uno.

Matriz de transicision de n pasos De forma anloga, si es la probabilidad de transicin del estado i al estado j en n

pasos, (0 i, j M), entonces la matriz P^(n) que contiene todos estos valores se denomina matriz de transicin de n pasos. Propiedad: La matriz de transicin de n pasos P^(n) se puede obtener multiplicando la matriz de transicin de un paso P, n veces:

En general,

para 0 m n.

14

Si se toman los elementos (i,j) de esta ultima igualdad, se tienen las ecuaciones de Chapman-Kolmogorov

para todo i, j, n, y 0 m n.

Estados Absorbentes.

Un estado se llama absorbente si pik =1, es decir, si una vez que el estado llega a k, permanece ah para siempre. Si k es un estado absorbente y el proceso comienza en i, la probabilidad de llegar a k se llama probabilidad de absorcin de k (fik ). Si se tienen 2 o ms estados absorbentes, el proceso ser absorbido por uno de stos. Para saber cual, hay que resolver el sistema de ecuaciones:

M fik= pij fjk j=0 para i=0,1,,M

Esto es importante en las caminatas aleatorias: cadenas de Markov en las que si el sistema se encuentra en el estado i, entonces, en una sola transicin, o permanece en i, o se mueve a uno de los 2 estados inmediatamente adyacentes a i.

15

Probabilidades de estado estable La funcin de probabilidad de transicin de TC satisface las ecuaciones de Chapman-Kolmogorov, luego para cualesquiera estados i,j y nmeros t y s(0s<t):

M pij= pik(s)pkj(t-s) k=1 Se dice que un par de estados i,j se comunican si existen tiempos t1, t2 tales que pij(t1)>0 y pij(t2)>0. Todos los estados que se comunican forman una clase. Si todos los estados en una cadena forman una clase, entonces la cadena ser irreducible, por lo que: para i=0,1,,M

pij(t)>0, para todo t>0 y todos los estados i,j , y ms an:

lim pij(t)=j

llamadas probabilidades de estado estable(o estacionarias).

Las probabilidades estacionarias satisfacen: j qj= i qij ij (estas ecuaciones se suelen llamar de balance). para j=0,1,,M y

M j=0 j=0

16

RESULTADOS Metodologa

Este estudio inicia con la identificacin del sistema, a objeto de definir los estados exhaustivos y disjuntos que conforman el espacio de estados relevantes al modelo, junto a la recoleccin de registros histricos, para lograr su formulacin. La representacin de un proceso como cadena de Markov, requiere recoger datos de entrada, para calcular las probabilidades de transicin. Posteriormente, se procede a verificar los postulados y suposiciones tericas, que debe cumplir cualquier proceso real que intenta ser modelado como markoviano. Como cualquier investigacin sobre fenmenos de naturaleza aleatoria, un estudio de cadenas de Markov apunta a la teora de muestreo, para lograr un procedimiento estadstico, que permita calcular un tamao de muestra representativo de la poblacin de datos. Sin embargo, puesto que en este trabajo, se dispuso de la totalidad de los registros acadmicos de los estudiantes, se eligi trabajar con el censo de la poblacin.

Definicin de los Estados del Sistema En un modelo, el estado de un sistema representa los aspectos que describen por completo la posicin del sistema en cualquier instante del tiempo, y se consideran importantes para estudiar el comportamiento futuro del sistema. El espacio de estado puede especificarse en trminos de los valores de una o varias variables, a las que se denomina variables de estado. El modelo de Markov obtenido, define un numero finito de estados que representan cada uno de los semestres

17

correspondientes a la carrera de Ingeniera Industrial; adems, de dos estados que simbolizan la condicin de retiro o graduacin en que puede encontrarse un alumno, al inicio de cualquier semestre acadmico. Los estados estn asociados a cada uno de los semestres, y permiten describir la evolucin de los estudiantes durante su estada universitaria. Cuando un alumno ingresa a la carrera de Ingeniera Industrial, inicia con una carga acadmica cuantificada en unidades crdito (Uso). A medida que avanza en su objetivo, el estudiante, a lo largo del tiempo, semestre tras semestre, va acumulando Uso. Para graduarse, debe aprobar una determinada cantidad de unidades crdito. Su clasificacin en cualquiera de los estados posibles, se define a partir de la cantidad de Uso que tiene aprobadas al inicio de cada semestre, las cuales le ubican como cursante inscrito en uno de los diez semestres posibles. Al finalizar el semestre, su aprobacin o repeticin, se modela en un estado, y su posible evolucin se describe mediante probabilidades de transicin inter semestral. Las transiciones posibles en una etapa corresponden a la probabilidad de pasar de un semestre a otro, o de mantenerse en el mismo, durante una transicin o lapso acadmico. El criterio utilizado en esta investigacin, para definir los estados, se basa en que un estudiante avanza en la carrera, en la medida que aprueba unidades crdito. Como tambin existe la posibilidad de que un cursante se retire, se considero este un estado adicional del proceso. De igual forma se define el evento de graduacin de un alumno, como el estado final del proceso. En este trabajo, Xt denota la condicin o semestre en que se encuentra un alumno al inicio del semestre t; con Xt={1,2,3,4,5,6,7,8,9,10,R,G}; donde Xt representa el semestre acadmico que cursa el alumno (incluyendo R si se ha retirado y G si el alumno se ha

18

graduado). As mismo, el subndice t corresponde a cualquier semestre de tiempo de observacin, es decir, t = 1,2,3,4, La clasificacin de un alumno en determinado semestre es definida por la cantidad de unidades crdito que tenga aprobadas al comienzo del lapso acadmico. La tabla 1 muestra los doce estados posibles en este modelo, segn las UsC aprobadas, por cualquier cursante de Ingeniera Industrial.

Probabilidades de Transicin i , j P A cada posible transicin del estado (semestre) i al estado (semestre) j, se asocia una probabilidad de transicin de un paso Pi,j. Si no es posible transicin alguna del estado i al estado j, entonces, Pi,j=0. Por otra parte, si el sistema al encontrarse en el estado i puede pasar solo al estado j en la siguiente transicin, entonces Pi,j = 1. A partir del conjunto de registros acadmicos de cada alumno, se estima las probabilidades inter semestrales de transicin estocstica Pi,j; siendo tanto el estado i, como el j, cada uno de los diez semestres de la carrera; adems de los estados R (retiro) y G (graduacin). De modo que el total de transiciones del semestre i al semestre j, dividido por el total de transiciones originadas desde el semestre i, proveen la frecuencia relativa de transicin entre los semestres o estados, convirtindose en valores de probabilidades fundamentales e imprescindibles para el estudio. En general, si Ni,j es el numero de transiciones ocurridas desde el estado i al estado j , y Ni es el nmero de veces que el proceso sali del estado i, entonces, un estimador con buenas propiedades estadsticas para Pi,j est dado por la relacin de dividir la cantidad de casos favorables, entre la cantidad de casos totales.

19

i j i j i P N N , , = (1) La ecuacin mostrada en (1) es bsicamente una relacin sencilla de conteo. Para construir el modelo de Markov, fue necesario estimar las probabilidades de transicin semestrales, dividiendo el nmero de estudiantes clasificados en un determinado semestre que se movieron al siguiente semestre, entre el total de estudiantes inscritos en el respectivo semestre. Al hacer Esto, se obtuvieron las probabilidades de transicin desde el semestre i al semestre j, denominadas Pi,j. Es decir, la probabilidad de avanzar de un semestre al siguiente. De igual manera, el cociente del nmero de estudiantes clasificados en un determinado semestre i, quienes al finalizar el semestre permanecieron en el mismo semestre i, entre el total de estudiantes inscritos en el respectivo semestre, lo cual resulta en la probabilidad de transicin i ,i P . En este caso, la probabilidad de repetir o mantenerse en el mismo semestre.

``servicio.bc.uc.edu.ve,revista feb.2008

En general, Pi,j corresponde a la probabilidad condicional de que un alumno, quien al inicio de un lapso se encuentra cursando el semestre i, en el periodo siguiente se encuentre en el semestre j; para valores de i=1, 2,,10, R, G y j =1, 2,,10, R, G. Por ejemplo, las transiciones validas para un estudiante inscrito en el primer semestre, una vez que transcurra un lapso de tiempo de un semestre son: 1) aprobar y pasar al segundo semestre; 2) reprobar y repetir el primer semestre y 3) abandonar o ser retirado de sus

20

estudios. A modo de ejemplo, a continuacin se detalla la nomenclatura utilizada para expresar las posibles transiciones y probabilidades de transicin desde el primer semestre: P1,1 = Probabilidad que un alumno, quien al inicio de un periodo se encuentra en el semestre 1, en el lapso siguiente contine en el semestre 1 (repita). P1,2 = Probabilidad que un alumno, quien al inicio de un periodo se encuentra en el semestre 1, en el lapso siguiente se encuentre en el semestre 2 (apruebe). P1,R = Probabilidad que un alumno, quien al inicio de un periodo se encuentra cursando el semestre 1, en el lapso siguiente se retire. En esta aplicacin de cadena de Markov, se procesaron 70.493 registros generados por estudiantes de Ingeniera Industrial durante los ltimos 27 anos. Para los semestres cursados por los miles de alumnos, se determino su evolucin semestre a semestre, de modo de lograr las probabilidades de transicin. Para realizar los conteos de transiciones, se utilizo el software MATLAB, el cual, en tiempo de un segundo de procesamiento, presento como resultado la matriz de probabilidades de transicin de una etapa. Matriz de Transicin La Tabla 2 muestra las posibles transiciones de primer orden, entre los estados (semestres), y sus probabilidades, para un lapso de tiempo que va desde el semestre actual T, hasta el lapso siguiente T+1. Por ejemplo, el valor 0.664 indica la probabilidad de que un alumno inscrito en el primer semestre, transcurrido el lapso del semestre, al inicio del siguiente periodo semestral se encuentre repitiendo el primer semestre. Es decir, P1,1 = 0.664, significa que en la carrera de Ingeniera Industrial, el 66.4 % de los estudiantes que ingresan, reprueban su primer semestre. As mismo, la probabilidad para un nuevo alumno de aprobar su primer semestre es de 0,315 y de retirarse de la carrera es de 0,021. Por otra parte, el

21

valor de 0,865 que se muestra en la interseccin entre la fila 7 con columna 8, de la Tabla 2, indica la probabilidad de que un alumno que cursa el sptimo semestre de la carrera, en el siguiente lapso este cursando el octavo semestre. Lo cual equivale a sostener que en promedio el 86.5 % de los cursantes del sptimo semestre aprueban, y evolucionan al octavo semestre. Una vez obtenidos los valores de probabilidad de la tabla 2, se aplicaron pruebas orientadas a evaluar la validez de las principales condiciones del modelo terico de Markov. Estas son: a) propiedad de Markov: supone que la transicin de un estado a otro depende solo del estado actual y no de su historia pasada; y b) estacionalidad de las probabilidades, tambin denominada homogeneidad de la poblacin, requiere que las probabilidades de transicin se mantengan fijas a lo largo del tiempo. Resultados obtenidos por Hierro y Guijarro (2007), sostienen que la falta de homogeneidad de la poblacin es la causante principal de que la especificacin markoviana sea una herramienta poco precisa para la modelacin de dinmicas de poblacin. Diversos trabajos que modelan actuaciones humanas, han lidiado con la necesidad de relajar algunos requerimientos tericos de Markov, entre ellos, el de homogeneidad de la poblacin (Blumen et al., 1955, pp. 125-140). Las condiciones de homogeneidad poblacional requeridas para modelar una cadena de Markov discreta, fueron revisadas crticamente, con la finalidad de determinar posible inconsistencia, teniendo en cuenta que se trata de un sistema de textura social, difcil de cuantificar en un marco de probabilidades. Una cadena de Markov es homognea en el tiempo cuando sus probabilidades de transicin son constantes (Parzen, 1962). Puesto que se compararon varios periodos tomados al azar, y no se encontraron diferencias significativas entre las

22

matrices de transicin evaluadas, no se considero necesario caracterizarlos mediante diferentes cadenas de Markov. En esta aplicacin, se interpreta la condicin de homogeneidad de la poblacin, en trminos de formular la hiptesis, de que todos los alumnos tienen la misma estrategia de estudio, sin variaciones provenientes de grupos diferentes. En general, se espera la existencia de diferencias debidas a factores difciles de observar como hbitos de estudio, o caractersticas socio demogrficas. Sin embargo, el modelo de Markov no analiza sus causas y al agrupar los datos, se asume un proceso homogneo para todos los individuos de la poblacin. Con la finalidad de robustecer los resultados arrojados por el modelo, y a objeto de poder utilizarlos como instrumento predictivo, fue esencial reevaluar la estabilidad de los datos. Esto es, verificar adicionalmente el requisito terico sobre homogeneidad poblacional. Toda la data disponible se dividi en grupos de diferentes periodos. En algunas clases de igual longitud, y en otras de diferente longitud, como por ejemplo: desde 1980 a 1990, 1991 a 1999, 2000 a 2006. Se analizo la estabilidad de estos periodos, construyendo sus matrices de transicin. Posteriormente, las matrices fueron evaluadas mediante el clculo de sus auto valores. Puesto que los mximos auto valores presentaron resultados por encima de uno, se concluyo que no se tiene razones para considerar inestable al sistema de evolucin de los estudiantes de Ingeniera Industrial; lo cual sugiere que el sistema, al menos para los datos considerados, muestra tendencia hacia un patrn

determinado(Guijarro y Hierro, 2006).

23

Solucin del Modelo En una cadena en donde el proceso pueda ir, en una o ms transiciones, desde cualquier estado a cualquier otro estado, segn la teora de cadenas de Markov, transcurrido una cantidad suficiente de transiciones, el sistema muestra su comportamiento de estado estable, permitiendo obtener las probabilidades de estado estable, tambin denominadas probabilidades de comportamiento a largo plazo o estacionarias (Bartholomew, 1973). No obstante, la matriz de transicin P, para esta aplicacin, corresponde a una cadena de Markov absorbente, por cuanto posee dos estados absorbentes, R (Retiro) y G (Grado). Es decir, R y G son estados en los que una vez que un alumno entra en cualquiera de ellos, no puede abandonar esa condicin. En este trabajo, se asume que un estudiante que abandona la carrera de Ingeniera Industrial, nunca ms puede reincorporarse en la misma universidad. De igual forma, si un alumno logra graduarse de Ingeniero Industrial, en los siguientes semestres, se mantendr en esa condicin de graduado con certeza absoluta; por lo cual, su probabilidad de transicin PG,G = 1. Como tambin PR,R = 1. Esta condicin clasifica a la cadena como cadena discreta absorbente (Norris, 1997). En el caso de cadenas absorbentes, el procedimiento de solucin utiliza relaciones matriciales, que permiten determinar la cantidad promedio de semestres, que un alumno pasa en cada uno de los diez periodos de la carrera antes de graduarse o retirarse; as como tambin las probabilidades de absorcin, las cuales indican la probabilidad de que un alumno que ingrese a la carrera de Ingeniera Industrial de la UNET, abandone antes de graduarse o culmine exitosamente graduado. A partir de las probabilidades de transicin contenidas en la Figura 1, y aplicando el mtodo de solucin aplicable a cadenas de Markov absorbentes, segn las ecuaciones (2) y (3) mostradas a continuacin, se determina:

24

a) el nmero esperado de semestres para que un alumno se gradu o retire, b) el nmero esperado de lapsos acadmicos que un cursante pasa en cualquier semestre. c) las probabilidades de retiro o graduacin para cualquier aspirante al ttulo de Ingeniero Industrial en la Universidad Nacional Experimental del Tachira.

Nmero Esperado de Transiciones hasta Absorcin El mtodo de solucin requiere extraer dos matrices de la matriz de transicin P, presentada en la tabla 2, para aplicar las ecuaciones (2) y (3) (Shamblin et al. (1975, pp. 72-78). La ecuacin (2) permite obtener la matriz NE, que contiene el numero esperado de semestres o lapsos que se espera pase un alumno de Ingeniera Industrial en cada uno de los semestres de la carrera, antes de absorcin por los estados absorbentes Retiro o Graduacin. NE = (I - N)-1 (2) Donde N es una matriz, en este caso, 10 x 10, formada con valores de la figura 1, que corresponden a las probabilidades de transicin solo entre los estados no absorbentes. Es decir, N se construye tomando directamente los valores de probabilidad de la matriz P, desde los estados 1, 2,, 10 hasta los estados 1, 2,, 10. I es una matriz identidad de idnticas dimensiones que la matriz N.

En este caso, 10 x 10, al igual que N y NE.

25

``servicio.bc.uc.edu.ve,revista feb.2008

Probabilidades Condicionales de Absorcin

La ecuacin 3 permite hallar las probabilidades de absorcin. Es decir, las probabilidades de retiro o graduacin, condicionadas al semestre en que ingrese el alumno. PR = NE * A (3) Donde, NE es la matriz calculada segn la ecuacin (2); y A es una matriz formada con valores tomados de la matriz de transicin P, contenidos en la tabla 2, que corresponden a las probabilidades de transicin desde los estados no absorbentes (origen), hasta los absorbentes (destino). Es decir desde los estados 1,2,3,,10 hasta los estados R y G. Note que A es una matriz de 10 filas x 2 columnas, al igual que PR.

26

Resultados y discusin El procesamiento y solucin del modelo de cadena de Markov se obtuvo mediante el software MATLAB. Posteriormente se evala la capacidad predictiva del modelo, realizando una validacin comparativa con datos ms recientes, correspondientes a semestres del ao 2007. La Figura 2, en su fila 1, muestra los valores esperados, para el numero de semestres en transicin que pasa un estudiante en cada uno de los semestres que cursa, dado que ingresa por el semestre 1. El primer elemento de la Figura 2, en la interseccin de fila 1 y columna 1, de la matriz NE es 2.98. Este valor corresponde al nmero esperado de semestres que se espera que un estudiante permanezca cursando el primer semestre. Es decir, un alumno que ingresa a la carrera, se espera que pase casi tres semestres, antes de avanzar al segundo semestre, en donde tambin se espera que pase aproximadamente dos semestres (2,06) antes de avanzar al tercer semestre. El total de semestres que se espera que curse un alumno antes de graduarse, se obtiene sumando todos los valores de la fila 1, que corresponden al nmero de periodos que se espera que pase un alumno en cada uno de los semestres antes de graduarse, segn se muestra en la ecuacin 4.

Efectuando el clculo de permanencia en la carrera, se estima aproximadamente en 14,55 semestres. Para fines prcticos, se puede sostener que un alumno que ingresa a la

27

UNET se espera que permanezca dentro de la carrera durante aproximadamente catorce semestres y medio para lograr titularse (14,5). A modo de ejemplo, si un alumno ingresase a la carrera por traslado desde otra universidad, suponiendo que obtiene equivalencia de cuatro semestres aprobados; es decir, inicia en la UNET en el quinto semestre, entonces, su tiempo esperado de graduacin se obtiene sumando los valores de permanencia de la fila 5: 1,58 + 1,26 + 1,15 + 1,08 + 1,08 + 1,02. Es decir, la suma esperada de permanencia en cada uno de los restantes semestres a cursar en la UNET, estima su tiempo esperado de graduacin en 7.17 semestres. La Figura 3, muestra las probabilidades condicionales de Retiro o Graduacin. Su interpretacin es la siguiente: Un alumno que inicie en el primer semestre a la carrera de Ingeniera Industrial de la UNET, a lo largo del tiempo, tiene una probabilidad de abandonar la carrera de 0.14, y de titularse en acto de graduacin, con probabilidad de 0.86. Lo que es lo mismo que sostener, que de cada 100 alumnos que inicien la carrera, se espera que logren graduarse 86 nuevos Ingenieros Industriales. De los valores de la Figura 3, tambin se infiere, por ejemplo, que si un alumno por traslado desde otra universidad, accediese a Ingeniera Industrial de la UNET, en el quinto semestre, su probabilidad de graduacin es segura. Sin embargo, desde la Figura 2, la sumatoria de los valores de la fila correspondiente al quinto semestre, estima que debe cursar una duracin de 7,17 semestres.

28

``servicio.bc.uc.edu.ve,revista feb.2008

Discusin El inmenso potencial de aplicacin del modelo denominado cadena de Markov, fue ratificado por los resultados alcanzados en esta aplicacin, puesto que los estimados obtenidos fueron corroborados exitosamente, con datos informados por el departamento de Control de Estudios de la Universidad del Tachira. El tiempo estimado de graduacin de un estudiante de la carrera, calculado en 14,15 semestres, corresponde a un comportamiento preocupante, por cuanto difiere en el valor deseado y normado para culminacin en 10 semestres. Sin embargo, el resultado obtenido por el modelo de

29

Markov, aproxima y confirma el valor real del tiempo requerido para graduacin, correspondiente a casi 15 semestres o lapsos acadmicos. As mismo, se observa un significativo nivel de repeticin y retiro, durante los primeros cuatro semestres de la carrera. El modelo de Cadena de Markov formulado como resultado de este trabajo, y su divulgacin, puede impulsar investigaciones similares, puesto que la utilizacin de tcnicas de Investigacion de Operaciones, especficamente las Cadenas de Markov, ofrecen una asombrosa aplicabilidad, debido a que esta tcnica es potencialmente ajustable casi a cualquier dominio aleatorio que evolucione en el tiempo (Hoel et al, 1972). El modelo de Markov potencia su aplicabilidad en entornos de servicio o manufactura, por cuando las cadenas de Markov, permiten expresar con probabilidades, el comportamiento dinmico de los sistemas de produccin a lo largo del tiempo. La principal ventaja de esta tcnica de Investigacion de Operaciones descansa en su simplicidad para representar procesos evolutivos de sistemas complejos.

Conclusiones del ejemplo prctico Esta aplicacin formula un modelo markoviano para vaticinar la evolucin acadmica de alumnos en la carrera de Ingeniera Industrial. Sus resultados no intentan explicar la causalidad del proceso resultante. Solo reflejan la incertidumbre presente en un proceso social que transita cambiante a lo largo del tiempo, permitiendo describir el progreso estacional de los aspirantes en la carrera, sustentado en valores de probabilidad. Los patrones mostrados por el progreso

30

dinmico del estudiante en sus estudios, son el resultado de mltiples factores conocidos y desconocidos. El modelo de Markov est lejos de explicar las causas del fenmeno que imita. Sin embargo, ofrece una alternativa til de interpretacin y estimacin universitaria. Este modelo permite pronosticar con soporte en valores de probabilidades, el tiempo que los estudiantes pasan en cada uno de los semestres de la carrera de Ingeniera Industrial de la Universidad del Tachira, y sus posibilidades de desempeo semestre a semestre, hasta graduacin o retiro. Se presentan detalles del enfoque metodolgico adoptado, lo cual hace este estudio fcilmente trasladable para utilizacin en otras carreras y universidades; adems de propiciar su aplicabilidad a innumerables procesos del mundo real. En resumen, esta investigacin recoge y ordena datos relevantes, que aumentan considerablemente el conocimiento sobre el proceso evolutivo de los estudiantes en la carrera de Ingeniera Industrial, adems de proveer informacin pertinente a la gestin de planificacin universitaria.

``Luis Fernando Ibarra, http://servicio.bc.uc.edu.ve, 29/05/2009 31

CONCLUCIONES Como podemos ver al ser utilizada esta herramienta, que es una herramienta de alta confiabilidad en la cual nos podemos basar para tomar decisiones importantes de la empresa o en lo que se este aplicando, es una herramienta con la que se puede observar cmo se comporta un proceso o como lo vimos en el ltimo caso ver de qu manera va evolucionando el nivel acadmico. En una empresa pudiese ser utilizado para observar cmo puede estar mejorando un proceso. Con esta investigacin se puede aprender en como analizar un proceso y ver de qu manera puede ser mejorado, y permite crear una planificacin, a corto o largo plazo.

32

BIBLIOGRAFA http://ideoperaciones.blogspot.com/2010/10/cadenas-de-markov_19.html http://servicio.bc.uc.edu.ve/ingenieria/revista/Inge-Industrial/volI-n2/art3.pdf http://www.revistamemorias.com/articulos9/cadenasdemarkov.pdf

33

También podría gustarte