actas de economía
y complejidad
i
ColeCCión Debate y Reflexión
Comité editorial
Maya Victoria Aguiluz Ibargüen
Norma Blazquez Graf
Ana María Cetto Kramis
Diana Margarita Favela Gavia
José Guadalupe Gandarilla Salgado
Martha Patricia Castañeda Salgado
Rogelio López Torres
Mauricio Sánchez Menchero
Isauro Uribe Pineda
Actas de economía
y complejidad
I
Ricardo mansilla corona
(coordinador)
unIversIdad naCIonal autónoma
de
méxICo
Centro de InvestIgaCIones InterdIsCIplInarIas en CIenCIas y HumanIdades
méxICo, 2015
Primera edición electrónica, 2015
D. R. © Universidad Nacional Autónoma de México
Centro de Investigaciones Interdisciplinarias
en Ciencias y Humanidades
Torre II de Humanidades 4º piso
Circuito Escolar, Ciudad Universitaria
Coyoacán, 04510, México, D. F.
www.ceiich.unam.mx
Edición: Alida Casale Núñez
Diseño de portada: Angeles Alegre Schettino
ISBN 978-607-02-7089-5
Se prohíbe la reproducción parcial o total de esta obra, por cualquier medio, sin la autorización
previa por escrito de los titulares de los derechos patrimoniales.
ÍndICe
prólogo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9
la racionalidad limitada y la racionalidad de procedimiento.
algunas implicaciones para la economía
Raymundo Vite Cristóbal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
11
complejidad en la toma de decisiones: racionalidad limitada
y procesos electorales
Joaquín Urbina Alonso, Ricardo Mansilla Corona . . . . . . . . . . . . . . .
41
Breve introducción a la dinámica de autómatas celulares
Gustavo Carreón Vázquez . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
65
escenarios de un modelo basado en agentes sobre
el comportamiento del consumidor poskeynesiano
Raymundo Vite Cristóbal, Gustavo Carreón Vázquez . . . . . . . . . . . . . .
91
sistemas complejos, cambio tecnológico
y oleadas de desarrollo
Edgar Acatitla Romero . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
dos modelos de la teoría de los sistemas complejos (tsC)
para el estudio de la complejidad de las variables
población y empleo en méxico
Jorge Zaragoza Badillo, Ricardo Mansilla Corona . . . . . . . . . . . . . . . 153
prólogo
e
n el año 2011 se iniciaron las sesiones del Seminario de economía y
complejidad en las instalaciones del CeIICH. el objetivo de esta actividad académica era dar a conocer los fundamentos y el enfoque metodológico de la teoría de los sistemas complejos a aquellos economistas y
científicos sociales interesados en estudiar los sistemas socioeconómicos
desde esta nueva y prometedora perspectiva.
este objetivo inicial se sobrepasó con creces, siendo este seminario un crisol donde se han desarrollado proyectos de investigación
interdisciplinaria, así como trabajos de tesis de algunos de los alumnos
participantes.
tomando en cuenta la calidad de las exposiciones presentadas,
nos pareció pertinente comenzar a recopilar algunas de éstas en una
colección de libros, el primero de los cuales ve la luz en estas páginas.
esperamos que esta compilación tenga tan buena acogida como
las sesiones del seminario que les dio origen y que ayude a divulgar los
principios de la teoría de los sistemas complejos por medio de su uso
en la docencia universitaria.
Dr. Ricardo Mansilla Corona
coordinador de la serie
9
la raCIonalIdad lImItada y la raCIonalIdad de
proCedImIento, algunas ImplICaCIones para la eConomÍa
Raymundo Vite Cristóbal*
Introducción
l
os conceptos de racionalidad limitada y racionalidad de procedimiento desempeñan un rol central en la teoría del comportamiento
racional de simon, ambos conforman la base del estudio de los procesos
de toma de decisiones en condiciones de racionalidad limitada. la reflexión de la toma de decisión de los agentes es distinta al de la ortodoxia,
la propuesta de simon se sustenta en incorporar los límites internos y
externos de la racionalidad del decisor, al centrarse en el proceso de
toma de decisión, la reflexión se vuelve algorítmica y por tanto experimental. estos elementos le permiten a simon pugnar por una teoría
de la toma de decisión descriptiva. dada la relevancia de los conceptos
antes mencionados, el objetivo del capítulo es exponer el significado de
la racionalidad limitada y la racionalidad de procedimiento presentes
en los escritos de simon, bosquejar su rol en su teoría de la toma de
decisiones y ver algunas de las implicaciones sobre la economía.
en el capítulo se sostiene que la racionalidad limitada y la racionalidad de procedimiento son conceptos complementarios en la teoría de
la toma decisión de simon. la teoría de la decisión de simon caracteriza
a un individuo que toma sus decisiones a partir de una visión parcial de
sus problemas aplicando reglas de comportamiento claras y sencillas,
una reflexión de toma de decisión que considera los límites internos
y externos de la racionalidad del individuo. la racionalidad limitada
enfatiza en los límites internos y externos de los agentes económicos,
en tanto que la racionalidad de procedimiento precisa el proceso de
toma de decisión en condiciones de racionalidad limitada. la insistencia
* profesor en el departamento de producción económica, Universidad autónoma metropolitana, Unidad Xochimilco. agradezco la motivación incesante y revisión cuidadosa del texto
por parte de la lic. Gilberta mosso acevedo.
11
aCtas de eConomÍa y ComplejIdad I
en el proceso de decisión le da a la racionalidad limitada un carácter
descriptivo que contrasta radicalmente con la racionalidad global de la
teoría neoclásica, por ejemplo:
(i) en lugar de suponer un conjunto fijo de alternativas, la teoría
de racionalidad limitada de simon postula un proceso para
generar alternativas. argumenta que en la mayoría de los
casos no es razonable hablar de la búsqueda de “todas las
alternativas”. la generación y evaluación de las alternativas
es un proceso largo y costoso, y uno en donde, incluso en
situaciones reales, la completitud mínima rara vez puede ser
garantizada.
(ii) simon detectó otra debilidad asociada con los supuestos básicos de la economía neoclásica en el hecho de que los individuos
tienen dificultad para entregar soluciones óptimas. los límites
cognitivos —falta de conocimiento y límites de la capacidad
de pronóstico respecto al futuro— son determinantes en la
evaluación de las alternativas.
(iii) Finalmente, en lugar de asumir la maximización de una
función de utilidad, la teoría de la racionalidad de simon
postula una estrategia de satisfacción. intentó identificar, en
la teoría y en el comportamiento real, procedimientos para
elegir aquellos que fueran computacionalmente más simples y
argumentar que los individuos escogieron la primera elección
que cumpliera un criterio de aceptación prestablecido.
se insiste también en que esta forma de analizar la toma de decisión
tiene fuertes implicaciones sobre la economía:
(i) el carácter interdisciplinario de la racionalidad limitada. en la
racionalidad limitada, el estudio de los límites externos quizá
corresponde a los sociólogos, geógrafos y/o economistas dar
cuenta de ello; en tanto que el estudio de los límites internos
le corresponden a los psicólogos. la simulación del proceso
de toma de decisión le correspondería a la computación en sus
distintos paradigmas, autómatas celulares, modelos basados
en agentes y/o algoritmos genéticos. esto muestra el carácter
interdisciplinario de la toma de decisión en condiciones de
racionalidad limitada.
12
la raCIonalIdad lImItada y la raCIonalIdad de proCedImIento
(ii) Fenomenología. aquí interesa describir la naturaleza de la
toma de decisión, no interesa una teoría de la decisión idealizada basada en la racionalidad global e información completa.
la teoría de simon es un esfuerzo por construir una teoría
de la racionalidad limitada sustentada empíricamente en el
estudio del comportamiento humano.
(iii) agente adaptativo. la noción de agente adaptativo en donde
la toma de decisión de un agente depende de las decisiones
de los demás y que influye sobre el entorno y que el entorno
influye en las decisiones de dichos agentes permite afirmar la
existencia de un sistema complejo adaptativo. a diferencia de
la economía convencional que estudia los patrones coherentes,
los patrones de comportamiento en equilibrio, los patrones que
no podrían inducir a alguna reacción adicional, en un sistema
complejo adaptativo se estudia el cómo las acciones, las estrategias o las expectativas podrían reaccionar y endógenamente
cambiar con los patrones agregados a que dan lugar (arthur,
2005). el resultado, es la economía de la complejidad, no es un
complemento a la teoría económica estándar, sino una teoría
a un nivel más general (arthur, durlauf, y lane, 1997).
estos elementos de la teoría de la toma de decisión de simon son
de gran relevancia para la economía, permiten hablar de una teoría
del comportamiento económico coherente con los hechos económicos,
no es una teoría sujeta a un mundo idealizado, además, abre toda una
visión de la economía, la visión de la economía como un sistema complejo adaptativo.
el capítulo se conforma de tres partes. en la primera, se rescatan
los orígenes de los conceptos de racionalidad global y racionalidad
de procedimiento. en la segunda, se analiza el rol de la racionalidad
limitada y la racionalidad de procedimiento en la teoría de la toma de
decisión de simon. y, en la tercera, se exponen las implicaciones para
el estudio de la economía. al final se dan las conclusiones del trabajo.
1. El surgimiento del concepto de racionalidad en Simon
según Klaes y sent (2005), Herbert simon probablemente fue el primero
en utilizar el término “racionalidad limitada”. en una serie de escritos
13
aCtas de eConomÍa y ComplejIdad I
entre 1947 y 1957, conscientemente perfecciona y sustituye conceptos
como “racionalidad aproximada” y “racionalidad restringuida” por el
de “racionalidad limitada”.
para Klaes y sent (2005), simon no inventa el concepto de racionalidad limitada. según almond (1945), la racionalidad limitada “surge
como una expresión del lenguaje ordinario, el concepto se estableció firmemente en el discurso político”. en su propia reconstrucción racional,
simon afirma que recogió el concepto de john R. commons y chester
Barnard (march y simon, 1958). sin embargo, commons (1934: 58 y
90) refiere a “factores limitantes” y Bernard habla de “factores estratégicos”. en su obra Comportamiento administrativo (simon, 1947), habla
de “límites de la racionalidad” con el fin de establecer un contraste
entre “hombre administrativo” y “hombre económico”. la primera vez
que simon acude al término “racionalidad limitada” fue en 1955, en
donde lo usó para distinguirlo de los modelos de racionalidad “global”
(simon, 1955: 112-113). en este escrito, él regresó a una expresión más
técnica. de hecho, de toda la investigación de simon, este escrito es el
que más se acerca al formato matemático de los economistas. Quizás
por ello no sorprende, que muy pocos economistas se refieran al escrito menos matemático Rational choice and the structure of the environment,
publicado en 1956. lo que es evidente es que en los escritos de 1955
y 1956, simon acude al término “racionalidad aproximada”. Una vez
más, según Klaes y sent (2005), lo central está en el desarrollo de una
interpretación técnica del “hombre administrativo” como una alternativa
a un “hombre económico”, “el objetivo más amplio... en la construcción
de estas definiciones de “racionalidad aproximada” es proporcionar
algunos materiales para la construcción de una teoría del comportamiento de un individuo o grupos de individuos que toman decisiones
en un contexto de organización”.
simon, antes de utilizar el término “racionalidad limitada”, experimentó con varias expresiones. durante la transición de la “racionalidad aproximada” y la “racionalidad restringuida” a la “racionalidad
limitada”, simon comenta las “condiciones límite” en sus primeros
trabajos (por ejemplo, simon, 1943). en palabras de simon (1991: 83).
“por las condiciones de frontera me refiero a los supuestos que tienen
que hacerse”. en otras publicaciones anteriores (por ejemplo, march
y simon, 1958: 169-71; simon, 1955) también hace referencia a los
“límites de la racionalidad” o las “limitaciones de la racionalidad”. la
economía ortodoxa, según simon, postula personas que se comportan
14
la raCIonalIdad lImItada y la raCIonalIdad de proCedImIento
racionalmente sujetas a una amplia gama de condiciones de frontera.
en su opinión, la “acción” se encuentra en las condiciones de frontera
(Klaes y sent, 2005: 40).
la manera en que simon intentó abordar su nueva concepción de
racionalidad sufrió modificaciones en ediciones posteriores al Comportamiento administrativo. esto es evidente en las introducciones complementarias del texto a lo largo de las distintas ediciones, las cuales ponen de
relieve que el libro se refiere al “límite entre lo racional y lo no racional”
en los aspectos del comportamiento social humano” (simon, 1957a:
xxIv; 1976: xxvIII; 1997: 18). considerando que sigue siendo la misma
preocupación central a lo largo de las diferentes ediciones del libro, su
descripción cambia, refleja una transición gradual de la “racionalidad
restringida” a la “racionalidad limitada”:
así, en Modelos del hombre (1957b) aparece por primera vez el concepto de “racionalidad limitada”. al respecto, simon argumenta:
el enfoque alternativo empleado en estos documentos se sustenta en
el principio de racionalidad limitada: las capacidades de la mente humana para formular y resolver problemas complejos son muy pequeñas
comparado con el tamaño de problemas cuya solución se requiere por
el comportamiento objetivamente racional en el mundo real —o incluso
para una aproximación razonable a dicha racionalidad objetiva.
en Modelos del hombre (simon, 1957b), en las primeras fuentes, frecuentemente refiere a la “racionalidad limitada” como un “principio”.
de hecho, la mayoría de las referencias tempranas al concepto incluyen
esta etiqueta. sin embargo, cuando discuten la interpretación de este
principio, a menudo utilizan el término “racionalidad restringuida”, lo
cual muestra que este último se encontraba en uso en la década de los
años 1940-1950. sin embargo, se produjo una transición cuando este
uso normal se tradujo en un “principio”, se intercambió “restriguida”
por “limitada”. en otras palabras, la “racionalidad limitada” se vuelve
especial sólo en el transcurso de la institucionalización, esto refuerza
nuestra evaluación de la innovación como una instancia de experimentación consciente por parte de simon (Klaes y sent, 2005).
en el libro de 1957b, es cierto que simon utiliza el concepto de
“racionalidad limitada” para designar la elección racional que toma en
cuenta las limitaciones cognitivas y las limitaciones de capacidad computacional. contrario a la teoría neoclásica, simon avanzaba en el concepto
15
aCtas de eConomÍa y ComplejIdad I
de racionalidad limitada en un esfuerzo por incluir toda la gama de
limitaciones en el conocimiento humano y de computación que impiden
que los agentes económicos en el mundo real se comporten en formas
que se aproximen a las predicciones de la racionalidad completa. se
enfocó en las restricciones externas (restricciones sociales) y limitaciones
internas (cognitivas) en la toma de decisiones. simon destacó el proceso más que el resultado de toma de decisiones. la conciencia de estos
límites, según simon, cuando las personas reúnen información y eligen
entre alternativas, causa que las personas utilicen reglas de conducta
sencillas, heurísticas poco articuladas. según simón, estas heurísticas
se emplean generalmente porque ellas han demostrado ser exitosas en
el pasado. además, implica que el decisor simplemente está buscando
una solución adecuada, que es la de satisfacción, las personas aceptan
la primera solución que es satisfactoria de acuerdo con un conjunto de
criterios mínimos.
sin embargo, en esta definición, la perspectiva de la racionalidad
limitada va más allá de las limitaciones cognitivas y de capacidad de
cómputo de las personas, al lado de la “racionalidad de procedimiento”
conforman una teoría del comportamiento humano.
en cuanto a la “racionalidad de procedimiento”, es conveniente
situar, que el término aparece por primera vez en 1963 (jacobson, 1963),
después aparece en Hammond (1968), thompson (1969) y pfaff (1970),
todas ellas en el campo de la ciencia política. simon (1978b) recoge el
concepto de Richard t. ely, después el concepto experimenta una senda
de crecimiento modesto. jacobson (1963) contrasta la espontaneidad, la
originalidad y la intuición con “una preocupación con el orden social,
la racionalidad procesal y la base material de la asociación y la división
política”. Hammond (1968) ve la racionalidad de procedimiento como
uno de los tres estándares de racionalidad en las burocracias, junto con
la racionalidad radical y liberal. thompson (1969) asocia la racionalidad
de procedimiento con estructuras institucionales y lo contrasta con la
racionalidad humana o sustantiva. de modo que los debates anteriores
de la racionalidad de procedimiento se centraran en la racionalidad
como opuesto a sus límites, restricciones, limitaciones y así sucesivamente
(Klaes y sent, 2005). el significado en simon (1978b) es lo contrario,
insiste en los aspectos del proceso de la racionalidad de procedimiento
y lo contrasta con el enfoque de resultados de la racionalidad sustantiva.
en opinión de simon, “debemos dar cuenta no sólo de la racionalidad
sustantiva —el grado en que los cursos de acción apropiados son elegi16
la raCIonalIdad lImItada y la raCIonalIdad de proCedImIento
dos— sino también de la racionalidad de procedimiento —la eficacia,
a la luz del poder cognitivo humano y sus limitaciones, de los procedimientos utilizados al elegir acciones”. de aquí, se puede afirmar que la
racionalidad de procedimiento precisa el proceso de toma de decisión
en condiciones de racionalidad limitada, insistiendo en una toma de
decisión más descriptiva que normativa.
2. La racionalidad limitada y la racionalidad
de procedimiento como elementos en la toma de decisión
Herbert simon, a lo largo de su obra, construyo una teoría del comportamiento económico basado en los dos conceptos claves referidos,
la racionalidad limitada y la racionalidad de procedimiento. a su vez,
los conceptos de procesos de búsqueda y satisfacción tienen una participación central en su propuesta, al grado de sostener que son la base
de la racionalidad de procedimiento.
simon (1957b) definió a la racionalidad limitada como el término que describe el proceso de decisión de un individuo considerando
limitaciones cognitivas tanto de conocimiento como de capacidad de
cómputo. mediante el uso del concepto de racionalidad limitada, simon inicia la crítica a la teoría de la elección neoclásica, negando sus
supuestos centrales, a saber:
(i) la racionalidad global requiere del conocimiento de todas las
alternativas de comportamiento posibles, no obstante, pocas
de estas alternativas son consideradas.
(ii) la racionalidad global requiere del pleno conocimiento y previsión sobre el futuro de todas las consecuencias que seguirían
a cada alternativa, no obstante, tal conocimiento siempre es
muy fragmentado.
(iii) la valoración de las consecuencias también tiene que ser
“prevista” y esa voluntad de predicción depende, entre otras
cosas, de la imaginación.
en su propuesta, simon contempla la gama de limitaciones a las
que se enfrentan los agentes al tomar sus decisiones en el mundo real,
las clasifica en restricciones externas o factores no cognitivos y restricciones internas o factores cognitivos:
17
aCtas de eConomÍa y ComplejIdad I
— Restricciones externas o factores no cognitivos. son factores del
entorno que influyen en su toma de decisiones, tales como la
cultura, las instituciones en las que está inmerso el agente.
— Restricciones internas o factores cognitivos. Hacen referencia a
las limitaciones de memoria y de percepción que enfrentan los
agentes al tomar sus decisiones.
en tanto que el concepto de racionalidad de procedimiento, lo
desarrolló acudiendo a la hipótesis de satisfacción y la idea de procesos
de búsqueda, ambos términos tienen que ver con el proceso de simplificación en la toma de decisión de un agente y la computación del proceso
de decisión. en el escrito de 1957, define la hipótesis de satisfacción en
los siguientes términos:
en estos dos ensayos [los escritos de 1955 y 1956] el enfoque es sobre
la forma de simplificación del problema de la elección para colocarlo al
interior de los poderes de la computación humana [...]. la clave para la
simplificación del proceso de elección en ambos casos es la sustitución de
la meta de maximización por el de meta de satisfacción, de buscar un curso
de acción que sea “suficientemente buena”. He intentando en estos dos
ensayos, mostrar por qué esta sustitución es un paso esencial en la aplicación del principio de racionalidad limitada. (simon, 1957b: 204-205)1
según esta hipótesis, los decisores, en lugar de intentar maximizar
los valores en una elección dada, lo que pretenden es la satisfacción, ellos
buscan alternativas que son suficientemente buenas según algún criterio
prestablecido. en general, la hipótesis de satisfacción va acompañada de
procesos de búsqueda de alternativas así como de información nueva.
además, la satisfacción también es compatible con el ordenamiento
incompleto de alternativas y con múltiples criterios de elección.
estas simplificaciones en los mecanismos de selección investigada
por simon —y que apareció a mediados de los años cincuenta del siglo
pasado (simon, 1955; 1956)— son los elementos que darán importancia al proceso de toma de decisiones que, más tarde, constituirían los
componentes centrales del concepto de racionalidad de procedimien1
el concepto de satisfacción surge claramente en simon (1955), posteriormente, en simon
(1956: 261, 270-1), el término aparece muy poco. otras afirmaciones acerca de la definición se
encuentran en simon (1957b: 205; 1976a: xIx‑xxx; 1987) y march y simon (1958: 140-141).
18
la raCIonalIdad lImItada y la raCIonalIdad de proCedImIento
to, desarrollado principalmente en el escrito de 1976. satisfacción es
esencialmente la hipótesis que permite, y prácticamente induce a la
concepción de los procedimientos de decisión diversa. con ella, el
decisor no tiene que tener en cuenta todas las alternativas posibles
de comportamiento. las alternativas pueden encontrarse secuencialmente mediante procesos de búsqueda, búsqueda que es interrumpida
cuando se encuentra una alternativa satisfactoria. satisfacción es, por
lo tanto, un paso teórico que permite a simon abandonar la idea de la
racionalidad como un razonamiento tautológico sobre premisas dadas,
la satisfacción permite operar la racionalidad en un espacio abierto, no
predeterminado (Barros, 2010).
los procesos de búsqueda los identifica como las rutinas utilizadas
por los agentes para llegar a resultados satisfactorios. para simon, los
mecanismos de búsqueda deben ser exhaustivos, sin embargo, es necesario un criterio de cierre, es cuando incorpora el criterio de satisfacción,
sintetizado en la siguiente frase “cuando una solución satisfactoria ha
sido alcanzada, pare de buscar” (lavoie, 1992).
es conveniente mencionar que para simon la racionalidad de procedimiento es de carácter computacional, para él los procedimientos
son algoritmos. concibió los procesos de búsqueda y satisfacción como
algoritmos, debido a que eran formas de implementación práctica de
procedimientos de decisión en computadora (Barros, 2010). desde
este punto de vista, “satisfacción” y “procesos de búsqueda” son complementarios.
si bien es cierto que en los escritos anteriores a 1957b, habla del
concepto de racionalidad limitada como una crítica a la racionalidad
global y sugiere la imposibilidad práctica del ejercicio de racionalidad
global, en este escrito precisa la racionalidad limitada no sólo como
concepto sino también como principio y sigue enfatizando en la crítica hacia la racionalidad completa. en el escrito de 1976, culmina el
concepto de racionalidad de procedimiento a partir de los términos
satisfacción y proceso de búsqueda; desde nuestro particular punto de
vista, la racionalidad de procedimiento no es más que la materialización
de la racionalidad limitada. de aquí, podemos decir que la racionalidad
limitada y la racionalidad de procedimiento no son conceptos independientes, son complementarias y conforman una teórica única del
comportamiento económico.
así, la propuesta de simón implica una triple transformación del
modelo de racionalidad global:
19
aCtas de eConomÍa y ComplejIdad I
— en primer lugar, pugna por una concepción procedimental de
la racionalidad en lugar de la concepción sustantiva.
— en segundo lugar, remplaza el concepto de maximización por
el de satisfacción. esto es, simón asegura que el decisor no se
preocupa por elegir lo óptimo sino por elegir una acción cuyo
resultado le satisfaga.
— por último, estas transformaciones lo conducen a una teoría descriptiva de la decisión frente al carácter normativo de la teoría
de la racionalidad global.
en su crítica a la racionalidad completa, simon (1957) afirma:
la labor consiste en remplazar la racionalidad global del hombre económico por un tipo de conducta racional que sea compatible con el acceso
a la información y con las capacidades computacionales que realmente
poseen los organismos, incluido el hombre, en aquellos contextos en que
existen tales organismos. (simón, 1957: 99)
de modo que ante la imposibilidad de optimización de los agentes, la teoría de la racionalidad limitada, en la propuesta simon, busca
caminos satisfactorios para el decisor. el agente, al saber que la realidad
que percibe es una realidad parcial y simplificada, no pretende percibir
el mundo real en toda su complejidad y busca soluciones que le sean
satisfactorias ante su realidad parcial. además de la racionalidad limitada, simon sugiere que los agentes económicos usan métodos heurísticos
para tomar decisiones más que reglas de optimización rígidas y estrictas
sujetos a una noción de equilibrio único y estable.
3. La idea de agente adaptativo y el rol del razonamiento inductivo
en la toma de decisiones de los agentes
Bajo la noción de agente adaptativo, la pregunta pertinente en la teoría
de toma de decisión de simon sería ¿cómo toman sus decisiones los
agentes?, la respuesta a esta pregunta tiene que ver con la formación
de expectativas y el razonamiento inductivo de los agentes, veamos
estos aspectos.
20
la raCIonalIdad lImItada y la raCIonalIdad de proCedImIento
a) La noción de agente adaptativo en Simon
el otro concepto central en la teoría del comportamiento económico de
simon es la noción de agente adaptativo. según simon (1992), el individuo es fundamentalmente un ser adaptativo a su entorno. el individuo
sólo recoge parte de la información del entorno y tiene que desechar
parte de la que le es dada debido a su complejidad; utiliza representaciones mentales, las cuales tienen que ser soportadas en una memoria
de trabajo con una capacidad no infinita. es decir, la resolución está
condicionada por la cantidad de elementos que se tenga en la memoria
de trabajo. en la propuesta de simon, es posible tomar decisiones sin
considerar toda la información del entorno, siguiendo una serie de
reglas sencillas y manejables.
para simon (1992), un modelo de agente adaptativo se caracteriza
por contener cuatro elementos:
— primero, un modelo de agente adaptativo consiste en reglas
simples paso por paso que funcionan bien bajo restricciones de
búsqueda, conocimiento y tiempo limitados.
— segundo, esas heurísticas son rápidas y efectivas y computacionalmente baratas más que consistentes, coherentes y generales.
— tercero, esas heurísticas son adaptables a medios particulares,
pasados o presentes, físicos o sociales. esta “racionalidad ecológica” permite la posibilidad de que las heurísticas puedan ser
rápidas, efectivas y correctas todo al mismo tiempo explotando
la estructura de la información en los medios naturales.
— cuarto, el grupo de heurísticas es dirigido por algunos mecanismos que reflejan la importancia de las motivaciones y metas
en conflicto.
este modelo de razonamiento humano propuesto por simón
(1992) puede ser efectivamente establecido en la forma de programas.
las computadoras pueden entonces simular la toma de decisión de los
agentes a partir de reglas simples en un entorno cambiante. Uno de los
pasos cruciales para entender el comportamiento del agente es cómo
toman sus decisiones ante dicho entorno cambiante, ello nos conduce
al tema de formulación de expectativas acerca del comportamiento
futuro del entorno.
21
aCtas de eConomÍa y ComplejIdad I
b) El razonamiento inductivo en la toma de decisión
en este espacio se entenderá la teoría de la decisión de simon como
aquellas nociones que estudian el proceso de toma de decisión de un
individuo sujeta a restricciones internas y externas de racionalidad, en
donde la toma de decisión se sustenta en la idea de proceso y búsqueda
de elecciones satisfactorias. en las siguientes líneas interesa describir el
proceso de decisión, de modo que se centrará en las ideas de búsqueda
y satisfacción.
Búsqueda y satisfacción, según simon, son dos conceptos centrales en la teoría de la racionalidad limitada. Quien tiene que tomar
una decisión se forma una idea acerca de lo que aspira, y en cuanto lo
encuentra, termina la búsqueda. este modo de selección se denomina
satisfactoriedad (novarese y Rizzello, 2003). la importancia de la teoría
de la búsqueda y la satisfactoriedad permite mostrar cómo se toman las
decisiones a partir de esfuerzos razonables en materia de computación,
usando información incompleta —sin hacer lo imposible— para adelantar el procedimiento maximizador (estrada, 2008). la gente no se
comporta como si maximizara. los fundamentos microeconómicos de la
teoría neoclásica no tienen nada que ver con la realidad. no describen
ni remotamente los procesos que los seres humanos utilizan para tomar
decisiones en situaciones complejas. en experimentos con diversos
grupos, los comportamientos difieren de lo que sugiere la hipótesis de
la utilidad esperada subjetiva (simon, 1979).
en la perspectiva de simon, la racionalidad opera desde dos regiones básicas de la naturaleza humana: procesos y contenidos. en la
región de los procesos, el conocimiento procede mediante la percepción,
la intuición y el comportamiento racional. en una evolución que va
desde un aprendizaje lento, asociado, inercial y reactivo, hasta llegar a
constituir una estructura selectiva, controlada, con esfuerzo, educado y
flexible. los contenidos de la racionalidad dependen de las relaciones
interactivas entre los estímulos, la simulación de hábitos y unidades de
percepción con la capacidad de representación conceptual. los seres
humanos desarrollan la capacidad de contrastar pasado, presente y
futuro. para simon, el lenguaje contribuye enormemente a saltar el abismo que separa nuestra especie, y constituye la comprensión de nuestra
pertenencia a la cultura y a la sociedad (simon y Kotovsky, 1973).
Una descripción actualizada del proceso de toma de decisión del
tipo simon está contenida en arthur (1994). en su artículo de 1994,
22
la raCIonalIdad lImItada y la raCIonalIdad de proCedImIento
Brian arthur se pregunta ¿cómo razonan los humanos ante situaciones
complicadas? al respecto, responde,
la psicología moderna nos dice que como humanos sólo somos moderadamente buenos en lógica deductiva. pero somos magníficos en ver o
reconocer o jugar pautas de comportamiento que confieren beneficios
evolutivos. en problemas complicados, buscamos pautas o patrones, y
simplificamos el problema utilizando dichas pautas construyendo modelos
o hipótesis temporales internas o esquemas para trabajar con ellas.
enfatiza, que
¿si los humanos razonan de esta manera, cómo podemos modelar esto?
en un problema típico a corto plazo, quizás establezcamos una colección
de agentes, probablemente heterogéneos, y asumamos que pueden formar
modelos mentales, hipótesis o creencias subjetivas. estas creencias quizás
entren en la forma de expresiones matemáticas sencillas que pueden ser
utilizadas para describir o predecir alguna variable o acción; o pueden
ser modelos complicados de expectativas del tipo utilizados en economía,
o de hipótesis estadísticas; o de reglas de condición/predicción […] esto
sería normalmente subjetivo, esto es, variarán entre los agentes. Un agente
puede tener una en mente, o varias simultáneamente.
arthur (1994) señala que
cada agente seguirá el comportamiento de una colección privada de tales
modelos de creencia. cuando viene la hora de tomar decisiones, él actúa
sobre lo actualmente más creíble (o posiblemente la más provechosa).
en tanto que los otros, los mantendrá en su mente. alternativamente, él
puede actuar sobre una combinación de varias creencias (sin embargo,
los humanos tienden a mantener en la mente muchas hipótesis y actuar
sobre la más plausible). Una vez que las acciones son tomadas, el cuadro
agregativo es actualizado y los agentes ponen al día el historial de todas
sus hipótesis.
Éste es un sistema en el que el aprendizaje está presente. los agentes
“aprenden” cuál de sus hipótesis trabajar y de vez en cuando pueden
desechar hipótesis pobremente comportadas y generar nuevas “ideas”
para colocarlas en su lugar. los agentes se demoran en la actualización
de sus hipótesis más creíbles. esto causa una histéresis incorporada. el
23
aCtas de eConomÍa y ComplejIdad I
agente se aferra a un modelo de creencia no porque sea “correcto” —no
hay manera de saber esto— sino porque se ha trabajado con él en el
pasado y ha acumulado un expediente de fallas antes de que sea desechado. en general, puede existir una constante, el movimiento lento de
hipótesis afecta. podríamos hablar de esto como un sistema de expectativas
temporalmente satisfechas —las creencias o los modelos o las hipótesis que
son cumplidas temporalmente (aunque no perfectamente), dan lugar a
diversas creencias o hipótesis cuando dejan de ser satisfechas.
c) Ejemplo del bar El Farol
considere ahora el problema del bar el Farol para ilustrar el razonamiento inductivo y la formación de expectativas en la toma de decisión
del agente, analizar sus implicaciones y cómo se podría modelar. arthur
(1994) expone el siguiente problema:
Un centenar de personas tiene que decidir de forma independiente
cada semana la posibilidad de presentarse en su bar favorito (el Farol,
en santa Fe). la regla es que si una persona predice que más de 60 van
a asistir (por ejemplo), evitará las multitudes y se quedará en casa, y si
predice menos de 60, entonces asistirá. es de interés cómo los asistentes
al bar podrían predecir cada semana el número de los que asistirán y la
dinámica resultante del número de participantes.
preguntas:
lo que Brian arthur (1994) se pregunta:
¿Cómo sería el comportamiento dinámico de los asistentes a lo largo del
tiempo?
¿Existirá convergencia y si ése es el caso hacia qué convergiría?
¿Llegará a ser caótico?
el modelo dinámico de asistencia a el Farol:
asuma que los 100 agentes individualmente pueden formar varios pronósticos o hipótesis en la forma de funciones que mapean las
24
la raCIonalIdad lImItada y la raCIonalIdad de proCedImIento
d semanas pasadas de asistencia y que configurarán la asistencia de la
próxima semana. por ejemplo, la asistencia reciente puede ser:
44 78 56 15 23 67 84 34 45 76 40 56 22 35
e hipótesis particulares o predictores (serían el número de asistentes
para la próxima semana):
— el mismo que la semana pasada [35]
— alrededor de 50 en la última semana [56]
— 67 [67]
— un promedio aproximado en las últimas cuatro semanas [39]
— la tendencia en las últimas 8 semanas, limitado por 0, 100
[29]
— el mismo que hace 2 semanas (detector del ciclo de 2-periodos)
[22]
— el mismo que hace 5 semanas (detector del ciclo de 5-periodos)
[76]
— etcétera.
los resultados:
los resultados son sorprendentes. “conforme los agentes visitan el bar, actúan inductivamente —proceden como los estadísticos,
comenzando cada uno con una variedad de modelos de expectativas
o hipótesis de previsión subjetivamente elegidos. cada semana ellos
actúan con base en su modelo actual más preciso. así, las creencias o
hipótesis de los agentes compiten por el uso en una ecología que estas
creencias crean”. la simulación por ordenador (figura 1) mostró que
la asistencia media converge rápidamente a 60. “los predictores se
autorganizan en una “ecología” de equilibrio en el que los predictores
activos, el 40%, en promedio, pronostican por encima de 60 y el 60%
pronostica por debajo de 60”.
Gráficamente:
“la combinación “natural” de 40%-60% se convierte en una estructura emergente. ¿Cómo se autorganizan los predictores para que el 60 emerja
25
aCtas de eConomÍa y ComplejIdad I
Figura 1.
Fuente: arthur (1994).
como asistencia y los pronósticos de media partan en una proporción 60/40?
Una posible explicación sea que ese 60 sea un “atractor” natural a este
problema del bar”.
así, arthur (1994) afirma “el problema del bar es una economía de
expectativas en miniatura, con una dinámica compleja”, en donde los
agentes al tomar sus decisiones formulan sus hipótesis ante cambios en
el entorno y, evidentemente, surgen patrones emergentes”.
los economistas en el instituto santa Fe, stanford, mIt, chicago,
y otras instituciones, están ampliando ahora este enfoque de equilibrio,
girando la pregunta de cómo las acciones, estrategias o expectativas
podrían reaccionar, en general —podrían endógenamente cambiar con
los patrones agregados a que dan lugar—. el resultado, es la economía
de complejidad, no es un complemento a la teoría económica estándar,
sino una teoría a un nivel más general, fuera del nivel de equilibrio
(arthur, 1994; 2005).
26
la raCIonalIdad lImItada y la raCIonalIdad de proCedImIento
4. Implicaciones para la economía
al tener una teoría del comportamiento basada en la racionalidad limitada no sólo se está relajando el supuesto de racionalidad completa
o global, lo que se está haciendo es generar una manera diferente de
reflexionar la toma de decisión de los agentes, una nueva forma de
percibir la toma de decisión. Veamos algunas de estas implicaciones
para la economía:
a) Interdisciplina
el enfoque de toma de decisión con racionalidad limitada es un enfoque
interdisciplinario. el estudio de los límites de la racionalidad externa,
conformada por reglas de comportamiento, costumbres, cultura e instituciones, puede ser realizado por las distintas áreas de las ciencias sociales.
el estudio de los límites internos, referidos a los límites cognitivos de
la racionalidad, puede ser llevado a cabo por médicos y psicólogos. la
simulación de los límites de la racionalidad como proceso de toma de
decisión le corresponde a la computación en sus distintos paradigmas,
autómatas celulares, modelos basados en agentes y/o algoritmos genéticos. esto muestra el carácter interdisciplinario del estudio de la toma
de decisión en condiciones de racionalidad limitada.
si atendemos por áreas de conocimiento, las líneas de investigación más trabajadas son el estudio de la racionalidad limitada a partir
de la psicología y los límites cognitivos de la racionalidad a partir de
la neuroeconomía. la primera línea de investigación se remonta a Kahneman y tversky (1974, 1979); Kahneman, slovic y tversky (1982);
y tversky y Kahneman (1987). según colin camerer (1999), “este
tipo de psicología proporciona una forma de modelar la racionalidad
limitada que es más que la economía estándar, el cambio más radical
que simon tenía en mente. mucho de la economía conductual consiste
en tratar de incorporar este tipo de psicología en la economía”. en
la neuroeconomía, la línea de investigación más reciente, sobresalen los
trabajos de Raymond j. dolan y tali sharot (2011), paul W. Glimcher
(2010) y paul W. Glimcher, ernst Fehr, antonio Rangel y colin camerer (2008).
27
aCtas de eConomÍa y ComplejIdad I
b) Fenomenología
tony lawson (1997) sugiere que los economistas deberían poner atención en los presupuestos ontológicos de sus propuestas teóricas, en
particular, alienta a reconocer que el objeto de estudio de la economía
es “la naturaleza de la realidad económica” y que es necesario adaptar
nuestros métodos de investigación a esa naturaleza. enfatiza que la
teoría neoclásica ha entendido la economía en un sentido opuesto,
impone los métodos preconcebidos sobre la realidad económica de tal
modo que distorsiona nuestra comprensión de la realidad. en la teoría
del consumidor neoclásico, la ortodoxia se preocupa primero por la
elección óptima y después crea una imagen de la realidad que se adapte
a ella (leijonhufvud, 2011: 20), el aprendiz de economía aprende a ver
la realidad económica bajo esta lente tergiversada.
al reflexionar la toma de decisión de un agente en condiciones de
racionalidad limitada se está reconociendo que en el mundo real la toma
de decisión de los agentes está restringida en parte por sus capacidades
internas y en parte por factores del entorno, si nos centramos en el
proceso de toma de decisiones, aspecto cubierto por la racionalidad de
procedimiento, lo que se tiene es toda una teoría del comportamiento
económico basado en la naturaleza de la toma de decisión de los agentes. esto nos permite modelar los aspectos reales del comportamiento
económico, agentes cuyo comportamiento se basa en reglas sencillas
construidas a partir de los hechos económicos y no en un agente idealizado en donde las reglas de decisión de los agentes son pronosticadas
por la teoría económica, se aleja de los modelos de equilibrio general
del tipo Hansen y sargent (1980).
la teoría del comportamiento racional de simon es una teoría
descriptiva, interesa la explicación del proceso de toma de decisión
de las personas, a diferencia de la teoría neoclásica que es una teoría
normativa donde lo que interesa es la propia toma de decisiones. desde
este punto de vista la teoría de simon es un esfuerzo por construir una
teoría de la racionalidad limitada sustentada empíricamente, a simon
le interesa el contenido empírico de la racionalidad limitada, en la teoría del comportamiento humano rechaza el uso de supuestos ad hoc en
tanto no tengan sustento empírico.
en esta visión de toma de decisión de simon se da gran relevancia
al uso de experimentos en donde las nociones de búsqueda y el uso de
reglas de comportamiento adquieren gran importancia. en la toma de
28
la raCIonalIdad lImItada y la raCIonalIdad de proCedImIento
decisión de las personas, lo que interesa son las soluciones satisfactorias,
el decisor en cuanto encuentra una solución satisfactoria que cumpla
con los criterios mínimos deja de buscar, el enfoque es algorítmico, la
simulación por computadora de este tipo de comportamiento permite
crear escenarios y encontrar las regularidades de la toma de decisión
basada en datos.
para la economía, la racionalidad limitada es una teoría del comportamiento económico racional basado en supuestos reales. Bajo esta
línea de investigación se han simulado la toma de decisión de los agentes
(arthur, 1990; 1991 y 1993), la toma de decisión en el mercado bursátil
artificial del instituto sante Fe (palmer et al., 1994; arthur et al., 1997;
lebaron, 2002), estos estudios no deben confundirse con los experimentos de racionalidad limitada que abundan en la teoría de juegos del
tipo Radner (1980) que sólo buscan confirmar las tesis de racionalidad
del enfoque dominante.
c) Sistema complejo adaptativo
a partir de la idea agente adaptativo que reacciona a su entorno buscando soluciones satisfactorias presente en simón, se puede postular que
el sistema económico es un sistema complejo adaptativo, precisemos
un poco más:
Un sistema complejo adaptativo se puede definir de la siguiente
manera:
Un sistema complejo adaptativo es un sistema abierto, conformado de
numerosos elementos que interactúan entre sí de un modo no lineal, y
que constituye una entidad única, organizada y dinámica, capaz de evolucionar y adaptarse al ambiente. (Gandolfi, 1999: 19)
el comportamiento de un sistema complejo adaptativo muestra que
uno de los principales aspectos de la complejidad es la respuesta de un
sistema a cambios en el entorno, es decir, su adaptación a los cambios
y a los estímulos que dichos cambios genera (albin, 1998).
cuando consideramos el comportamiento de sistemas complejos
adaptativos, pueden identificarse varias características generales que se
describen brevemente a continuación (Bertuglia y Vaio, 2005):
29
aCtas de eConomÍa y ComplejIdad I
1. se compone de un gran número de elementos (agentes) que
interactúan recíprocamente, que no pueden ser modelados en
un esquema lineal; los elementos están conectados entre sí de
tal manera que la acción de cada elemento puede provocar más
de una respuesta en cada uno de los otros elementos.
2. interactúa con otros sistemas complejos adaptativos, que, en
su conjunto, constituyen el entorno en que está sumergido y a
cuyos estímulos reacciona.
3. adquiere información sobre los sistemas que componen su
entorno y sobre las consecuencias de su propia interacción con
dichos sistemas; en otras palabras, es sensible a la información
que recibe del medio ambiente (retroalimentación ambiental).
4. identifica regularidades en el flujo de información que adquiere, y, basado en ello, desarrolla un modelo (o un esquema) que
intenta ‘explicar’ las regularidades identificadas.
5. actúa en relación con los sistemas que componen su entorno,
basándose en el modelo que ha desarrollado, observa las respuestas que provocan sus acciones, así como las consecuencias
de dichas respuestas y utiliza esta información para corregir
y mejorar el modelo en cuestión; en otras palabras, utiliza la
retroalimentación ambiental para aprender y adaptarse.
la noción de agente adaptativo de simon matizada por arthur
(1991, 1994 y 2005), en donde las decisiones del agente dependen
de las decisiones de los demás y que influye sobre el entorno y que el
entorno influye en las decisiones de dichos agentes, permite afirmar la
existencia de un sistema complejo adaptativo que cumple con las características antes señaladas. a diferencia de la economía convencional
que estudia los patrones coherentes, patrones de comportamiento en
equilibrio, patrones que no podrían inducir alguna reacción adicional,
en un sistema complejo adaptativo se estudia el cómo las acciones, las
estrategias o las expectativas podrían reaccionar y endógenamente
cambiar con los patrones agregados a que dan lugar (arthur, 2005). el
resultado, es la economía de la complejidad, no es un complemento a
la teoría económica estándar, sino una teoría a un nivel más general,
fuera del nivel de equilibrio (durlauf y lane, 1997).
en este sentido, la idea de agente adaptativo con racionalidad limitada permite alejarnos de las ideas de sistema cerrado y determinismo
absoluto de la teoría neoclásica a favor de un sistema abierto en completa
30
la raCIonalIdad lImItada y la raCIonalIdad de proCedImIento
interacción entre el todo y las partes. con ello, se está reconociendo la
naturaleza de un sistema económico en completa interacción con sus
partes, ganamos en caracterización de las relaciones de causa y efectos
entre el todo y las partes y su avance a lo largo del tiempo.
d) Uso de herramientas y metodologías, inteligencia artificial
y modelos basados en agentes
simon (1957a), al apelar a una teoría del comportamiento más realista,
situó la necesidad de los estudios empíricos como una fundamentación
apropiada de su teoría del comportamiento. el intento de estudiar empíricamente la toma de decisiones se realizó principalmente a través de la
utilización de experimentos de laboratorio, a través de la observación de
sujetos en el proceso de toma de decisiones sobre situaciones problemáticas relativamente simples. esto nos conduce al tema de la inteligencia
artificial en donde a través de programas de computadoras se simula
el proceso mental en la toma de decisión de una persona, procesos en
donde entran en juego las limitaciones cognitivas del decisor, tal como
lo sugiere arthur (1990, 1991 y 1993).
para simon, un entendimiento de los procesos reales en la toma
de decisión humana le permitió construir programas de computadoras
que reproducen tales procesos. las nociones de heurística y subproblemas sugieren que las máquinas podrían ser programadas para resolver
problemas sin especificar la solución para cada problema en detalle y
tareas divididas en forma independiente, jerárquicamente ordenadas en
subtareas (sent, 1997). ello permitió el desarrollo de los procedimientos
de solución de problemas sencillos por computadora. al respecto, en la
solución de problemas, simon (1960) escribió:
el pensamiento humano se rige por programas que organizan innumerables procesos de información sencilla —o manipulando procesos simbólicos si se quiere— en secuencias ordenadas complejas que son sensibles
y adaptables al entorno de tareas y pistas que se extraen de ese entorno
mientras se desarrollan las secuencias. (p. 81)
para simon, la inteligencia artificial y la economía sirven para
describir cómo las personas seleccionan una opción satisfactoria de un
conjunto de alternativas posibles.
31
aCtas de eConomÍa y ComplejIdad I
al respecto, simon insiste en su aporte al estudio del proceso de toma
de decisiones desde el campo de la psicología y la inteligencia artificial:
en 1955, si bien no dejé mis preocupaciones con la administración y la
economía, me concentré particularmente en la psicología del proceso
humano de resolución de problemas, más específicamente, en descubrir
el proceso simbólico mediante el cual la gente piensa. Rápidamente me
convertí en un psicólogo conductista y en un científico de la computación [...] inventamos un programa de computación capaz de razonar de
manera no numérica [...] el 15 de diciembre de 1955 nació la solución
heurística de los problemas, realizada por computadora, cuando pudimos
demostrar cómo una computadora podía utilizar métodos heurísticos de
búsqueda para solucionar problemas difíciles [...] el ajedrez se convirtió en
una herramienta estándar en las ciencias cognitivas y la investigación de
inteligencia artificial. nuestra investigación sobre el ajedrez se centró en
cómo funcionaban los ajedrecistas, quienes, en el mejor de los casos, podían
analizar cien variantes frente a una posición difícil. (simon, 1978a)
así, simon acudió entonces a diferentes perspectivas del pensamiento humano para pensar el proceso de toma de decisiones. asume
intuitivamente que el pensamiento puede estandarizarse, es decir, que
se trata de algo estable, de una forma neuronal que se mantiene, y esto
no parece ratificar que existan realidades diferentes. la racionalidad
acotada supone “una racionalidad” que redefine sus principios continuamente. por ello, la toma de decisiones se vuelve compleja, más si se
trata de centros grupales de decisión; los principios racionales fluctúan
en razón de preferencias personales que, aun cuando coherentes con los
objetivos de la organización, difieren entre sí (estrada, 2008).
siendo más exigentes, el tema anterior nos conduce a la modelación
de la toma de decisión de un agente que interactúa con el entorno. para
arthur (2005), el camino más promisorio es la modelación de agente
adaptativo a través de la metodología basada en agentes. para él, éste
es un enfoque que rebasa la economía estándar, la economía ortodoxa
exige que las acciones, las estrategias o las expectativas de los agentes
estén en equilibrio con los resultados o el patrón que estas conductas
agregativas crean. la economía computacional basada en agentes permite hacer una pregunta más amplia, ¿cómo podrían las acciones, las
estrategias o las expectativas de los agentes reaccionar con los patrones
que crean? en otras palabras, nos permite examinar cómo se comporta
32
la raCIonalIdad lImItada y la raCIonalIdad de proCedImIento
la economía cuando está fuera del equilibrio, esto es, cómo se comporta
la economía cuando no está en el estado estacionario.
el terreno de la toma de decisión con racionalidad limitada es
preguntarse cómo el comportamiento individual se ajusta conforme a la
situación que despliega, aspecto que enfatiza el carácter algorítmico de
la toma de decisión. y ya que hay un margen considerable para aprender
o reaccionar de modos diferentes, este enfoque no ve ninguna razón de
tratar ajustes en el comportamiento como idénticos, tal como sucede en
la teoría neoclásica. para arthur (2005), una cosa evidente sobre estudios
basados en agentes es que son casi siempre evolutivos en aproximación,
de modo que un supuesto común para la mayor parte de estos estudios
es que los agentes se diferencian en la forma en cómo se adaptan a los
patrones agregados cuando en los hechos tienen circunstancias diferentes, historias diferentes, psicologías diferentes. esto es, los agentes
son adaptables y heterogéneos. si los agentes son heterogéneos (con
estrategias o con expectativas heterogéneas) se adaptan continuamente
a la situación total que juntos crean, entonces, ellos se adaptan dentro
de una “ecología” que juntos crean. y en tanto se adaptan, cambian
esa ecología.
sin duda, este enfoque fuera de equilibrio no es un complemento
a la teoría económica estándar; de hecho, es una manera distinta de
hacer economía, es economía en un camino más general. este modo
de hacer economía exige un enfoque algorítmico e invita a un enfoque
más profundo sobre las reacciones de los agentes ante el cambio y un
reconocimiento de que éstos pueden diferir —y, por lo tanto, que los
agentes son naturalmente heterogéneos (arthur, 2005: 9).
e) Expectativas temporalmente satisfactorias
en la teoría convencional las expectativas racionales conciben la economía como un tren que viaja a través de un territorio markoviano
cambiante, todos a bordo con el mismo equipaje mental cuidadosamente empacado. a intervalos constantes, predeterminados, el tren
cambia repentinamente hacia una nueva vía elegida mediante un azar
de lotería de feria. las vías han sido colocadas de una buena vez y no
hay descarrilamientos. aceptar que el futuro no puede conocerse con
certidumbre, ni siquiera con una distribución de probabilidad, significa
que estamos tratando con un sistema abierto. y entonces, la utilidad de
33
aCtas de eConomÍa y ComplejIdad I
muchas herramientas de esta teoría se ponen en duda (leijonhufvud,
2011: 25).
los agentes en un sistema como éste tienen que adaptarse a eventos
cuya probabilidad no ha sido estimada correctamente. obviamente la
optimización intertemporal no puede ser entonces una representación
“verdadera” de la conducta debido a que los horizontes temporales
de conducta varían endógenamente (Heymann y leijonhufvud, 1996;
leijonhufvud, 1997). esta forma de percibir la toma de decisiones en el
tiempo, nos conduce al concepto inaugurado por Brian arthur (1994)
llamado expectativas temporalmente satisfechas, se trata de creencias o
modelos o hipótesis que son cumplidas temporalmente, y que, si en un
entorno dinámico dichas creencias o hipótesis dejan de ser satisfechas,
tienen que ser sustituidas por otras.
lo relevante de este enfoque es que se aplica fuera del equilibrio
como en equilibrio, las expectativas no tienen que ser consecuentes con
su resultado, tal como exigen las expectativas racionales, y se aplica generalmente a problemas multiagente donde las expectativas se implican
(ver Holland et al., 1986). Una vez más, el proceso de toma decisión en
el tiempo tiene que ver con los patrones que crean y cómo reacciona
ante cambios en el agregado, se trata de una propuesta de economía
evolutiva, que cambia a lo largo del tiempo.
Conclusiones
en el bosquejo de los conceptos se insiste en que en el comportamiento
económico, la racionalidad limitada enfatiza en los límites internos y
externos de la toma de decisión del agente, en tanto que la racionalidad
de procedimiento precisa el proceso de toma de decisión en condiciones
de racionalidad limitada.
ambos conceptos se complementan para dar lugar a la teoría de la
toma de decisión de simón. en dicha teoría adquieren gran relevancia
los conceptos de procesos de búsqueda y satisfacción. en contra de la
teoría del comportamiento económico neoclásico, los decisores, en lugar
de intentar maximizar los valores en una elección dada, lo que pretenden es la satisfacción, ellos buscan alternativas que sean suficientemente
buenas según algún criterio prestablecido. esto da lugar a una teoría
de la toma de decisión descriptiva, basada en supuestos reales, y no una
teoría idealizada en donde la realidad económica tiene que sujetarse.
34
la raCIonalIdad lImItada y la raCIonalIdad de proCedImIento
Viendo un poco más allá, al estilo arthur (1994, 2005), si se
piensa en un proceso de toma de decisión que evoluciona a lo largo
del tiempo, ello nos conduce a la noción de agente adaptativo y por
tanto a la visión de la economía como un sistema complejo adaptativo,
aspectos de gran relevancia para la economía. Ésta es la teoría de toma
de decisiones en condiciones de racionalidad limitada inaugurada por
simon en 1955.
así, los conceptos de racionalidad limitada y racionalidad de procedimiento como complementarias permiten tener una teoría de la toma
de decisiones de simon con enormes alcances para la economía:
1. es una teoría del comportamiento económico distinta al de la
teoría neoclásica, la racionalidad limitada y la racionalidad de
procedimiento le dan un carácter descriptivo. para la economía
representa una forma distinta de estudiar la toma de decisiones, es una teoría sustentada en supuestos reales, no es una
imagen idealizada del comportamiento económico a la cual la
realidad económica tiene que sujetarse, se trata de reconocer y
explicar el proceso de toma de decisión de los agentes económicos, comúnmente heterogéneos, reconociendo sus conductas
particulares. a la luz de los incentivos de los agentes interesa,
por ejemplo, el proceso de toma de decisión de la compra, el
proceso de toma de decisión del inversionista, etc., ello nos
conduce al estudio de los procesos cognitivos y no cognitivos
de cada decisión, un estudio de proceso que no se encuentra
en la teoría neoclásica.
2. si se piensa en un agente adaptativo que toma sus decisiones a
lo largo del tiempo, lo que se tiene es una historia completa de
la toma de decisión del agente, ello representa para la economía
la posibilidad de tener una caracterización completa de la toma
de decisión a lo largo de la historia, estudiar sus regularidades
daría lugar a un diagnóstico y sugerencias distintos al de la teoría
neoclásica. detrás de cada historia de toma de decisión se tiene
un trasfondo cultural, institucional, las costumbres, los hábitos,
una forma de hacer las cosas, aspectos no contemplados en la
teoría neoclásica.
3. la teoría de la decisión basada en la racionalidad limitada y
la racionalidad de procedimiento también llama a reflexionar
la economía como un sistema adaptativo complejo, desde este
35
aCtas de eConomÍa y ComplejIdad I
punto de vista la economía es un sistema abierto en donde hay
una interacción perpetua entre el todo y las partes, en nuestro
caso de la toma de decisión, la interacción entre los agentes y
el entorno, no existen relaciones causales predeterminadas, en
este sentido la noción de sistema adaptativo complejo se aleja
del determinismo absoluto y la noción de sistema cerrado de la
teoría neoclásica, la labor es explorar la relación entre el sistema y los agentes, capturar los patrones estructurales y dar una
explicación y sugerencias acerca de su funcionamiento.
4. la toma de decisión basada en la racionalidad limitada y la racionalidad de procedimiento también nos deja la lección de una
nueva forma de estudiar los problemas económicos y su solución,
me refiero al carácter interdisciplinario, el estudio de la economía bajo la lente de otras disciplinas, la teoría dominante ha sido
incapaz de proponer y dar solución a los problemas económicos
actuales y de antaño, las crisis económicas, la caída sistémica
de la bolsa de valores y del consumo, las caídas frecuentes de la
inversión empresarial, por citar algunos. es tiempo de acudir a
otras metodologías, el paradigma de los sistemas complejos surge
con una nueva postura de abordar los problemas económicos y
sociales, acompañada con nuevas técnicas e instrumentos proponiendo no sólo una nueva forma de hacer ciencia, sino una
nueva forma de enfrentar los problemas socioeconómicos y su
solución.
Bibliografía
albin, p.s. (1998) Barriers and bounds to rationality. princeton, new jersey:
princeton University press.
almond, Gabriel a. (1945) the political attitudes of wealth. Journal of
Politics, 7.3: 213–55.
arthur, W. Brian (1990) A learning algorithm that mimics human learning.
santa Fe institute Working paper, 90-026.
arthur, W. Brian (1991) learning and adaptive economic behavior.
designing economic agents that act like human agents: a behavioural–approach to bounded rationality. American Economic Review,
vol. 81, núm. 2: 353-359.
36
la raCIonalIdad lImItada y la raCIonalIdad de proCedImIento
arthur, W. Brian (1992) On learning and adaptation in the economy. santa
Fe institute Working paper, 92-07-038.
arthur, W. Brian (1993) on designing economic agents that behave like human agents. Journal of Evolutionary Economics, vol. 3, núm. 1: 1-22.
arthur, W. Brian (1994) inductive reasoning and bounded rationality.
American Economic Review, vol. 84, núm. 2: 406-411.
arthur, W. Brian (2005) out-of-equilibrium economics and agentbased modelling. en K. judd y l. tesfatsion (eds.), Handbook of
computational economics, vol. 2: Agent-Based computational economics,
elsevIer/north-Holland, forthcoming.
arthur, W. B.; s. n. durlauf y d. a. lane (1997) The economy as an evolving
complex system II. Reading, mass.: addison-Wesley.
Barros, Gustavo (2010) Herbert a. simon and the concept of rationality:
Boundaries and procedures. Brazilian Journal of Political Economy,
vol. 30, núm. 3 (119): 455-472.
Bertuglia, cristoforo y Franco Vaio (2005) Nonlinearity, chaos, and complexity,
the dynamics of natural and social systems. oxford University press.
camerer, colin (1999) Behavioral economics. cswep Newsletter, winter.
<http://www.cswep.org/camerer.html>.
commons, john R. (1934) Institutional economics. madison: University
of Wisconsin press.
dolan, Raymond y tali sharot (2011) Neuroscience of preference and choice:
Cognitive and neural mechanisms. Usa: elsevier.
estrada, Fernando (2008) economía y racionalidad de las organizaciones. los aportes de Herbert a. simon. Revista de Estudios Sociales,
núm. 31: 208.
Gandolfi a. (1999) Formicai, imperi, cervelli, Bollati Boringhieri, turin.
Glimcher, paul (2010) Foundations of neuroeconomic analysis. Usa: oxford
University press.
Glimcher, paul; Fehr, ernst; Rangel, antonio y colin camerer (2008)
Neuroeconomics: Decision making and the brain. Usa: elsevier.
Hammond, paul y. (1968) a functional analysis of defense department
decision-making in the mcnamara administration. American Political Science Review, 61.1: 57–69.
Hansen, l. p. y sargent, t. j. (1980) Formulating and estimating dynamic linear expectations models. Journal of Economic Dynamics and
Control, vol. 2, núm. 1: 7-46. Reimpreso en lucas, R. e. y sargent, t.
j. (eds.) (1981): 91-125, Rational expectations and econometric practice.
minneapolis: University of minnesota press.
37
aCtas de eConomÍa y ComplejIdad I
Heymann, d. (2008) macroeconomics of broken promises. en R. Farmer (ed.), Macroeconomics in the large and the small. cheltenham:
edward elgar.
Heymann, d. y a. leijonhufvud (1996) High Inflation. oxford: oxford
University press.
Holland, j.H.; K. Holyoak. R. nisbett, p. thagard (1986) induction.
mIt press.
jacobson, norman (1963) political science and political education.
American Political Science Review, 57.3: 561-69.
Kahneman, daniel, y amos tversky (1974) judgment under uncertainty:
Heuristics and biases. Science, 185: 1124–31.
Kahneman, daniel, y amos tversky (1979) prospect theory: an analysis
of decision under risk. Econometrica, 47.2: 263–91.
Kahneman, daniel, paul slovic y amos tversky (1982) Judgement under
uncertainty: Heuristics and biases. cambridge: cambridge University
press.
Klaes, m. y esther-mirjam sent (2005) a conceptual history of the
emergence of bounded rationality. History of Political Economy, 37:
1. duke University press.
lavoie, marc (1992) Foundations of postkeynesian economic analysis. edward
elgar.
lawson, t. (1997) Economics and reality. londres: Routledge.
leijonhufvud, axel (2011). la naturaleza de una economía. Investigación
Económica, vol. 70, núm. 277, fe‑unam.
leijonhufvud, axel (1997) macroeconomic complexity: inflation theory.
en W.B. arthur, s.n. durlauf y d.a. lane (eds.), The economy as an
evolving complex system ii. nueva york: addison Wesley y the santa
Fe institute.
lebaron, B. (2002) Building the Santa Fe artificial stock market. Brandeis
University.
march, james G. y Herbert a. simon (1958). Organizations. nueva york:
Wiley.
novarese, marco y salvatore Rizzello (2003) Satisfaction and learning:
An experimental game to measure happiness. alessandria: centre for
cognitive economics, Università del piemonte orientale.
palmer, R.G., W. B. arthur, j. H. Holland, B. leBaron, p. tayler (1994)
artificial economic life: a simple model of a stockmarket. Physica
D, 75: 264-274.
38
la raCIonalIdad lImItada y la raCIonalIdad de proCedImIento
pfaff, Richard H. (1970) the function of arab nationalism. Comparative
Politics, 2.2: 147–67.
Radner, Roy (1980) collusive behavior in noncooperative epsilon-equilibria of oligopolies with long but finite lives. Journal of Economic
Theory, 22: 136-54.
sent, esther-mirjam (1997) sargent versus simon: Bounded rationality
unbound. Cambridge Journal of Economics, 21.3: 323-38.
simon, Herbert a. (1943) the incidence of a tax on urban real property.
Quarterly Journal of Economics, 57: 398-420.
simon, Herbert a. (1947) Administrative behavior. nueva york: macmillan.
simon, Herbert a. (1955) a behavioral model of rational choice. Quarterly Journal of Economics, 69.1: 99–118.
simon, Herbert a. (1956) Rational choice and the structure of the environment. Psychological Review, 63.2: 129-38.
simon, Herbert a. (1957a) Administrative behaviour, 2a ed. nueva york:
macmillan.
simon, Herbert a. 1957b. Models of Man. newyork: Wiley.
simon, Herbert a. (1959). theories of decision-making in economics
and behavioral science. American Economic Review, 49.3: 253-83.
simon, Herbert a. (1960) The new science of management decision. nueva
york: Harper & Row.
simon, Herbert a. y Kotovsky, Kenneth (1973) empirical tests of a theory
of human acquisition of concepts for sequential patterns. Cognitive
Psychology, 4, 3: 399-424.
simon, Herbert a. (1976) Administrative behavior. 3a ed. nueva york:
Free press.
simon, Herbert a. (1978a). the uses of mathematics in 46. the social
sciences. Mathematics and Computers in Simulation, 20, 3, 159-166.
simon, Herbert a. (1978b) Rationality as process and as product of
thought. American Economic Review, Papers and Proceedings, 68.2:
1-16.
simon, Herbert a. (1979) Rational decision making in 48. Business
organizations. American Economic Review, 69: 493-513.
simon, Herbert a. (1982) Models of bounded rationality, vols. 1 y 2. cambridge: mIt press.
simon, Herbert a. (1987) Bounded rationality. en j. eatwell, m. milgate, y p. newman (eds.), The New Palgrave Dictionary of Economics,
londres: macmillan.
39
aCtas de eConomÍa y ComplejIdad I
simon, Herbert a. (1991). Models of my life. nueva york: Basic Books.
simon, Herbert a. (1992). Economics, bounded rationality and the cognitive
revolution. Vermont: edward elgar.
simon, Herbert a. (1997) Administrative behaviour, 4a ed. nueva york:
Free press.
thompson, Kirk (1969) constitutional theory and political action. Journal of Politics, 31.3: 655-81.
tversky, amos y daniel Kahneman (1981). the framing of decisions
and the psychology of choice. Science, n.s., 211.4481: 453-58.
tversky, amos y daniel Kahneman (1987) Rational choice and the
framing of decisions. en Robin m. Hogarth (ed.), Rational choice:
The contrast between economics and psychology. chicago: University of
chicago press.
40
ComplejIdad en la toma de deCIsIones:
raCIonalIdad lImItada y proCesos eleCtorales
Joaquín Urbina Alonso*
Ricardo Mansilla Corona**
e
n este capítulo daremos un recorrido por las ideas fundamentales
acerca de la racionalidad en la toma de desiciones así como por
algunos estudios sobre los procesos electorales. en particular, nos ocupa
estudiar la toma de decisiones en procesos electorales.
las temas 1 y 2 cubren el panorama de la racionalidad completa y
de la racionalidad limitada, eje conductor del presente trabajo.
Una vez planteado nuestro marco teórico-histórico retomaremos
las ideas sobre la racionalidad limitada para elaborar una propuesta de
modelo basado en agentes que simule las preferencias electorales en un
escenario de tres opciones (partidos).
en el marco teórico-matemático planteamos el cálculo de la información mutua como una herramienta para medir correlación entre los
datos obtenidos en las simulaciones.
en la parte final se presentan las gráficas obtenidas y una interpretación de estos datos.
1. Racionalidad en el comportamiento del elector
a) El modelo de Downs
la formalización del modelo de elecciones de downs se hace utilizando
el modelo espacial de Hotelling(1929), quien sugirió la aplicación de su
“ciudad lineal”1 a la competencia política entre dos partidos políticos. la
* matemáticas aplicadas. Universidad autónoma metropolitana–iztapalapa. contacto:
(j.urbina.a@gmail.com).
** centro de investigaciones interdisciplinarias en ciencias y Humanidades, unam.
1
el modelo “ciudad lineal” es el intervalo [0,1]. los consumidores están distribuidos uniformemente a lo largo de este intervalo. Hay 2 empresas, localizadas a cada extremo que venden el
mismo bien. la única diferencia entre las empresas es su localización. c=costo de 1 unidad del bien,
41
aCtas de eConomÍa y ComplejIdad I
ley de duverger2 nos lleva a esperar que por razones estratégicas haya
dos partidos políticos cuando el sistema electoral es de pluralidad simple
de votos.3 Éste es un modelo de política preelectoral que downs(1957)
incorporó en su marco de dos partidos políticos oportunistas a los cuáles
sólo les interesa ganar elecciones (aunque a veces es ambiguo y supone
que los partidos quieren maximizar votos).
downs supone que todos los miembros de un partido actúan en
pos del objetivo del equipo. Hay, además, información completa sobre
la identidad del votante mediano,4 ambos partidos convergen a la plataforma ideal mediana que separa al electorado en dos mitades, una
con su punto ideal a la izquierda y otra a la derecha.
aunque el teorema de downs a menudo se confunde en la literatura
con el teorema del votante mediano de Black (1948), son dos resultados
distintos. Black consideró un sistema de votación entre un número finito
de alternativas, el método de condorcet de comparar cada par posible
y seleccionar como ganadora la que tiene más victorias: con sólo dos
alternativas, este método coincide con la simple pluralidad de sufragios
t=costo de transporte por unidad de distancia al cuadrado. este costo es soportado por los consumidores cuando eligen una empresa o la otra. Representa el valor del tiempo, gasolina, etcétera.
los consumidores tienen demandas unitarias: o compran 1 unidad o ninguna {0,1}.
2
la ley de duverger es un principio que afirma que el sistema electoral mayoritario conduce
a un sistema bipartidista. el descubrimiento de este principio se atribuye a maurice duverger,
sociólogo francés que observó este efecto y dejó constancia del mismo en diversos textos publicados en los años cincuenta y sesenta del siglo xx. posteriormente, otros politólogos comenzaron a
llamar “ley” a este efecto.
3
cuando está en juego un solo cargo por distrito, hay razones estratégicas para que compitan
sólo dos partidos políticos (duverger (1954) es la referencia clásica). cox (1997: cap. 1), plantea
que empíricamente esto se verifica más a nivel local que nacional, aunque hay países bipartidistas
como estados Unidos. con un sistema electoral mayoritario en cada distrito, como el de pluralidad
simple de sufragios, tiene sentido maximizar la probabilidad de ganar las elecciones. pero si hay
un sistema electoral proporcional donde están en juego varios cargos por distrito, puede tener
sentido maximizar en cambio el voto esperado.
4
el supuesto clave del modelo de “voto determinista” es que se sabe a ciencia cierta quién es
el votante mediano. para downs, la identidad del votante mediano es igual a 50 si todos los votantes
participan en la elección. el votante mediano es decisivo cuando el sistema electoral es de simple
pluralidad de sufragios, donde gana el candidato con más votos, y compiten sólo dos partidos
políticos. en ese caso, las probabilidades de que un partido gane las elecciones son discontinuas
y cambian abruptamente: cuando está más cerca del mediano que el otro partido, sus chances de
ganar son 1; cuando están a igual distancia, sus probabilidades son 1/2; cuando está más alejado
el mediano, sus chances son cero. dado esto, si hay dos partidos oportunistas a los que sólo les
interesa ganar las elecciones, tienen un incentivo a moverse más cerca del mediano que el otro
partido, ya que el que está más cerca del mediano tiene una mayoría de votos y gana.
42
ComplejIdad en la toma de deCIsIones
que downs consideró. la innovación fundamental de duncan Black fue
introducir las preferencias de un solo tope, que generalizan las preferencias espaciales de Hotelling, mostrando que, bajo esas condiciones,
la propuesta ideal del mediano puede derrotar cualquier otra opción,
por lo que hay un único ganador de condorcet. el problema es que las
votaciones son manipulables si hay más de dos opciones.
si bien Black se concentró en el problema de elegir entre políticas
alternativas, el problema característico de las legislaturas o de cualquier
cuerpo que tome decisiones directas en forma colectiva, menciona que
su teorema se aplica también a la competencia entre candidatos, lo característico de la democracia representativa donde los votantes eligen
delegados o representantes para que tomen las decisiones públicas por
ellos. conceptualmente, la diferencia clave entre downs y Black es que
en downs las posiciones de los candidatos no están dadas: los candidatos eligen endógenamente su posición, por lo que la política pública
propuesta se convierte en la variable estratégica clave.
1.2 El modelo de Wittman
Wittman (1983,1990) plantea un modelo más complejo, ahora los
partidos deben balancear dos cuestiones, primero las oportunidades
electorales y segundo la política que se implementará. para ver esto,
supongamos que ∏(pA, pB) es la probabilidad de que el partido A gane
las elecciones cuando las plataformas son pA y pB, respectivamente.
consideremos además que las preferencias de los partidos vienen dadas
por W(pj)) con j = A,B entonces, el problema del partido j es elegir una
plataforma que maximice:
∏(pA, pB) · W(pAj) + [1 – ∏(pA, pB): · W(pBj)]
mientras que en el modelo de downs los partidos simplemente maximizan: ∏(pA, pB)
a pesar de que el modelo de Wittman es más complicado que el
modelo de downs, el resultado de convergencia se mantiene. la intuición
es que aún si los partidos tienen un costado programático5 y quieren
5
los modelos de votación con partidos interesados en las políticas implementadas, usualmente son denominados modelos con partidos “principistas”, también llamados “programáticos”
43
aCtas de eConomÍa y ComplejIdad I
imponer un determinado programa de gobierno, antes tienen que
ganar las elecciones para poder implementar su programa preferido.6
siempre y cuando estén polarizados a un lado y otro del mediano, los
partidos están forzados a moverse hacia el mediano, para evitar que el
otro partido se acerque aún más y gane las elecciones con una política
opuesta todavía más alejada de su punto ideal que la del mediano. la
lógica de la competencia lleva a los partidos a moderarse y converger
en el mediano. es decir, tenemos el siguiente resultado:
Resultado (convergencia al mediano con partidos polarizados):
supongamos que hay dos partidos principistas, las plataformas electorales determinan las políticas poselectorales, la competencia electoral es
sobre una única dimensión y las preferencias de los votantes son de un
solo tope. si hay información completa sobre la identidad del votante
mediano, ambos partidos convergen a la plataforma ideal mediana
sólo si están polarizados, en el sentido de que la política ideal de un
partido está a la izquierda y la del otro a la derecha de la plataforma
ideal mediana.7
1.3 Racionalidad y el teorema de Arrow
Kenneth j. arrow recibe el premio nobel de economía en 1972 por su
trabajo Social choice and individual values (1951). dentro de este trabajo,
aparece el teorema de arrow, que se enuncia del siguiente modo: “cualquier regla de votación que respeta la transitividad, la independencia
de alternativas irrelevantes y la unanimidad es una dictadura, siempre
que la decisión se plantee, al menos, entre tres alternativas”.
o “ideológicos”, aunque dependiendo del contexto alguna de estas denominaciones podrían ser
confusas. de hecho, los partidos podrían tener preferencias sobre las políticas simplemente porque
son coaliciones formadas por grupos de ciudadanos con determinados intereses y no debido a que
los políticos tengan una ideología propia. cabe notar también que la distinción entre modelos
con partidos oportunistas y modelos con partidos principistas es hasta cierto punto relativa, en un
contexto de preferencias consecuencialistas, en tanto un político necesita antes ganar las elecciones
para poder definir las políticas a aplicar.
6
a estos partidos programáticos les interesan las políticas efectivamente implementadas en
equilibrio. si les interesara la fidelidad a los principios del partido como posición que sostienen
en la campaña (es decir, les interesará no sólo el resultado final sino el proceso que siguen para
competir), las consecuencias podrían ser diferentes ya que estos partidos serían más fundamentalmente principistas.
7
Ver Roemer(2001), para un enunciado y prueba con todos los detalles técnicos.
44
ComplejIdad en la toma de deCIsIones
para trasladar las preferencias individuales a las decisiones colectivas, arrow afirma que se deben cumplir las siguientes reglas:
1. transitividad. si a es preferido a B y B es preferido a c, entonces
a tiene que ser preferido a c.
2. Unanimidad. si el colectivo prefiere a respecto a B, entonces, la
mayoría de los individuos del colectivo prefieren a respecto a B.
3. independencia de las alternativas irrelevantes. el añadido o
retirada de alternativas, no varía el orden de preferencia de las
alternativas primeras.
4. Universalidad. Ha de ser posible votar cualquiera de las alternativas.
5. no imposición. no ha de haber ningún resultado contradictorio
con la naturaleza del sistema de votación.
6. ausencia de dictadura. ningún votante individual puede tener
en sus manos la decisión final. arrow define, para estos fines, al
dictador, como aquel individuo que determina las preferencias
de una sociedad, es decir, hacia qué estado económico, social o
político se dirige dicha sociedad.
a manera de ejemplo:
supongamos que tenemos 3 opciones: a, B y c, que se ordenan
por preferencia en una votación, con ello tenemos 6 combinaciones:
aBc, acB, Bac, Bca, caB, cBa.
¿cómo se define un método para elegir de manera justa, racional
y democrática? a simple vista bastaría tomar el ordenamiento con más
votos, pero ¿es realmente justo?
supongamos que tenemos una votación con los siguientes resultados: 40% aBc, 30% cBa, 30% caB. de donde obtenemos que la
opción aBc gana, pero... 60% (la mayoría) prefiere a la opción c de
manera prioritaria
¡la opción que apoyó la mayoría quedó en tercer lugar!
1.4 El modelo de Serge Galam
el físico francés serge Galam es el primero en estudiar problemas sociales
con herramienta de la física en los años setenta, con ello se convierte
45
aCtas de eConomÍa y ComplejIdad I
en el padre de la sociofísica. la sociofísica está muy ligada a la física
estadística, los problemas que abarca van desde redes sociales, la evolución del lenguaje, propagación de epidemias, terrorismo, formación
de coaliciones, hasta la dinámica de opinión.
en Galam (2004), podemos seguir el estudio del comportamiento
de una elección con dos partidos, y la influencia de un grupo minoritario
de votantes inflexibles en el desenlace del proceso.
el resultado más notable de Galam (2004b) es que con dos partidos,
bajo ciertas condiciones, el número de votantes que favorece a cada
candidato tiende al equilibrio. con esto se ha pretendido explicar lo
apretado de las votaciones Bush-Gore entre otras (Borguesi y Galam,
2006)
cabe destacar que en los modelos de Galam donde los votantes
interactúan entre ellos, lo hacen socializando en contactos casuales (en
el cine, el café, en un restaurante), si bien estos supuestos han sido muy
criticados, su mérito es haber sido el primero en dar un planteamiento
a complicados fenómenos sociales.
2. Propiedades de la racionalidad limitada
de acuerdo con el concepto de racionalidad limitada de simon, los individuos tienen la capacidad de análisis limitado y, como consecuencia,
a veces adoptan reglas muy simples de toma de decisión (heurísticas)
para alcanzar los propósitos deseados. estas reglas pueden ser muy
exitosas y algunas veces funcionan mejor que los algoritmos de toma
de decisión racional (instrumental). cabe destacar que estas reglas
pueden estar dadas por el entorno, por ejemplo, costumbres, hábitos,
entre otras.
• Preferencia. Se entiende como preferencia del elector a la revelación de la elección hecha por un agente individual con base
en un conjunto de partidos empleando racionalidad limitada.
• Modelación.
— el elector posee información incompleta y su capacidad de
análisis es limitada.
— el elector toma decisiones heurísticas influenciado por el
ambiente.
46
ComplejIdad en la toma de deCIsIones
— el elector no es consecuente al elegir entre combinaciones
de candidatos, es decir, no hay transitividad en sus preferencias.
2.1 Racionalidad limitada según Herbert Simon
simon(1957) definió la racionalidad limitada (rl) como el término
que describe el proceso de decisión de un individuo considerando
limitaciones cognoscitivas tanto de conocimiento como de capacidad
computacional.
en su obra Models of man (1957), señala que la mayoría de las personas son sólo parcialmente racionales y que, de hecho, actúan según
sus impulsos emocionales y no de forma racional en muchas de sus
acciones. insiste en que la racionalidad personal está limitada por tres
dimensiones:
i. la información disponible.
ii. la limitación cognoscitiva de la mente.
iii. el tiempo disponible para tomar la decisión.
por otra parte, simon sugiere que los agentes económicos además
de emplear la racionalidad limitada, también usan métodos heurísticos
para tomar decisiones más que reglas rígidas de optimización. para simon, esta manera de proceder se debe a la complejidad de la situación
o a la incapacidad de procesar y computar todas las alternativas, cuando
los costos de deliberación son altos.
la idea de racionalidad limitada fue propuesta por Herbert simon como una crítica a la teoría de la racionalidad completa inmersa
en la teoría económica neoclásica. la propuesta de simon implica una
triple transformación del modelo de racionalidad completa; en primer
lugar, el autor aboga por una concepción procidemental en lugar de
la concepción sustantiva; en segundo lugar, remplaza el concepto de
maximización por el de satisfacción, en donde asegura que el decisor
no se preocupa tanto por elegir lo óptimo como por elegir una acción
cuyo resultado le satisfaga.
por último, estas transformaciones le conducen a una teoría descriptiva de la decisión frente al carácter normativo de la teoría de la
racionalidad completa.
47
aCtas de eConomÍa y ComplejIdad I
2.1.1 Racionalidad limitada y la crítica
al concepto de racionalidad completa
en palabras del propio simon:
[...] la labor consiste en remplazar la racionalidad global del hombre
económico por un tipo de conducta racional que sea compatible con el
acceso a la información y con las capacidades computacionales que realmente poseen los organismos, incluido el hombre, en aquellos contextos
en que existen tales organismos. (simon, 1957)
la teoría clásica de la decisión racional, asume que la racionalidad
del ser humano es perfecta; ésta asume que en una situación de decisión, el medio, la información, las creencias y análisis personales, son
óptimos; las estimaciones de probabilidad son fácilmente realizables;
el individuo tiene a su alcance información sobre todas las alternativas
posibles y dispone de un sistema completo y consistente de preferencias
que le permite hacer un perfecto análisis de todas ellas; no presenta
dificultades ni límites en los cálculos matemáticos que debe realizar
para determinar cuál es la mejor, por tanto, garantiza que la alternativa
elegida es un óptimo global.
simon(1957) ve el proceso de decisión desde un punto de vista
muy diferente. en el proceso de toma de decisiones, incluso en problemas relativamente simples, no se puede obtener un máximo ya que es
imposible verificar todas las posibles alternativas. las personas difieren
tanto en oportunidades disponibles como en deseos (influenciados por
factores de su entorno). cuando un individuo debe decidir, influyen
en él, tanto los deseos que posee como las oportunidades que él cree
poseer. no es seguro que esas creencias sean correctas: es posible que el
individuo no sea consciente de algunas oportunidades que en realidad
le son viables o, puede creer que le son propicias ciertas oportunidades
que en realidad no lo son, por lo tanto, no puede garantizarse que elegirá la mejor alternativa (elster, 1991).
según esto, la racionalidad es limitada desde dos direcciones:
desde el entorno del decisor, ya que no tiene acceso a la información
perfecta, ni a la certidumbre e influyen en él factores exógenos como
la cultura, las organizaciones en las que está inmerso etc., y desde el
proceso mental del decisor, pues éste no tiene ni la estructura perfecta
de preferencias, ni la capacidad completa de cálculo, y le afectan factores como la experiencia, la memoria, la percepción, las creencias y la
48
ComplejIdad en la toma de deCIsIones
sensibilidad personal. la teoría de la racionalidad limitada, no asume
al decisor como un ser no racional, sino como un ser que trata de ser
racional con lo que tiene.
se reconoce entonces la incapacidad de la teoría racional para
captar completamente el proceso de decisión que llevan a cabo los
individuos en la realidad. ante la imposibilidad de optimizar, la teoría
de la racionalidad limitada busca caminos satisfactorios para el decisor.
como sabe que la realidad que el decisor percibe es una realidad parcial
y simplificada, no pretende tratar el mundo real en toda su complejidad
y busca soluciones que le sean satisfactorias ante “su realidad”. según
simon (1957), el individuo es fundamentalmente un ser adaptativo a su
entorno. el individuo sólo recoge parte de la información del entorno
y tiene que desechar parte de la que le es dada por su complejidad;
utiliza representaciones mentales, que tienen que ser soportados en una
memoria de trabajo que tiene una capacidad no infinita. es decir, la
resolución está condicionada por la cantidad de elementos que tenga
en la memoria de trabajo. pero, las cadenas de causalidad de los hechos
realmente determinantes, son breves y sencillas, por lo tanto, es posible tomar decisiones sin considerar toda la información del entorno y
siguiendo una serie de reglas sencillas y manejables.
2.1.2 Factores que limitan la racionalidad
en la racionalidad limitada, el decisor no tiene acceso a la información
perfecta, ni a la certidumbre; además, influyen en él factores exógenos
como la cultura, las organizaciones en las que está inmerso etc. la cultura
se interpreta como un sistema de valores y creencias que establecen una
serie de normas sociales que pueden comprometer la decisión de un
individuo. las emociones tales como el amor filial o el disgusto pueden
dar también efectivas reglas para modelar la búsqueda. similarmente,
en especies sociales, la imitación y el aprendizaje social pueden ser vistos como mecanismos que permiten un rápido aprendizaje y obvian la
necesidad de cálculos individuales de utilidades esperadas.
ante la imposibilidad de optimizar, la teoría de la racionalidad
limitada busca caminos satisfactorios para el decisor. como sabe que la
realidad que el decisor percibe es una realidad parcial y simplificada, no
pretende tratar el mundo real en toda su complejidad y busca soluciones
que le sean satisfactorias ante “su realidad”.
49
aCtas de eConomÍa y ComplejIdad I
según simon(1992), el individuo es fundamentalmente un ser
adaptativo a su entorno. el individuo sólo recoge parte de la información del entorno y tiene que desechar parte de la que le es dada por
su complejidad; utiliza representaciones mentales, que tienen que ser
soportadas en una memoria de trabajo con una capacidad no infinita. es
decir, la resolución está condicionada por la cantidad de elementos que
tenga en la memoria de trabajo. pero, las cadenas de causalidad de los
hechos realmente determinantes son breves y sencillas, por lo tanto, es
posible tomar decisiones sin considerar toda la información del entorno
y siguiendo una serie de reglas sencillas y manejables.
2.1.3 Herbert simon: el aprendizaje y el
reconocimiento de patrones en agentes adaptativos
simon realizó estudios acerca de los procesos de aprendizaje de los individuos desde el punto de vista de la psicología y extendió sus conceptos
y postulados a la teoría económica. investigó principalmente sobre los
modelos de comportamiento adaptativo (teorías de aprendizaje). según
él, el racionamiento humano puede entenderse como una búsqueda
selectiva a través de grandes espacios de posibilidades. esa selectividad
se hace aplicando reglas heurísticas para determinar los patrones que
pueden seleccionarse y los que pueden ignorarse. la búsqueda termina
cuando se ha encontrado una solución satisfactoria, casi siempre, antes
de que todas las alternativas hayan sido examinadas.
simon utilizó el siguiente ejemplo para desarrollar su teoría de
comportamiento adaptativo: un organismo (no necesariamente humano), que busca comida para su supervivencia, en un medio sobre el
que puede moverse libremente y que presenta puntos aislados donde
se encuentra comida. el organismo puede ver en cualquier momento
una porción circular de la superficie alrededor del punto donde él está.
puede moverse a una velocidad con un límite máximo. Él necesita comer
cierta cantidad de comida cada cierta cantidad de tiempo. si come la
cantidad adecuada tendrá cierta energía para buscar la que sigue.
el problema de la elección es elegir la ruta de tal forma que él no
se muera de hambre. simon demostró que el organismo requiere solamente de percepciones muy simples y mecanismos de elección para
satisfacer sus necesidades y asegurar una alta probabilidad de sobrevivir
sobre periodos extensos de tiempo. a medida que busca va recolectando
50
ComplejIdad en la toma de deCIsIones
patrones de búsqueda, y entre más patrones recoja, más fácil se le hace
su búsqueda y entre más relevantes sean los patrones a su disposición,
mejores serán sus decisiones.
en particular, el organismo no necesita una función de utilidad, ni
siquiera requiere de elaborados procedimientos para calcular las tasas
marginales de sustitución entre diferentes metas. simon demostró, por
ejemplo, que la clave en el ajedrez es el reconocimiento de patrones: el
buen jugador hace uso de una acumulación de patrones característicos.
en otras áreas es similar. calculó de forma experimental que un “experto” en cualquier área ha almacenado entre cien mil y dos millones
de patrones de memoria. la experiencia, como captadora de patrones
proporciona soluciones adecuadas en lugar de ideales.
propuso entonces “modelos adaptativos de búsqueda” y al comparar su propuesta con los modelos de comportamiento racional empleados en economía, estos últimos muestran una mayor complejidad en
los mecanismos de elección y una mayor capacidad en los organismos
para obtener información y hacer cálculos. sin embargo, sus modelos
adaptativos están más de acuerdo con el comportamiento observado en
laboratorio y en el campo que las teorías de comportamiento racional.
esa adaptabilidad está lejos del ideal del postulado de optimizar de la
teoría económica clásica. los organismos se adaptan bien para satisfacer
más que para optimizar.
la teoría del aprendizaje toma en cuenta las limitaciones en la
capacidad y complejidad de los organismos y el hecho de que el medio
en el cual el organismo debe adaptarse posee propiedades que permiten
simplificaciones de sus mecanismos de elección.
lo que simon se preguntó es cómo hacer un postulado simplificado sobre un conjunto de mecanismos de elección y obtener aún las
características relevantes del comportamiento de elección adaptativo
observado. su respuesta fue que es posible hacer modelos basados en
discernir reglas rápidas y efectivas que pueden ser tan exactas como
los modelos estadísticos complejos (por ejemplo, la regresión múltiple,
las redes bayesianas), los cuales necesitan más información y poder
computacional. las heurísticas simples pueden valerse de estructuras
de información del medio ambiente. su racionalidad es una forma de
“racionalidad ecológica”, más que de consistencia y coherencia. Un
modelo de reglas heurísticas sencillas es más robusto que un modelo
con gran número de parámetros.
51
aCtas de eConomÍa y ComplejIdad I
las características de un modelo adaptativo:
1. Un modelo adaptativo consiste en reglas simples, paso por paso,
que funcionan bien bajo restricciones de búsqueda, conocimiento
y tiempo limitados.
2. esas heurísticas son rápidas y efectivas y computacionalmente
baratas más que consistentes, coherentes y generales.
3. esas heurísticas son adaptables a medios particulares, pasados
o presentes, físicos o sociales. esta “racionalidad ecológica”
permite la posibilidad de que las heurísticas puedan ser rápidas, efectivas y correctas todo al mismo tiempo explotando la
estructura de la información en los medios naturales.
4. el grupo de heurísticas es dirigido por algunos mecanismos
que reflejan la importancia de las motivaciones y metas en
conflicto.
es decir, ese modelo del proceso del pensamiento humano puede
ser efectivamente establecido en la forma de programas. se sabe que
los mecanismos fisiológicos almacenan esos programas en el cerebro y
los ejecutan, pero aún no se conoce cuáles partes de esos programas
mentales son inherentes y cuáles partes son adquiridas. se conoce muy
poco acerca del sustrato biológico para los programas y cómo esos
programas pueden ser modificados y mejorados a través de educación
y entrenamiento. las computadoras pueden, entonces, simular el
pensamiento humano y los programas en lenguajes de procesamiento
de información ofrecen un poderoso medio para expresar esas teorías
(simon, 1992).
2.2 Un ejemplo de RL: el caso de la Sra. Tere
se trata del caso de una persona que vive en una zona de bajos recursos
y que al verse en la disyuntiva de sobrevivir sin trabajo, aceptó hacer
un trueque con una agrupación política que se dedica a comprar votos.
intercambia su voto por comida, láminas para su casa y de cuando en
cuando algo de dinero; sus comentarios al respecto son contundentes, “....
no es mucho, pero es mejor que lo que el gobierno en turno nos da”.
de esta manera, su capacidad de tomar decisiones electorales está
condicionada irremediablemente por el medio en el que le tocó vivir;
52
ComplejIdad en la toma de deCIsIones
lo cual no representa un conflicto de ningún tipo, para ella la decisión
es sencilla, a sus 60 años, sin estudios y sin empleo, no tiene otra forma
de sobrevivir.
es así como nos encontramos en un escenario donde la señora no
es congruente al elegir de entre los posibles candidatos en una elección,
siempre vota por quien le indican; no posee información completa de
las opciones a elegir, tiene capacidad de análisis limitado y, además,
toma decisiones pragmáticas.
entonces, surgen las preguntas: ¿es irracional su conducta?, ¿bajo
que criterios?, ¿es un caso aislado o es uno observable en la realidad?
3. Modelos basados en agentes
3.1 Antecedentes
john von neuman es considerado el pionero de la computación y de
la modelación basada en agentes. a finales de la década de los años
cuarenta, Von neuman estaba interesado en los sistemas que se autorreproducen; inspirado por las ideas de su colega stanislaw Ulam, fue
como desarrollar el primer autómata celular.
Von neuman se hacía la pregunta: ¿qué tipo de organización lógica es suficiente para que un autómata sea capaz de reproducirse a sí
mismo? en otras palabras, ¿podemos reproducir computacionalmente
lo que las células hacen?
la idea de Von neuman fue crear un sistema formado por un
arreglo discreto de celdas en forma de rejilla. el tiempo en este sistema
era también una variable discreta, y en cada paso cada celda actualiza
su estado de acuerdo con un conjunto de reglas basadas en su estado
previo y a sus vecinos.
cada celda es una máquina de estado finito simple, pero el comportamiento general del sistema puede volverse bastante complicado. Von
neuman utilizó este enfoque para diseñar su “constructor universal”:
un patrón de celdas que pueden reproducirse a sí mismas a lo largo del
tiempo, proporcionando de este modo un ejemplo notable de cómo
una propiedad importante a nivel de sistema (la autorreproducción )
se puede lograr a través de la interacción de las partes individuales que
se comportan de forma independiente de la totalidad.
53
aCtas de eConomÍa y ComplejIdad I
los autómatas celulares modelan fenómenos muy generales:
“vida” y “autorreproducción”; sin embargo, también pueden aplicarse
a fenómenos sociales. muchos problemas en ciencias sociales pueden
modelarse con un conjunto de agentes que interactúan entre ellos en
un espacio localizado.
como ejemplo de ello tenemos los modelos de segregación de thomas schelling. en estos modelos schelling explora los mecanismos que
originan la formación de arreglos de agentes homogéneos (guetos).8
el espacio se modela como un arreglo discreto, igual que en los
autómatas de Von neuman y conway, sólo que en este caso, cada célula individual representa un agente humano. estos agentes pueden ser
estrellas o cualquier otra figura (representando a diferentes etnias), las
cuales tienen preferencias respecto a los miembros del grupo que los
rodea. si no están satisfechos, se mueven a un lugar cercano que satisfaga
sus necesidades. schelling exploró la dinámica del modelo para varios
patrones iniciales y diversas preferencias en la distribución; sin embargo, su conclusión es que aún para agentes que poseen alta tolerancia
a convivir con vecinos diferentes a ellos, el sistema genera segregación
de manera consistente (schelling, 1969).
3.2 Autómatas celulares
aunque las células de Von neuman podían estar en 29 estados, se necesitaban decenas de reglas para describir transiciones entre ellas; en
cambio, en las células de conway, sólo están “vivas” o “muertas” y sólo
se requieren 3 reglas para describir su conducta:
1. celdas sobrevivientes. toda celda con 2 o 3 vecinos vivos sobrevive en la siguiente generación.
2. celdas muertas. toda celda con 4 o más vecinos vivos muere
por sobrepoblación.
3. cada celda con un vecino vivo o solitaria muere por aislamiento.
8
Gueto. adaptación gráfica de la voz italiana ghetto, ‘barrio en que se confinaba a los
habitantes judíos de una ciudad’ y ‘barrio o zona en que vive aislada una minoría, normalmente
marginada’: “en torno a las grandes ciudades se han creado verdaderos guetos de segregación
etnocultural”. deben evitarse las grafías híbridas guetto y gheto, que no son ni italianas ni españolas. <http://www.rae.es/rae.html>
54
ComplejIdad en la toma de deCIsIones
4. nacimientos. cada celda vacía adyacente a exactamente 3 vecinos da lugar a una célula nueva por nacimiento en la siguiente
generación.
estas simples reglas aplicadas a diferentes patrones de células
iniciales dan lugar a una extensa variedad de objetos con conductas
complejas; entre ellas están los gliders, los blinkers etcglider gun. los cuales
son ejemplos de que un simple arreglo de bloques puede dar lugar a
patrones difíciles de predecir.
3.3 Propiedades generales de los mba
Un modelo basado en agentes (mba) es un tipo de modelo computacional que permite la simulación de acciones e interacciones de individuos
autónomos dentro de un entorno, y permite determinar qué efectos
producen en el conjunto del sistema. combina elementos de teoría
de juegos, sistemas complejos, emergencia, sociología computacional,
sistemas multiagente, y programación evolutiva. los modelos simulan
las operaciones simultáneas de entidades múltiples (agentes) en un
intento de recrear y predecir las acciones de fenómenos complejos. es
un proceso de emergencia desde el nivel más elemental (micro) al más
elevado (macro).
Generalmente, los agentes individuales actúan según lo que perciben como sus intereses propios, tales como reproducción, beneficio
económico o estatus social, y su conocimiento es limitado. los agentes
pueden experimentar “aprendizaje”, adaptación y reproducción.
4. Procesos electorales y mba
4.1 Un modelo para elecciones políticas
con tres partidos basado en agentes
4.1.1 supuestos del modelo
en la modelación, el enfoque metodológico es muy importante, en esta
propuesta se ha empleado el enfoque de “abajo hacia arriba”, con lo
cual, construiremos un modelo computacional que simule la actividad
55
aCtas de eConomÍa y ComplejIdad I
en colectivo de un número importante de individuos asignando reglas
simples de comportamiento individual.
el segundo aspecto a resaltar es que los individuos poseen una
característica que los distingue, se trata de el índice de susceptibilidad
que sirve en el modelo para definir qué tan susceptible es un individuo
de cambiar su preferencia electoral, el criterio para el cambio en la
preferencia se relaciona con el ambiente, que es el tercer aspecto importante del modelo.
para el modelo que se expone, es importante la influencia del medio
ambiente sobre los cambios de preferencia electoral, de forma tal que el
modelo analiza la influencia de los vecinos de cada individuo bajo un arreglo de celdas contiguas (vecindad de moore). en esta vecindad, se toman
los grupos de nueve celdas en un arreglo cuadrado de 3 × 3 (figura 1); la
celda analizada está al centro y se lo compara con sus ocho vecinos adyacentes. según la opinión mayoritaria y la susceptibilidad, los individuos
podrían estar cambiando su preferencia a lo largo de la dinámica.
el estudio de la dinámica en nuestro modelo considera las interacciones de un grupo de agentes en un periodo de 1 año simulando los
cambios de opinión previos a una elección. con ello se busca estudiar
de manera dinámica los cambios en las preferencias en lugar de estudiar
las encuestas de la opinión para un tiempo específico.
Figura 1.
56
ComplejIdad en la toma de deCIsIones
4.1.2 consideraciones para el modelo multiagentes
4.1.2.1 Características de los agentes
el modelo consiste en un arreglo matricial de celdas de forma cuadrada,
su tamaño total será 500 × 500 = 250,000 celdas, cada una de las cuales
representa un agente. cada uno de estos agentes posee dos campos:
• la preferencia electoral.
• la susceptibilidad.
la preferencia electoral se refiere a la afinidad por alguno de los
partidos que compiten en una campaña electoral, sin pérdida de generalidad puede tomar el valor de 1, 2 o 3.
en este modelo, la susceptibilidad toma los valores entre 0 y 1 (0 <
susceptibilidad < 1), los valores cercanos a uno representan agentes muy
proclives a cambiar de opinión y los valores cercanos a cero representan
agentes inflexibles en su opinión.
en ambos casos, asignamos aleatoriamente los valores antes de
poner en marcha el modelo multiagentes.
4.1.2.2 Influencia del entorno
para establecer las reglas del cambio en la preferencia electoral consideraremos una vecindad de moore, es decir, tomamos los subconjuntos
de 9 casillas (figura 1), y estableceremos como criterio de mayoría local
lo siguiente:
la preferencia de la casilla central dependerá de su preferencia inicial, la preferencia mayoritaria de las 8 casillas adyacentes a ella y de
que el valor de susceptibilidad permita el cambio de preferencia.
4.1.2.3 Tiempo de interacción
posteriormente, corremos el autómata celular considerando las interacciones de los agentes durante 365 pasos, lo cual representa 1 año
de interacciones.
las preferencias electorales durante este periodo se almacenan
para ser analizadas posteriormente.
57
aCtas de eConomÍa y ComplejIdad I
4.1.3 obtención y análisis del índice de información mutua
intuitivamente, la información mutua media mide la información que
comparten X e Y: mide en cuánto el conocimiento de una variable reduce
nuestra incertidumbre sobre la otra. por ejemplo, si X e Y son independientes, entonces conocer X no da información sobre y y viceversa, por
lo que su información mutua es cero.
en el otro extremo, si X e Y son idénticas entonces toda información proporcionada por X es compartida por Y : saber X determina el
valor de Y y viceversa. por ello, la información mutua media es igual
a la información contenida en Y (o X) por sí sola, también llamada la
entropía de Y (o X: claramente si X e Y son idénticas tienen idéntica
entropía).
la información mutua media cuantifica la dependencia entre la
distribución conjunta de X e Y y la que tendrían si X e Y fuesen independientes.
la información mutua media es una medida de dependencia en
el siguiente sentido: I(X; Y) = 0 si y sólo si X e Y son variables aleatorias
independientes.
podemos definir la información mutua I(xi ; yi) entre xi y yi como:
I( xi ; yi ) = log
P( xi|yi )
P( xi )
la unidad de la información mútua está determinada por la base
del logaritmo usado. en base dos, la unidad de medida más común es
el bit.
por tanto, la información mutua media de dos variables aleatorias
discretas X e Y puede definirse como:
n m
P( xi , yi )
P( xi|yi ) n m
= ∑ ∑ P( xi , yi ) log
I( X ; Y ) = ∑ ∑ P( xi , yi ) log
P( xi ) i =1 j =1
i =1 j =1
P( xi ) P( yi )
la información mutua media cuantifica la dependencia entre la
distribución conjunta de X e Y y la que tendrían si X e Y fuesen independientes.
la información mutua media es una medida de dependencia en
el siguiente sentido: I(X; Y) = 0 si y sólo si X e Y son variables aleatorias
independientes.
58
ComplejIdad en la toma de deCIsIones
si X e Y son independientes, entonces p(x, y) = p(x) p(y), y por tanp( x, y)
to: log
= log(1) = 0 es decir, I(X, Y) = 0. los detalles se pueden
p( x) p( y)
consultar en cellucci (2005).
5. Resultados
el programa computacional inicia generando aleatoriamente las preferencias de los individuos por algún partido, llenando el vector preferencias con un parámetro que puede tomar los valores 1, 2, o 3.
la información generada se almacena en forma de series de datos
por componentes, estos datos son analizados calculando el índice de
información mutua para cada componente, es decir, para cada partido,
según cellucci (2005).
en la figura 2, se puede observar el estado final de las opiniones
por color, el verde corresponde a los agentes que votan por el partido
1; el azul a los que votan por el partido 2, y, el rojo a los que votan por
el partido 3.
Figura 2.
59
aCtas de eConomÍa y ComplejIdad I
se genera una gráfica de información mutua por componente para
analizar la dinámica de la opinión por partido en términos de los cambios en el valor de la información mutua (véanse las figuras 3, 4 y 5).
en las gráficas mencionadas se observa que en la cercanía del valor 0.3 de susceptibilidad se da un cambio cualitativo en las gráficas, la
interpretación es que en el rango de valores de susceptibilidad entre 0
(los inflexibles) y 1 (los más proclives) hay un valor cercano al 0.3 donde
se da una correlación entre las opiniones de los agentes.
Finalmente, se ha generado un gráfico que muestra la tendencia
de las 3 componentes en conjunto (figura 6).
Figura 3.
60
Figura 4.
Figura 5.
aCtas de eConomÍa y ComplejIdad I
Figura 6.
6. Conclusiones
la modelación de fenómenos sociales es una tarea difícil independientemente del punto de vista que se quiera emplear. con la propuesta
aquí planteada hemos logrado, por lo pronto, abrir nuevas líneas de
trabajo interdisciplinario en el tema de preferencias electorales donde
la visión clave la tendrán los científicos sociales en la perspectiva de los
sistemas complejos.
Un problema de los modelos de preferencias electorales tradicionales
es que consideran la preferencia de los votantes como una serie de datos
estáticos en el tiempo, libres de la influencia de agentes externos, y bajo
supuestos tomados de modelos de la física que consideran su comportamiento como el de espines magnéticos o partículas (Galam, 2008).
ante la falta de datos empíricos que permitan aplicar herramientas
de análisis al fenómeno aquí estudiado de la dinámica de las preferencias
electorales, los sistemas complejos, el enfoque “de abajo hacia arriba”
y la modelación basada en agentes se perfilan como una herramienta
62
ComplejIdad en la toma de deCIsIones
metodológicamente adecuada; el reto es, como se ha mencionado, partir
de supuestos apropiados (observables).
el autómata empleado nos ha permitido obtener información de
la dinámica de las preferencias electorales durante 365 días de interacciones, bajo los supuestos:
a) los votantes cambian su preferencia electoral de acuerdo con
la opinión mayoritaria de sus vecinos.
b) los electores pueden modificar o permanecer con su misma
preferencia de acuerdo con su índice de susceptibilidad, el cual
divide a los agentes en 3 grupos: los susceptibles, los moderadamente susceptibles y los resistentes a cambiar de opinión.
solé (1993) propone que el análisis de la complejidad de un sistema
como el que se ha estudiado puede hacerse mediante el cálculo del índice
de información mutua; con esta herramienta hemos podido determinar
que el comportamiento de la dinámica de las decisiones electorales en
el caso de tres partidos no se puede manejar como un fenómeno que
tiende al equilibrio como lo plantea Galam (2004) (véase la figura 6).
esta propuesta, por lo pronto, deja abierto el campo para que filósofos, epistemólogos, politólogos, economistas, sociólogos, psicólogos,
entre otros muchos, ajusten mejor las hipótesis de partida para futuros
modelos, pero, sobre todo, para que permitan reinterpretar los resultados obtenidos en escenarios no observados más que en las simulaciones
computacionales.
Bibliografía
Hotelling, Harold (1929) stability in competition. Economic Journal. 39:
41-57.
duverger, maurice (1954) Political parties: Their organization and activity
in the modern state. nueva york: Wiley.
cellucci et al. (2005) statistical validation of mutual information calculations. Physical Review E., vol. 71, 066208.
cox, Gary W. (1997) Making votes count. Strategic coordination in the world’s
electoral systems. cambridge: cambridge University press.
downs, anthony (1957) An economic theory of democracy. nueva york:
Harper and Row.
63
aCtas de eConomÍa y ComplejIdad I
Black, duncan (1948) on the rationale of group decision-making. Journal
of Political Economy, 56: 23-34.
Borghesi y s. Galam (2006) chaotic staggered and polarized dynamics
in opinion forming: the contrarian effect. Physical Review E, 73,
066118: 1-9.
elster, jon (1991) Juicios salomónicos: las limitaciones de la racionalidad como
principio de decisión. Barcelona. Gedisa.
Roemer, john e. (2001) Political competition: Theory and applications. cambridge: Harvard University press.
s. Galam (2004a) contrarian deterministic effect: the hung elections
scenario. Physica A, 333: 453-360.
s. Galam (2004b) the dynamics of minority opinion in democratic
debate. Physica A 336: 56-62.
s. Galam (2007) From 2000 Bush-Gore to 2006 italian elections: Voting
at fifty-fifty and the contrarian effect. Quality and Quantity Journal,
41: 579-589.
s. Galam (2008) sociophysics: a review of Galam models. International
Journal of Modern Physics, c19, núm.3: 409-440.
simon, Herbert (1957) a behavioral model of rational choice. en Models of man, social and rational: Mathematical essays of rational human
behavior in a social setting. nueva york: Wiley.
simon, Herbert, m. egidi, R. marris y R. Viale (1992) Economics, bounded
rationality and the cognitive revolution. m. egidi y R. marris (eds.).
UK: edward elgar publishing limited.
scharnhorst, andrea; Börner, Katy; Besselaar, peter (2012) Models of
science dynamics en- counters between complexity theory and infor- mation
sciences. series: Understanding complex systems, springerverlag
schelling, t.c. (1969) models of segregation. Am Econ Rev, 59(2):
488–493.
solé, R.V. manrubia, s.c. (1993) Orden y caos en sistemas complejos. cataluña: Upc.
Von neumann, john (1966) Theory of self- reproducing automata. Urbana,
il: University of illinois press.
Wittman, donald (1973) parties as utility maximizers. American Political
Science Review, 67: 490-498.
Wittman, donald (1983) candidate motivation: a synthesis of alternatives theories. American Political Science Review, 77: 142-157.
Wittman, donald (1990) spatial strategies when candidates have policy
preferences. en j. m. enelow y m. j. Hinich (ed.), Advances in the
spatial theory of voting. cambridge: cambridge University press.
64
breve IntroduCCIón a la dInámICa
de autómatas Celulares
Gustavo Carreón Vázquez*
1. Introducción
e
n la actualidad la interdisciplinariedad ha llevado a conformar nuevas teorías, técnicas y procedimientos para analizar los fenómenos,
tal es el caso del paradigma de los sistemas complejos. esta forma de
observar el mundo ha creado un punto de convergencia de herramientas y técnicas de diversas áreas del conocimiento, han surgido nuevos
marcos teóricos para entender y explicar el fenómeno de forma integral.
Una de las herramientas adoptada por los sistemas complejos y que ha
ayudado a comprender los mecanismos subyacentes de los fenómenos
son los autómatas celulares (aC).
los aC se han posicionado como uno de los modelos matemáticos
conceptualmente más sencillos para estudiar la dinámica de los sistemas
complejos. debido a la facilidad con la que pueden ser implementados
en cualquier lenguaje de programación y a las actuales capacidades de
cómputo, como la velocidad de procesamiento, son utilizados en diversos
campos del conocimiento con resultados satisfactorios.
los aC han contribuido a la modelación de una gran variedad de
fenómenos complejos; como, por ejemplo, el tráfico en el flujo vehicular
(nagel et al., 1992), crecimiento de patrones en la vegetación (Balzter
et al., 1998), dinámica de epidemias (Hoya et al., 2007), dinámica de
incendios forestales (Bak et al., 1990), modelación de reacciones químicas
(Kier et al., 2005) y dinámica de mercados financieros (Qiu et al, 2007),
sólo por nombrar algunos.
en el presente capítulo, se realizará un breve recorrido histórico
mostrando algunas de las principales causas que llevaron a conformar
la teoría de los aC y las motivaciones de los científicos al abordar ciertos
* instituto de investigaciones económicas, Universidad nacional autónoma de méxico.
65
aCtas de eConomÍa y ComplejIdad I
problemas contribuyendo a la actual definición del modelo, se hará
una introducción a sus propiedades dinámicas de forma descriptiva
con algunos elementos teóricos abordando cuatro modelos clásicos: los
autómatas celulares elementales, Life o el juego de la vida, la hormiga
virtual de langton, y, el modelo de segregación de schelling.
2. De la máquina de Turing a los autómatas
celulares elementales
en 1936, alan m. turing, considerado uno de los padres de las ciencias de la computación, en su trabajo On computables numbers, with an
application to the Entscheidungsproblem (turing, 1936) construyó un modelo matemático conocido como la máquina de Turing capaz de recrear
cualquier cálculo o algoritmo1 con la finalidad de resolver el problema
de decisión o el Entscheidungsproblem, propuesto por el matemático david
Hilbert en el congreso internacional de parís en 1900 (Hilbert, 1902).
en este problema, se planteó la existencia de un procedimiento que
pudiera ser aplicado a cualquier sentencia matemática de tal forma que
se demostrara la veracidad o falsedad del enunciado. la máquina de
turing es un modelo muy sencillo que consta de una cinta infinita en
la cual se pueden escribir símbolos, una cabeza lectora que se posiciona a lo largo de la cinta cuya función es leer o escribir sobre ésta y un
conjunto de reglas que nos indican las instrucciones que debe ejecutar
la cabeza lectora.
al mismo tiempo, definió la máquina de turing universal (mtu)
con propiedades de cómputo universal, es decir, con la capacidad de
simular el comportamiento de cualquier otra máquina de turing. en
la mtu, la definición de la máquina a emular y su respectiva entrada se
codifican en la cinta ejecutando la función de la máquina codificada.
con esta máquina, logró demostrar la existencia de problemas indecidibles,
es decir, donde no existe la posibilidad de discernir entre la veracidad
o falsedad del enunciado, como en el caso del problema de paro o halting
problem2 (davis, 1958). esto tuvo grandes implicaciones ya que el trabajo
de turing formalizó y fijó los límites de lo que es computable y lo que
no lo es.
1
2
66
Un algoritmo es un conjunto de instrucciones bien definidas y finitas.
este término fue propuesto por martin david en 1958.
breve IntroduCCIón a la dInámICa de autómatas Celulares
Figura 1. Representación esquemática de una máquina de turing.
posteriormente, en la década de los años cincuenta, el notable
matemático húngaro john von neumann, creador del diseño lógico y
de la arquitectura de las actuales computadoras, se planteó la siguiente
pregunta “¿qué tipo de organización lógica es suficiente para que un
autómata sea capaz de autorreproducirse?”. sin lugar a duda, ésta es
una pregunta difícil de abordar y puede involucrar distintas disciplinas como la lógica, matemática y la biología. Von neumann utilizó los
fundamentos de los trabajos de turing para resolver este problema,
construyó una máquina de turing con propiedades de cómputo universal acoplada a un arreglo de celdas, usando 29 posibles estados por
celda y una actualización de estados considerando información local
de 5 celdas adyacentes, conocida como vecindad de Von neumann; la
definición de la máquina era bastante larga, almacenaba en la cinta de
entrada la descripción necesaria para replicar cualquier configuración,
la máquina se llamó constructor universal, la cual tiene la propiedad de
replicar cualquier patrón o información escrita en la cinta de entrada,
la autorreproducción es un caso especial, pues la máquina tenía que
ser alimentada con su propia definición, así, se generaba una máquina
exactamente igual con la propiedad de replicar nuevamente su información (Von neumann, 1966).
durante el desarrollo de este trabajo, el matemático stanislaw Ulam
sugirió a Von neumann (Ulam, 1952) un modelo donde el tiempo se
67
aCtas de eConomÍa y ComplejIdad I
presentaba de forma implícita, constaba de una gráfica de puntos o
arreglo de celdas con un número finito de conexiones a ciertos vecinos
donde cada punto o celda tenía la capacidad de almacenar un conjunto
de estados posibles y en la cual cada celda en el tiempo actual inducía el
estado en el tiempo siguiente a partir de ciertas reglas de transición.
al definir la estructura celular con celdas que interactuaban de
forma local, se hizo posible la modelación de sistemas con un número
alto de variables, en principio infinito pero en la práctica limitado por
las capacidades de cómputo.
el trabajo de Von neumann fue publicado póstumamente por arthur Burks (Von neumann, 1966) en Theory of self reproducing automata.
este trabajo pionero sentó las bases para una teoría de los autómatas
celulares. el trabajo sobre autorreplicación lo continuó edgar F. cood en
su tesis doctoral donde construyó un autómata con sólo 8 posibles estados
en sus celdas para realizar específicamente esta función, sin contener la
universalidad de la máquina de Von neumann (cood, 1968).
en 1970, apareció, sin duda, el autómata celular más conocido y tal
vez de los más estudiados, Life o también conocido como el juego de la
vida, fue propuesto por el matemático john H. conway y difundido por
primera vez por martin Gardner en su columna de juegos matemáticos
de la revista Scientific American (Gardner, 1970). los primeros análisis
del juego se realizaron años anteriores con sólo papel y lápiz; posteriormente, conway realizó simulaciones con una computadora modelo
pdp-7 de la empresa deC. el aumento en las capacidades de cómputo y
la posibilidad de observar los resultados hicieron que se popularizara
dentro de la comunidad científica en especial con los informáticos. el
estudio de la dinámica de Life aún continúa en nuestros días, existe
una gran cantidad de sitios en internet mostrando diversos patrones y
capacidades de cómputo del sistema, como en <www.conwaylife.com>,
donde se muestran más de 700 patrones coherentes con distinta información relacionada con Life.
paralelamente, surgieron algunos trabajos en el área de las ciencias
sociales. en 1971, el economista thomas schelling presentó un trabajo
sobre modelos de segregación (schelling, 1971). el sociólogo james m.
sakoda presentó un modelo de interacción social, llamado modelo de
tablero3 de interacción social (sakoda, 1971). los trabajos prácticamente
3
el término en inglés es checkerboard model y hace alusión a los tableros de ajedrez y damas,
donde hay celdas de color negro y blanco.
68
breve IntroduCCIón a la dInámICa de autómatas Celulares
utilizaban un autómata celular bidimensional, aunque ambos autores
no conocían aún los conceptos de los autómatas celulares. sin embargo,
fue hasta la década de los noventa cuando se empezaron a utilizar en
las ciencias sociales como una herramienta para entender la dinámica
social.
los resultados de los trabajos pioneros no tenían la gran ayuda de
las capacidades de las computadoras actuales y, por tanto, no podían
visualizar la dinámica de los sistemas en tiempo real. Gran parte del
aumento en la popularidad de los autómatas celulares se debió al incremento en la velocidad de los cálculos.
en 1981, con sólo 22 años de edad, stephen Wolfram definió el
autómata celular más simple que se puede crear, lo llamó el autómata
celular elemental (aCe). Wolfram se encontraba haciendo experimentos
computacionales con modelos sumamente sencillos, como herramienta
tenía una computadora con monitor monocromático y sólo era posible
desplegar texto. en los experimentos obtenía como resultado una visualización primitiva conformada sólo por caracteres, no esperaba mucho de estos experimentos pero los resultados, en sus palabras, fueron
sorprendentes y dramáticos, los patrones que surgían de la evolución
del sistema no eran explicados a partir de las reglas del modelo, las
estructuras espacio temporales representaban una estructura coherente surgida a partir de la interacción de un pequeño cúmulo de reglas
sencillas, esto dio lugar a una investigación exhaustiva por parte de
Wolfram, escribió varios artículos para tratar de caracterizar la dinámica
de forma cualitativa (Wolfram, 1983, 1984) y también se enfocó en la
programación y visualización de los autómatas. para ayudarse en este
proceso, creó Mathematica, un software especializado para implementar estos modelos de forma sencilla. como resultado de varios años de
investigación, escribió un libro polémico titulado A new kind of science,
donde plasma su visión sobre los sistemas computacionales, incluidos
los autómatas celulares (Wolfram, 2002).
Éstos fueron avances importantes que marcaron un punto de inflexión en la construcción de la teoría de los aC. en la actualidad, son
ampliamente conocidos y han sido aplicados en distintas disciplinas. la
investigación interdisciplinaria ha recurrido con éxito al uso de estos
sistemas dinámicos para modelar y entender distintos fenómenos reales.
como ejemplo de esta interacción entre las ramas del conocimiento,
el científico de la computación, christopher langton, fundó el área de
la vida artificial, dedicada al estudio de sistemas artificiales inspirados
69
aCtas de eConomÍa y ComplejIdad I
en sistemas vivos y cuyo modelo básico son los autómatas celulares
(langton, 1989).
a continuación se definirá el autómata celular elemental y algunas
de sus propiedades.
3. Autómata celular elemental
el autómata celular elemental (aCe) aunque es el modelo más sencillo
que se puede definir exhibe una gran variedad de comportamientos. el
aCe es una colección unidimensional de celdas, que se puede ver como
una cinta, donde los valores de las celdas tienen dos posibles estados,
cero y uno; llamado alfabeto de símbolos, evoluciona a través de pasos
de tiempo discretos de acuerdo con un conjunto de reglas de evolución
basadas en los estados de sus celdas vecinas. las reglas de evolución se
codifican en una tabla de transiciones que permite actualizar el estado
de la celda i-ésima. en particular, para el aCe, el tamaño de radio de la
vecindad es de r = 1, por lo tanto, se tienen 2(2r+1) = 8 posibles vecindades diferentes.
Figura 2.
en la figura 2 se muestra un estado inicial posible de la cinta en
el tiempo t1 y la vecindad de la celda i compuesta por los valores de las
posiciones i, i - 1 e i + 1 formando una de las ocho posibles vecindades,
en este caso el patrón4 101.
para construir la tabla de transiciones se toman los 8 posibles patrones y se les asigna el valor de actualización 0 o 1 según sea el caso. por
lo tanto se pueden construir 28 = 256 tablas de transición5 diferentes.
4
se le llamará patrón a un conjunto finito de símbolos, en este caso de ceros y unos.
el número de tablas de transición se pueden calcular de forma general con la fórmula kk2r+1
donde k es la cardinalidad del alfabeto de símbolos y r es el tamaño de la vecindad.
5
70
breve IntroduCCIón a la dInámICa de autómatas Celulares
Figura 3. tabla de transición de la regla 218.
para identificar cada una de las 256 tablas de transición convertimos el vector binario de asignación a base 10, el primer elemento del
vector será el bit del último renglón de la columna “asignación” y así
sucesivamente hasta llegar al primer renglón. en la figura 3, se tiene el
vector asignación 110110102 que al convertirlo a base 10 se obtiene el
número 218, a esta tabla de transición se le llama la regla 218.
para actualizar el valor de la celda en la posición i se busca el patrón que genera su vecindad en la tabla de transiciones y se asigna el
valor de la columna “asignación” en la misma posición al tiempo t+1,
de esta forma se van acumulando los estados pasados hasta formar un
arreglo de cintas. para visualizar la dinámica, las celdas con valor uno o
“prendidas” se pintan de negro, mientras que las celdas con valor cero
o “apagadas” se dejan vacías. en la figura 4 se muestra la evolución de
la regla 218 en los primeros 20 tiempos y 100 tiempos, respectivamente, el estado de la cinta en el tiempo inicial tiene una condición inicial
simple (una sola celda prendida posicionada en la mitad), para el segundo tiempo, la celda que permanecía originalmente prendida se apaga
y sus vecinos se prenden; dependiendo del patrón de la vecindad será
el valor de la actualización, como resultado obtenemos un fractal6 bastante conocido llamado el triángulo de sierpinski.
las preguntas que surgen inmediatamente pueden ser: ¿qué pasará con las otras reglas?, ¿qué sucede si tengo varias celdas prendidas
6
Un objeto fractal tiene como principal característica una dimensión fraccionaria y auto
semejanza en todas las escalas, en particular para el triángulo de sierpinski su dimensión fractal
es ln 3/ln 2.
71
aCtas de eConomÍa y ComplejIdad I
Figura 4. dinámica de la regla 218 en el tiempo 20 y 100
de evolución.
como condición inicial?, ¿se pueden encontrar patrones regulares en las
dinámicas? para responder a estas preguntas stephen Wolfram definió
medidas estadísticas como la dimensión fractal y la entropía temporal
para caracterizar las dinámicas y obtener índices que ayudaran a clasificarlos (Wolfram, 1983), propuso cuatro clases de comportamiento para
autómatas celulares con condiciones iniciales aleatorias, se describen a
continuación:
• Clase I. La evolución del sistema lleva a un estado homogéneo,
sin estructuras espaciales ni temporales de ningún tipo, son
autómatas donde todos los estados de las celdas están prendidos
o apagados.
• Clase II. La evolución del sistema da lugar a estructuras estables, es decir, se repite el mismo patrón cada cierto tiempo, son
estructuras periódicas.
• Clase III. La evolución da lugar a patrones caóticos no periódicos. espacialmente surgen estructuras fractales.
• Clase IV. La evolución genera estructuras complejas localizadas
que se propagan en el tiempo.
cualquier tipo de dinámica está incluida en estas categorías. la
cardinalidad de cada clase es la siguiente; 24 autómatas de clase i, 194
de clase ii, 26 de clase iii, y, 12 de clase iV. algunos ejemplos de estas
clases se muestran en la figura 5, los representantes de la clase i tienen
en su totalidad celdas de color negro o celdas de color blanco, se pierde
toda estructura espacio temporal. la clase ii forma estructuras en diago72
breve IntroduCCIón a la dInámICa de autómatas Celulares
nal como la regla 138 o estructuras separadas periódicas como la regla
133; la clase iii forma una superposición de patrones regulares y como
señal de su dinámica caótica presentan sensibilidad a las condiciones
iniciales, como experimento se puede perturbar un bit en la condición
inicial, es decir, un bit que aparece prendido se apaga o viceversa, al rastrear las celdas que cambian, se observa que la perturbación se propaga
de forma exponencial. la clase iV es la más interesante debido a una
mezcla de periodicidad con irregularidad, se forman estructuras que se
propagan a lo largo de la evolución, las cuales tienden a desaparecer o
a emerger casi de forma espontánea, Wolfram plantea la conjetura de
que los autómatas de clase iV tienen propiedades de cómputo universal7
(Wolfram, 1984). en particular, se ha demostrado que la regla 110 tiene
esta propiedad (cook, 2004).
Figura 5.
la relación que existe entre las diferentes clases y entre un autómata a otro es un problema abierto, christopher langton propuso un
esquema de parametrización de los autómatas a partir de su complejidad
7
Un sistema con propiedad de cómputo universal es equivalente a una máquina de turing
universal, por consiguiente, con la entrada adecuada, se puede implementar cualquier algoritmo
finito.
73
aCtas de eConomÍa y ComplejIdad I
(langton, 1990), definió el parámetro lambda que proporciona un grado
de orden y desorden a partir de los valores de la tabla de transición del
autómata, si los sistemas presentan un ordenamiento total como en los
autómatas de clase i, entonces tienen valores lambda cercanos a cero, el
caso opuesto son los autómatas que exhiben gran desorden o aleatoriedad como los de clase iii, donde el parámetro toma valores cercanos a 1.
el transitar sobre este intervalo del orden al desorden mide el aumento
y descenso de complejidad del sistema, langton argumenta que si la
conjetura de Wolfram es cierta, entonces se puede localizar la clase iV
en una transición de fase entre las clases ii y iii donde la complejidad
de los sistemas se maximiza (ver figura 6). el cómputo universal en autómatas celulares es una propiedad emergente ya que en la definición
de las reglas no se encuentra codificada esta información.
Figura 6. las clases con mayor grado de orden son la i y ii, hay un
parámetro lambda crítico (lc) que separa a los autómatas ordenados
de los que son desordenados, en este valor lc se encuentran los autómatas con propiedades de cómputo universal, los de clase iV.
como se ha mostrado con ejemplos, la interacción local entre las
celdas conlleva a la construcción de una dinámica global cuyo resultado
en algunos casos es impredecible, es decir, no se puede encontrar una
74
breve IntroduCCIón a la dInámICa de autómatas Celulares
forma de resumir la dinámica mediante una ecuación, en estos términos se dice que el autómata es irreducible, y la única forma de llegar a
estados futuros es por medio de la evolución misma de las reglas.
algunos otros autómatas también tienen propiedades de cómputo
interesantes, por ejemplo, la regla 132 perteneciente a la clase i tiene
la capacidad de discernir si un número natural es par o impar, en la
condición inicial se codifica el número por medio de celdas prendidas,
posteriormente, los estados finales de evolución arrojarán un patrón
emitiendo un 1 si es impar o un 0 si es par. en la figura 7, se muestran
los primeros casos.
Figura 7.
la regla 30, clasificada como de clase iii (ver figura 8), tiene una
mezcla de comportamientos, en el inicio aparece un cierto patrón periódico a lo largo del tiempo, cuando la evolución del autómata alcanza las
fronteras de la retícula, éste desaparece y en su lugar aparecen estructuras triangulares pero sin ninguna regularidad mezcladas con regiones
tipo periódicas, la aleatoriedad del sistema es grande, a tal grado que
Wolfram utiliza esta regla como generador de números aleatorios en el
conjunto de funciones del software Mathematica.
los ejemplos que se presentaron en esta sección fueron de carácter
descriptivo e introductorio, las cualidades que se abordaron son los temas
centrales en el estudio de los autómatas celulares, desde la definición
de las reglas hasta el análisis de las dinámicas y de las propiedades
emergentes. por la sencillez en su definición, el aCe, es el mejor caso de
estudio para entender los conceptos e implementarlo en algún lenguaje
de programación, por ejemplo en netlogo.8 para una descripción y
8
netlogo es un lenguaje de programación basado en agentes con una gran librería de
modelos para estudiar incluidos los aCe.
75
aCtas de eConomÍa y ComplejIdad I
Figura 8.
visualización completa de los aCe se puede consultar (Wolfram,2002),
para una análisis teórico detallado (ilachinski, 1991).
existen otros modelos de autómatas celulares en una dimensión
como los totalísticos, en los que la actualización de sus celdas dependen
de la suma de los valores de su vecindad, los autómatas de estados continuos (Wolfram, 2002) y las redes de mapeos acoplados (Kaneko,1996)
por mencionar algunos tipos.
en la siguiente sección iniciaremos el estudio de los autómatas celulares en dos dimensiones comenzando por el modelo paradigmático
que impulsó el estudio de estos sistemas, Life o el juego de la vida.
4. Autómatas celulares en dos dimensiones
el autómata celular está compuesto por un conjunto de celdas homogéneas ordenadas sobre el espacio, es decir, en una retícula. la actualización del estado de la celda está regida por los valores de las celdas
adyacentes. se pueden definir dos tipos de vecindades, vecindad de Von
neumann y vecindad de moore, donde se considera la celda en gris más
sus 4 vecinos y 8 vecinos, respectivamente (ver figura 9).
las celdas pueden tener valores discretos o continuos. la dinámica
del sistema está regida por un conjunto de reglas que describen las inte76
breve IntroduCCIón a la dInámICa de autómatas Celulares
Figura 9. distintos tipos de vecindades.
racciones locales, éstas pueden ser deterministas o tener componentes
probabilísticos. en las siguientes secciones se analizarán tres modelos
con estados discretos y reglas deterministas, y las posibles dinámicas
que surgen en su evolución.
4.1 Life, el juego de la vida
Uno de los autómatas celulares más conocidos es Life o el juego de la vida,
creado por john conway, en 1970. el autómata se desarrolla en una
retícula de n × m celdas donde cada celda puede estar “viva” o “muerta”, utilizamos 0 para identificar celdas muertas y 1 para celdas vivas.
la actualización de la celda (i, j) se realiza considerando una vecindad
de moore y las siguientes reglas de evolución:
• Nacimiento. Si la celda está muerta y tiene exactamente 3 vecinos
vivos la celda nace.
• Muerte. Remplaza la celda viva por una muerta si sucede cualquiera de estos casos: si la celda tiene un solo vecino (es decir,
muere por aislamiento) o si la celda tiene más de tres vecinos
(es decir, muere por sobrepoblación).
• Sobrevivencia. La celda se mantiene viva si tiene 2 o 3 vecinos.
las reglas anteriores describen el comportamiento de la celda
con la información de los posibles casos de su entorno local. Life es un
autómata totalístico, es decir, la actualización depende de la suma de
celdas vivas.
77
aCtas de eConomÍa y ComplejIdad I
para evolucionar el sistema se inicializa una población de celdas
vivas posicionadas aleatoriamente sobre la retícula, como es de esperarse,
la distribución de las celdas vivas y muertas no forman ningún patrón
coherente, para actualizar el sistema se recorren todas las celdas de la
retícula de forma síncrona,9 esto genera el estado del sistema al tiempo
t + 1. con la velocidad de procesamiento de las computadoras actuales,
las sucesiones de estados se calculan en tiempo real permitiendo ver
una animación de la dinámica de life. en el sistema surge un proceso
autorganizativo10 el cual permite alcanzar configuraciones con una gran
diversidad de patrones. en la figura 10b se muestra el surgimiento de
diversas estructuras, existen patrones estables o estacionarios, en los que
no cambia su configuración durante el tiempo; osciladores, los cuales
repiten su comportamiento cierto periodo; y complejos, dentro de los
que destacan los planeadores o gliders. para una mayor referencia de
patrones se puede consultar (poundstone, 1985).
los gliders son estructuras pseudo estables que se desplazan sobre el espacio repitiendo su comportamiento cada 4 iteraciones (ver
figura 11), éstos son importantes porque fueron los primeros patrones
de desplazamiento que se encontraron, de hecho, cuando se definen
retículas grandes, por ejemplo 100 × 100 celdas, con condición inicial aleatoria es muy común verlos cruzar por alguna región, chocar
y desaparecer.
Un grupo del mIt dirigido por William Gosper creó un mecanismo
generador de gliders, lo llamo “pistola de gliders”, con esta configuración se pueden generar gliders exactamente cada 30 tiempos (ver figura
12).
la emergencia de patrones complejos hace posible que Life tenga
propiedades de cómputo universal, es decir, que se puede encontrar la
equivalencia con una máquina de turing universal y, por consiguiente,
implementar cualquier función que sea computable. conway demostró
en (Berkelamp et al., 1982) la universalidad del sistema definiendo un
conjunto de patrones que simulaban el comportamiento de una máquina
9
para realizar una actualización síncrona los nuevos valores de las celdas se almacenan en
una nueva retícula permitiendo conservar el estado del sistema en el tiempo t, por otro lado, la
actualización asíncrona sobrescribe los valores de la retícula del tiempo t.
10
la autorganización es un fenómeno de los sistemas dinámicos que permite el surgimiento de nuevas propiedades (emergentes), hay un incremento en su complejidad. el sistema no es
guiado por fuerzas externas, es producto de la propia dinámica interna.
78
breve IntroduCCIón a la dInámICa de autómatas Celulares
Figura 10a. tiempo = 0.
Figura 10b. tiempo=115.
Figura 11. “caminata” periódica del glider.
Figura 12.
79
aCtas de eConomÍa y ComplejIdad I
registradora,11 posteriormente se dieron demostraciones usando modelos computacionales como los circuitos booleanos y máquina de turing
(durand y Róka, 1999), para una explicación detallada de la construcción
de una máquina turing consúltese (Berkelamp et al., 1982).
por otro lado, en Life, existen patrones que no pueden ser alcanzados por la dinámica, a estas configuraciones se les llama “jardines
del edén”, por definición son patrones que no tienen un predecesor.
en la figura 13, se muestra un jardín del edén descubierto en 2012 por
Heule, Hartman, Kwekkeboom y noels de la Universidad técnica de
delft de los países Bajos.
Figura 13.
para demostrar que existen los jardines del edén se demuestra de
forma equivalente que Life es no suprayectivo y para demostrar que un
autómata es suprayectivo basta con demostrar su inyectividad por el
teorema moore-myhill, (moore, 1962; myhill, 1963). el razonamiento
es el siguiente: si iniciamos Life con todas las celdas prendidas o todas
las celdas apagadas, la dinámica nos llevará a un estado donde todas las
celdas serán apagadas, dos configuraciones diferentes tienen la misma
11
se usa máquina registradora en el sentido del modelo computacional. en particular,
minsky describió un sistema tipo máquina registradora que emula una máquina de turing (minsky, 1967).
80
breve IntroduCCIón a la dInámICa de autómatas Celulares
imagen, por lo tanto, es no inyectivo y, por lo tanto, no suprayectivo,
así, Life tiene configuraciones tipo jardines del edén. probando la no
inyectividad del sistema se sabe que Life es no reversible.
después de 30 años sigue siendo un modelo de investigación, en
la www se pueden encontrar cientos de imágenes y animaciones de las
configuraciones que se han estudiado, algunas llegan a alcanzar miles
de celdas en su definición.
Life surgió como un juego matemático sin la pretensión de modelar
algún fenómeno real. desde un principio, conway caracterizó las celdas
como “vivas” o “muertas”, en sentido estricto 0 o 1, pero la connotación
que se percibe en el modelo puede ser de “algo” que nace, se reproduce
y muere. en esta línea, christopher langton usó un autómata celular
bidimensional para estudiar dinámicas simples reflejando lo que pasaría
si cierto “agente” aplicara un conjunto de reglas mínimo, le llamó la
hormiga artificial12 en alusión al comportamiento sencillo y a la interacción que pueden tener las verdaderas hormigas con su ambiente, éste
fue uno de los primeros modelos de agentes autónomos.
4.2 La vida artificial y la hormiga de Langton
con el surgimiento del área de la vida artificial se abrió un nuevo campo
de investigación interdisciplinario para entender y explicar fenómenos
biológicos incluidos los sociales. langton dice que “hay más en la vida
que mecánica – también hay dinámica”. propone el estudio de la vida
tratando de rescatar las propiedades inherentes de los sistemas vivos
independientemente de la materia constituyente y tratar de modelarlas
con simulaciones computacionales, llevar estos modelos del terreno de
la vida como la conocemos al dominio de la vida como podría ser.
los autómatas celulares son la herramienta perfecta para realizar lo
que propuso langton, pues uno de los objetivos es tratar de conjuntar las
interacciones entre los elementos para rescatar los procesos emergentes
y autorganizativos que se pierden al aislar los elementos constitutivos.
el enfoque que se usa es bottom-up, o de abajo hacia arriba, es decir, la
modelación parte desde sus elementos constituyentes más simples, se
definen los atributos esenciales de los agentes y las relaciones con su
entorno, la forma en que los agentes “actúan” sobre el medio parte de
12
en el artículo original le llamó vant que surge de virtual ant.
81
aCtas de eConomÍa y ComplejIdad I
la información que se genera localmente. son sistemas descentralizados
donde no hay una fuerza exterior que dicte una pauta o comportamiento.
las propiedades emergentes son la llave para entender la dinámica de
los fenómenos colectivos.
en el modelo de la hormiga artificial, langton estudió el comportamiento en primera instancia de un agente aislado autónomo,
el cual no es controlado por ningún líder y no sigue ningún plan
global, se rige por un conjunto de reglas simples y cuyo ambiente va
transformando a partir de su propia dinámica, la hormiga tiene una
visión limitada del mundo, recibe información del exterior de forma
local, particularmente de la posición donde está parada, “vive” en una
retícula bidimensional donde las celdas pueden tener el estado cero
o uno, a partir de estos valores la hormiga cambia su dinámica. las
reglas son las siguientes:
1. si la hormiga se encuentra en una celda blanca, gira 90° a la
derecha, pinta la celda de color negro y avanza.
2. si la hormiga se encuentra en una celda negra, gira 90° a la
izquierda, pinta la celda de color blanco y avanza.
el sistema se inicializa con todas las celdas blancas, en la figura 14
se muestran los primeros 8 tiempos de evolución, en la primer iteración, la hormiga se encuentra en una celda blanca, las reglas le dictan
que debe girar 90° a la derecha, pintar la celda de negro y avanzar a la
siguiente celda para repetir el proceso, en cada iteración la hormiga
deja un rastro de celdas negras, en la quinta iteración se encuentra con
la celda negra con la que inicio el rastro, ésta se convierte en blanca,
ahora gira 90° a la izquierda y continúa su camino, en las primeras 400
iteraciones la dinámica parece simétrica y un tanto ordenada, después
el rastro va perdiendo forma hasta llegar a estructuras que parecen
aleatorias, aparentemente no cabría ningún otro tipo de estructuras
en esta dinámica, pero lo interesante surge alrededor de la iteración
10250, la retícula toma una configuración muy particular que hace que
la hormiga inicie la construcción de estructura periódica infinita bautizada como “carretera” por su descubridor james propp (Flake, 1998)
(ver figura 15).
este modelo presenta varias características importantes, la primera,
es la reversibilidad del sistema, a diferencia del juego de la vida, se pueden
definir las reglas inversas que nos permiten “retroceder” el sistema al
82
breve IntroduCCIón a la dInámICa de autómatas Celulares
Figura 14.
Figura 15. el sistema en distintos periodos de su evolución,
alrededor del tiempo 400; 3,600 y 11,300 la celda en rojo
indica la ubicación de la hormiga
punto que se desee, pero esto no implica simplicidad en la dinámica
del sistema, la segunda, es la creación de la “carretera” la cual muestra
una estructura periódica global considerada como propiedad emergente, ya que en las reglas locales no está codificada esta información,
la evolución de los estados del entorno es la clave para construir esta
estructura, y la tercera es la equivalencia con una máquina de turing
bidimensional. en el 2002, se demostró la universalidad del sistema, es
83
aCtas de eConomÍa y ComplejIdad I
decir, en principio se puede implementar cualquier algoritmo sobre el
sistema (Gajardo et al., 2002).
se puede extender el modelo con n hormigas, el sistema deja de ser
reversible pero curiosamente con dos hormigas se puede implementar
la reversibilidad bajo el sistema original (Flake, 1998). el divulgador
de la ciencia ian stewart hace la siguiente conjetura: “dada cualquier
configuración de celdas prendidas y apagadas, la hormiga siempre terminará construyendo la carretera” (stewart, 1989). Hasta ahora no se
ha demostrado tal afirmación y argumenta que se debe a la propiedad
de emergencia, estas estructuras permanecen en un nivel jerárquico de
mayor orden al de la descripción del sistema.
aunque el área de la vida artificial se inició desde los años ochenta, un poco antes algunos economistas y sociólogos ya pensaban en la
modelación de fenómenos colectivos a partir de la interacción local de
sus agentes, tal es el caso del modelo de segregación del economista
thomas schelling, convertido en un modelo representativo para entender la formación de comunidades constituidas por individuos con
cierta afinidad.
4.3 Modelo de segregación de Schelling
el modelo de segregación fue un trabajo pionero en el área, schelling
realizó un estudio de la dinámica generada por las interacciones de las
elecciones discriminatorias de dos tipos de grupos diferentes, como
resultado se forman cúmulos o clusters conformados por agentes del
mismo tipo, afines respecto de alguna característica social, como puede
ser sexo, edad, ingresos, lengua, ideología, etc.; todo depende del fenómeno que se está modelando, las implicaciones sociales del modelo son
relevantes. schelling logró aislar la dinámica local de cómo las decisiones individuales pueden generar barrios segregados reflejándose en un
patrón global. los agentes cuentan con un grado de tolerancia hacia el
otro grupo o llamada también “función de felicidad” que depende de
cierto umbral, si se sobrepasa este umbral el agente es “infeliz”, como
medida para cambiar su condición busca desplazarse a otra región, por
otro lado, si el agente es “feliz” permanece en su sitio hasta que otra
cosa suceda.
el modelo se desarrolla sobre un autómata celular con las siguientes
características:
84
breve IntroduCCIón a la dInámICa de autómatas Celulares
1. Una retícula bidimensional compuesta por celdas reproduciendo
una topología tipo toro.13
2. las celdas pueden tener uno de tres posibles estados, vacía,
agente del tipo a o agente del tipo B.
3. la vecindad usada es de tipo moore, es decir, se consideran los
ocho vecinos que tiene a su alrededor.
4. la función de actualización depende de un umbral y del número
de tipos de agentes que tiene a su alrededor.
la dinámica es la siguiente:
1. si en la vecindad del agente (i, j) el número de agentes que son
contrarios a su grupo es superior a su umbral de tolerancia,
entonces cambia su posición actual buscando de forma aleatoria
una celda libre sobre la retícula, este proceso puede interpretarse
como una “mudanza”, en caso de no encontrar alguna celda
desocupada se queda en la misma posición.
2. si el número de agentes no afines es menor al umbral de tolerancia se queda en la misma posición.
el sistema se inicializa de forma aleatoria, los agentes tipo a y B no
tienen ninguna configuración grupal, posteriormente los agentes emprenden un “reacomodo” hasta sentirse “felices”, globalmente el sistema
llegará a una configuración estable o estado estacionario donde todas
las inconformidades son solventadas. en la figura 16 (a) se muestra la
configuración inicial del autómata celular de tamaño 51 × 51 con 2,000
agentes identificados por el color rojo y verde, esparcidos de forma aleatoria y con un valor de umbral de tolerancia del 50%, es decir, el agente
será “feliz” y se quedará en su lugar si tiene a su alrededor por lo menos
la mitad de agentes afines a él. en la configuración final (b) se observa el
fenómeno de segregación, los agentes rojos se congregaron con agentes
de su mismo tipo, mientras que los verdes hicieron lo mismo. si subimos
el umbral de tolerancia a 75% se observa otro tipo de segregación con
cúmulos más grandes y más compactos (c) pero que cualitativamente
representa el mismo fenómeno. si incrementamos el parámetro un
13
con esta propiedad, la retícula no tiene fronteras, la frontera superior se conecta con la
frontera inferior, formándose un cilindro, si, ahora, se conectan los dos extremos del cilindro se
forma una dona que en topología se llama toro.
85
aCtas de eConomÍa y ComplejIdad I
Figura 16.
(a)
(b)
(c)
(d)
Fuente: Wilensky (1997).
poco más, el sistema ya no presenta ningún tipo de segregación y se
desestabiliza al grado de no llegar a un estado estacionario (d).
a diferencia de los modelos vistos anteriormente, este modelo presenta un parámetro de control, el umbral de tolerancia, el cual presenta
un valor crítico que separa las dinámicas segregadas de las no segregadas, específicamente, este valor crítico separa las dinámicas de estados
estacionarios en donde se forman patrones “segregados” a los estados
86
breve IntroduCCIón a la dInámICa de autómatas Celulares
“frustrados” del sistema, donde los agentes no se pueden acomodar de
tal modo que se satisfagan las condiciones impuestas.
cuando schelling realizó este trabajo no hizo mención de la teoría
de autómatas celulares, fue un trabajo descriptivo sobre las propiedades
cualitativas del modelo ya que la teoría aún estaba en desarrollo, ahora
se considera unos de los modelos sociales pioneros más representativos
en la formación de patrones a través de propiedades emergentes.
5. Conclusiones
con este trabajo se pretendió dar una breve introducción y mostrar un
panorama general de los autómatas celulares a través de la definición
del aCe y de tres ejemplos clásicos. el estudio de las dinámicas de los
autómatas celulares permite comprender los mecanismos internos del
fenómeno real.
se mostraron algunas de sus propiedades cualitativas y cuantitativas,
se identificó cuándo los sistemas exhiben comportamientos estacionarios, periódicos, caóticos y complejos; por otro lado, cómo influye en
esta dinámica la variación de los parámetros de control, y, por último,
las propiedades emergentes, producto de un fenómeno autorganizativo
que parte de estados aleatorios hacia una estructura coherente donde
tiende a incrementarse el orden y la cantidad de información que soporta el sistema.
en este transitar de comportamientos nos encontramos con el
fenómeno de universalidad o propiedad de cómputo universal, el cual
langton ubica en una transición de fase entre dinámicas ordenadas y
desordenadas, es decir, en el borde del caos (langton, 1990).
en este sentido, los autómatas celulares reflejan las características
principales de los sistemas complejos, un sistema que se compone de un
gran número de objetos con interacciones no lineales y distintos grados
de acoplamiento, constituidos por niveles jerárquicos.
por otro lado, el proceso de modelación se hace de forma natural,
con un enfoque bottom-up, es decir, definiendo los componentes básicos,
sus relaciones, hasta llegar a una dinámica global donde la llave para
comprender el fenómeno son las propiedades emergentes. en el proceso
de modelación, la celda toma el papel de la unidad fundamental del
fenómeno, por ejemplo, si es un modelo de tráfico, entonces la celda
podría ser un automóvil, si es un modelo social, la celda podría des87
aCtas de eConomÍa y ComplejIdad I
cribir una persona, si es un modelo biológico de insectos, podrían ser
hormigas, termitas, etc.; en general, un objeto al que se le denomina
agente. a esta técnica se le denomina modelación basada en agentes
(mba) (izquierdo et al., 2008).
como comentario final, dentro de los objetivos del texto está el
acercar a los académicos de las ciencias sociales a la modelación de fenómenos complejos con esta herramienta, el presente trabajo sirve de
tutorial para la implementación de los modelos, así como de referencia
para el análisis cualitativo de los sistemas, como primer acercamiento,
se recomienda usar la plataforma de desarrollo netlogo, el cual tiene
implementado los modelos vistos aquí permitiendo visualizar las simulaciones computacionales.
Bibliografía
Bak, p., chen, K. y tang, c. (1990) a forest-fire model and some thoughts
on turbulence. Phys. Lett. A, núm. 147: 297-300.
Baltzer, H., Braun, W.p., y Kohler, W. (1998) cellular automata models
for vegetation dynamics. Ecological Modelling, vol. 107: 113–125.
Berkelamp, e.R, conway, j.H. y Guy R. (1982) Winning ways for your
mathematical plays, vol. 2. nueva york: academic press.
codd, edgar (1968) Cellular automata. nueva york: academic press.
cook, matthew (2004) Universality in elementary cellular automata
Complex Systems, vol. 15: 1-40.
davis, martin (1958) Computability and unsolvability. nueva york: mcGrawHill.
durand, Bruno y Róka Zsuzsanna (1999) the game of life: Universality
revisited. en m. delorme y j. mazoyer (eds.), Cellular automata. A
parallel model. Kluwer academic publishers. 31-74.
Flake, Gary (1998) The computational beuty of nature: Computer explorations
of fractals, chaos, complex systems, and adaptation. the mIt press.
Gajardo, a., moreira, a., y Goles, e. (2002) complexity of langton’s
ant. Discrete Applied Mathematics, núm. 117: 41-50.
Gardner, martin (1970) mathematical games. the fantastic combinations
of john conway’s new solitaire game “life”. Scientific American,
núm. 223: 120-123.
Hilbert, david (1902) mathematical problems. Bull. Amer. Math. Soc.,
vol. 8: 437-479.
88
breve IntroduCCIón a la dInámICa de autómatas Celulares
Hoya White, s., martín del Rey, a. y Rodríguez sánchez, G.(2007) modeling epidemics using cellular automata. Applied Mathematics and
Computation, vol. 186, núm. 1: 193-202.
ilachinsky, andrew (1991) Cellular automata. A discrete Universe. nueva
york: World scientific.
izquierdo, l.R., Galán, j.m., santos, j.i. y del olmo, R. (2008) modelado de sistemas complejos mediante simulación basada en agents
y mediante dinámica de sistemas. EMPIRIA. Revista de Metodología
de Ciencias Sociales, núm. 16: 85-112.
Kaneko, K. y tsuda, i. (1996) Complex systems: Chaos and beyond. springer.
Kier, l B.; seybold, p. G.; cheng, chao-Kun (2005) Modeling chemical
systems using cellular automata. springer Verlag.
Qiu, G., Kandhai, d. y sloot, p. m. a. (2007) Understanding the complex
dynamics of stock markets through cellular automata. Phys. Rev. E.,
vol. 75, núm. 4: 046116+11.
langton,christopher (ed.) (1989) Artificial life: The proceedings of an interdisciplinary workshop on the synthesis and simulation of living systems,
septiembre 1987, en los alamos, new mexico. santa Fe institute
studies in the sciences of complexity. 6. Reading, ma: addisonWesley.
langton, christopher (1990) computation at the edge of chaos: phase
transitions an emergent computation. Physica D, vol. 42: 12-37.
minsky, m.l. (1967) Computation: Finite and infinite machines. prentice
Hall.
moore, e. (1962) machine models of self-reproduction. Proc. Symp. Apl.
Math., vol. núm. 14: 13-23.
myhill, j. (1963) the converse to moore’s garden-of-eden theorem. Proc.
Symp. Apl. Math., vol. núm. 14: 685-686.
nagel, K., y schreckenberg, m. (1992) a cellular automaton model for
freeway traffic. Journal de Physique, vol. 2: 2221-2229.
poundstone, William (1985) The recursive Universe. nueva york: William
morrow and company, inc.
sakoda, j. (1971) the checkerboard model of social interaction. Journal
of Mathematical Sociology, vol. 1, núm. 1: 119-131.
schelling, t. (1971), dynamic models of segregation. Journal of Mathematical Sociology, vol. 1, núm. 2: 143-186.
stewart, i. (1989) Does god play dice? The new mathematics of chaos. penguin
Books ltd.
89
aCtas de eConomÍa y ComplejIdad I
turing, alan. (1936) on computable numbers, with an application to
the entscheidungsproblem. Proceedings of the London Mathematical
Society, series 2, 42: 230-265.
Von neumann, j. (1966) The theory of self-reproducing automata. Urbana,
il.: ed. Univ. of illinois press.
Ulam, s. m. (1952). Random processes and transformations. Proc. International Congress of Mathematicians, Cambridge, MA. 1950, vol. 2:
264-275.
Wilensky, U. (1997). netlogo segregation model. <http://ccl.northwestern.edu/netlogo/models/segregation>. center for connected
learning and computer-Based modeling, northwestern institute
on complex systems, northwestern University, evanston, Il.
Wilensky, U. (1999). netlogo. <http://ccl.northwestern.edu/netlogo/>.
center for connected learning and computer-Based modeling,
northwestern institute on complex systems, northwestern University, evanston, il.
Wolfram, stephen (1983) statistical mechanics of cellular automata.
Reviews of Modern Physics, vol. 55, núm. 3: 601–644.
Wolfram, stephen (1984) Universality and complexity in cellular automata. Physica d, vol. 10: 1-35.
Wolfram, stephen (2002) A new kind of science. Wolfram media.
90
esCenarIos de un modelo basado en agentes sobre
el ComportamIento del ConsumIdor poskeynesIano
Raymundo Vite Cristóbal*
Gustavo Carreón Vázquez**
Introducción
U
na de las características de la escuela posteynesiana (ep) es la de
aglutinar un conjunto heterogéneo de puntos de vista acerca de
la economía, entre los cuales destacan los marxistas, los sraffianos, los
estructuralistas del desarrollo, los institucionalistas, los regulacionistas,
los kaleckianos, los behavioristas, los schumpeterianos, y otros.
a diferencia del programa neoclásico, al cual se le asocia una
epistemología instrumentalista, un individualismo metodológico, una
racionalidad completa1 y una concepción de la economía centrada en
la escasez y los intercambios, la ep es un programa que incorpora el
realismo, el holismo, la racionalidad de procedimiento y una economía
orientada a la producción.2 estos aspectos permiten considerar a la ep
como un enfoque sistémico afín a una dinámica compleja.
desde este punto de vista el comportamiento de los agentes, en
particular, el comportamiento del consumidor posteynesiano no es ajeno
a la idea de enfoque sistémico y sistemas complejos. de la toma de deci-
* departamento de producción económica. Universidad autónoma metropolitana, Unidad
Xochimilco.
** instituto de investigaciones económicas, Universidad nacional autónoma de méxico.
1
en el escrito entenderemos por racionalidad completa de la teoría del consumidor neoclásica a los criterios de ordenación de las preferencias presente en la elección de bienes finales por
parte del consumidor representativo al maximizar la función de utilidad. los teóricos de la elección
racional, en su vertiente normativa, establecen un conjunto mínimo de condiciones que deben
satisfacer las preferencias de un agente racional (Resnik, 1998), mismos que adopta el modelo del
consumidor neoclásico (ver mass-colell, Whinston y Green, 2005).
2
de hecho, dos de los principios enfrentados en las teorías de la decisión neoclásico y poskeynesiano son precisamente “la racionalidad completa” y “la racionalidad limitada”. situando,
algunos sinónimos de la racionalidad completa son “racionalidad global”, “racionalidad optimizadora”, “racionalidad sustantiva”, “racionalidad perfecta”, “racionalidad neoclásica”, “racionalidad
maximizadora”, “racionalidad objetiva” y otros (Barros, 2010: 457).
91
aCtas de eConomÍa y ComplejIdad I
sión del agente poskeynesiano sustentada en el supuesto de racionalidad
limitada y la idea de agente adaptativo se desprenden características
de un sistema económico complejo adaptativo, susceptible de presentar
patrones o regularidades que pueden dar cuenta de elementos explicativos del comportamiento del consumo de los agentes. esta forma de
ver el consumo permite una interacción entre la teoría y la práctica,
necesarios para clarificar los elementos explicativos involucrados en el
fenómeno del consumo.
en el terreno aplicado, desde la década de los años noventa, al
contemplar la economía como un sistema complejo, ha proliferado el
uso de nuevas técnicas, herramientas y metodologías utilizadas por los
sistemas complejos, entre los cuales sobresalen, autómatas celulares,
modelos basados en agentes y algoritmos genéticos, por citar algunos.
en este trabajo, considerando la idea de un consumidor que toma
sus decisiones reaccionando a su entorno, se presenta una propuesta
metodológica para modelar el comportamiento del consumidor poskeynesiano a partir de un modelo basado en agentes. los objetivos
centrales del escrito son, por un lado, caracterizar la toma de decisión
del consumidor poskeynesiano haciendo especial énfasis en la racionalidad de procedimiento y, por otro lado, formalizar una propuesta
de modelización del comportamiento del consumidor poskeynesiano
por moda e imitación utilizando el paradigma de modelos basados en
agentes.
el capítulo se organiza como sigue: en la sección 1, se exponen
los elementos de la teoría del consumidor poskeynesiano; en la sección
2, se matiza el contexto de toma de decisión del agente poskeynesiano
enfatizando en la racionalidad de procedimiento; y, por último, en la
sección 3, se revisa la propuesta de modelización del comportamiento
del consumidor a través de un modelo basado en agentes. en la parte
final se dan las conclusiones.
1. Elementos de la teoría del consumidor postkeynesiana
la teoría del consumidor poskeynesiano se sustenta en el concepto de
preferencias lexicográficas y un conjunto de principios que versan sobre
el comportamiento observado de los consumidores. a diferencia de la
escuela neoclásica en donde el enfoque es axiomático, la teoría del consumidor postkeynesiana es una teoría fundamentada en principios sobre
92
esCenarIos de un modelo basado en agentes
el comportamiento observado de los consumidores, en este sentido, se
trata de una teoría descriptiva. Uno de estos principios es precisamente
el de racionalidad de procedimiento que más adelante retomaremos.
a) Las preferencias lexicográficas
el concepto central en la teoría del consumidor poskeynesiana es el de
preferencias lexicográficas, que consiste en establecer una pirámide
de necesidades o jerarquía de necesidades y después distribuir el presupuesto con base en dicha secuencia jerárquica, en donde, en primer
lugar, se cubren las necesidades esenciales, hasta que se hallan saturadas, sólo entonces le siguen los gastos discrecionales, según el orden de
prioridades bien definido (lavoie, 2005b: 38). así, el consumidor dividiría los bienes entre categorías y preasignaría una parte de la renta a
cada categoría distribuyendo entre los bienes de cada categoría, ésta es
la esencia de la teoría del consumidor postkeynesiana.3
supongamos un individuo que tiene que escoger entre combinaciones de bienes de consumo básicos (xb) y bienes de lujo (xl) fijos de
acuerdo con su ingreso corriente (y). postulemos que existe un umbral de
ingreso y*, asumamos que mientras sus ingresos netos sean inferiores a
y*, este individuo preferirá el gasto de bienes de consumo básicos máximo con la renta neta más elevada, sea cual sea el bien de lujo. diremos
entonces que el consumo de bienes básicos es el primer elemento de
elección, mientras que el bien de lujo es el elemento secundario. esto
puede ilustrarse mediante curvas de cuasi-indiferencia, horizontales y
con flechas, curvas de cuasi-indiferencia por debajo de y*, tal como se
muestra en la gráficas. cuanto más elevada es la horizontal, tanto mayor
es la satisfacción del individuo.
en cambio, para un ingreso neto superior a y*, el elemento primario de la elección es el bien de lujo, ahora el bien básico es el elemento
secundario. las curvas de cuasi-indiferencia son verticales. cuanto más
a la derecha está la vertical, más satisfecho está el individuo, convertido
3
“así como hay reglas para ordenar las palabras en un diccionario, en el caso del gasto de los
consumidores el agrupamiento de bienes en categorías sigue reglas similares. así como hay reglas
que estipulan que las palabras que comienzan con la letra p deben agruparse separadamente de
aquellas que comienzan con la letra a, hay reglas que agrupan colecciones de bienes en diferentes
categorías […] esencialmente, lo que se propone aquí es que los bienes son agrupados en categorías
de consumo principales que contienen conjuntos de subgrupos” (arestis, 1992: 124).
93
aCtas de eConomÍa y ComplejIdad I
Gráfica 1. preferencias lexicográficas en el consumo poskeynesiano.
xb
B
A
D
C
ya
y*
yb
E
xl
Fuente: ejemplo adaptado de lavoie (2005b).
ahora en un consumidor de bienes de lujo. según la gráfica, el individuo
preferirá las siguientes combinaciones: a > c > B > d > e.
la teoría poskeynesiana resalta la diferencia entre necesidades y
deseos. para ellos, las necesidades pueden ser objetivamente clasificadas
y jerarquizadas, mientras que los deseos se configuran a partir de las
necesidades y se concretan en diferentes preferencias en el marco de
una categoría común o de determinado nivel de necesidad (lutz y lux,
1979: 21). dicha distinción puede ilustrarse de la siguiente manera:
saciar la sed es una necesidad, la elección entre una Fanta y una cola
es el deseo (lavoie, 2005b, 36).
a diferencia de la toma de decisión neoclásica en donde se tienen
curvas de indiferencia con propiedades del tipo U’(x) > 0 y U’’(x) < 0
que inducen a tener un máximo de utilidad, en la teoría del consumo
poskeynesiana no existe tal óptimo, la noción de relevancia es el consumo satisfactorio de acuerdo con los niveles de ingreso. además, el
consumidor poskeynesiano considera su entorno, la información, las
94
esCenarIos de un modelo basado en agentes
costumbres y los hábitos son considerados en el proceso de toma de
decisión, aspectos que tienen que ver con la racionalidad limitada y la
racionalidad de procedimiento.
el hombre económico racional de la teoría neoclásica puede ser capaz de predecir los acontecimientos futuros, de utilizar una distribución
de probabilidades para trazar todas las alternativas posibles, o de formar
expectativas integrando todo el conocimiento disponible. a este tipo de
racionalidad marc lavoie (2005a) le llama racionalidad absoluta “los
agentes tienen toda la información o tienen los medios para adquirirla,
o disponen de los datos que permiten calcular la información óptima
que necesitan. no se discute la cuestión de las expectativas racionales,
donde los agentes además de la información de que disponen conocen
también perfectamente cómo funciona la economía, todos los agentes disponen del mismo modelo o del mismo prototipo que permite
comprender la economía”. en cambio, el consumidor poskeynesiano
debido a la incertidumbre, la información incompleta, sus capacidades
cognitivas y de cómputo limitados no puede conocer todas las alternativas posibles, ni asociar una distribución de probabilidad a los estados
futuros del mundo, sus reglas son más sencillas más que optimizadoras,
veremos en breve que sus reglas de decisión están sustentadas en una
racionalidad de procedimiento.
b) Los principios básicos de la teoría del consumidor postkeynesiana
marc lavoie (2005b) sostiene que la teoría del consumidor poskeynesiana se fundamenta en siete principios básicos, mismos que contrastan radicalmente con los supuestos de la teoría del consumidor neoclásica:
i) Racionalidad de procedimiento
el consumidor se rige por hábitos, por reglas de comportamiento no
compensadoras, por atajos (simon, 1976). se ha comprobado empíricamente que la gran mayoría de decisiones de los consumidores son
espontáneas y se basan en rutinas o procedimientos que no atienden a
más de uno o dos criterios (lavoie, 2005b: 37), más adelante abundaremos un poco más sobre este principio.
95
aCtas de eConomÍa y ComplejIdad I
ii) saciedad o saturación
más allá de cierto umbral finito consumido, una necesidad queda satisfecha y consumir más unidades asociadas con esa necesidad no aporta
ninguna satisfacción adicional (Georgescu-Roegen, 1966). eso implica,
matemáticamente, que a partir de cierto valor finito de la cantidad consumida la derivada de la utilidad marginal se anula idénticamente.
los consumidores se fijan a menudo unos umbrales, lo que puede
condensarse en la necesidad en el principio de la saciedad de las necesidades. más allá de este umbral, el bien no aporta ninguna satisfacción.
este principio se parece al principio neoclásico de la utilidad marginal
decreciente, que afirma que las sucesivas dosis del bien aportan cada vez
menos satisfacción. pero en contra de lo que dice el principio neoclásico de no saturación, el principio poskeynesiano de saturación asevera
que se alcanzará, para un precio positivo del bien y una renta finita del
consumidor, un umbral de saturación (lavoie, 2005b: 37).
iii) separación (elecciones y necesidades débilmente relacionadas)
el consumidor poskeynesiano subdivide sus elecciones y necesidades en
diversas categorías, débilmente relacionadas unas con otras (lancaster,
1971). este principio afirma que las necesidades o las categorías de los
gastos de consumo pueden ser claramente distinguidas una de otras.
si fuera obligatorio que el consumidor asignara sus ingresos teniendo en cuenta todos los precios y todos los bienes de consumo, se
enfrentaría a una tarea colosal. para paliar esta complejidad, los consumidores toman una serie de decisiones que simplifican y fragmentan la
tarea. asignan diferentes presupuestos a las diversas partidas de gasto
(alimentación, vestido, vivienda, transportes, servicios y ocio) y, a continuación, dentro de cada partida (o en el ámbito de cada necesidad)
evalúan las diferentes subcategorías o sus deseos, con independencia de
las demás partidas. de esta manera, se configura un haz de gastos, con
diversas bifurcaciones en las que cada ramal representa una partida o
una subclase de gastos (lavoie, 2005b: 37).
lo anterior implica que los cambios en los índices de precios de un
tipo de productos asociados con una determinada necesidad no afectan
prácticamente las cantidades consumidas de otras categorías, ya que las
categorías son básicamente independientes. así, difícilmente una can96
esCenarIos de un modelo basado en agentes
tidad insuficiente de alimento puede ser compensada por una mayor
cantidad de oferta cultural, dado que probablemente el alimento y el
deseo de ocio pertenecen a categorías diferentes de deseos y necesidades.
este principio poskeynesiano contrasta con las hipótesis típicas de la
teoría neoclásica donde cualquier disminución en la cantidad proveída
para una necesidad puede ser compensada por una cantidad superior
de otro producto.
iv) subordinación de necesidades
las necesidades son a menudo jerarquizadas, subordinadas unas a otras.
este principio se asocia a menudo con la pirámide de necesidades de
abraham maslow. la distribución del presupuesto se hace según una
secuencia completamente jerárquica: en primer lugar, se cubren las
necesidades esenciales, hasta que se hallan saturadas, después de eso, se
toman en consideración las necesidades discrecionales, según un orden
de prioridades bien definido.
según el principio de subordinación, la distribución del presupuesto no consiste en maximizar una utilidad entre bienes disponibles,
sino que los bienes situados en un nivel jerárquico no son consumidos a
menos que estén mínimamente satisfechas las necesidades de bienes de
los niveles jerárquicos inferiores. esto puede implicar en algunos casos
que el orden de preferencias de combinaciones de bienes siga un orden
lexicográfico. si eso sucede, entonces la función de utilidad asociada a
la utilidad marginal tiene que estar representada por un vector cuyos
componentes estarían asociados con un determinado nivel jerárquico
de necesidades.
v) crecimiento y preferencias escalonadas
este principio tratado por Georgescu-Roegen (1966) establece que el
crecimiento de la renta disponible para un consumidor hace que sus
preferencias evolucionen escalonadamente y el acceder a niveles de
renta superiores hace que se consideren necesidades previamente no
consideradas. este principio adquiere relevancia cuando se analiza la
imitación, cuando sube su renta el consumidor tiende a imitar al de su
grupo superior inmediato, un proceso que lleva tiempo.
97
aCtas de eConomÍa y ComplejIdad I
vi) principio de dependencia
el principio de dependencia es el reconocimiento de que los gustos
dependen de la publicidad, las modas, el grupo social al que pertenece
el agente económico, y no simplemente de unos gustos autónomos
objetivos (Galbraith, 1955).
vii) Herencia
el principio de herencia establece que las preferencias actuales de un
consumidor dependen de su historia pasada de consumo (GeorgescuRoegen, 1966). es decir, las elecciones de hoy están condicionadas por
las elecciones de ayer. esto hace que la dinámica del consumo a lo largo
del tiempo no dependa de maximizar una función de utilidad objetiva
e inmutable, sino que nuestra historia de elecciones pasadas puede ser
lo más determinante en la configuración de nuestros gustos actuales.
esto hace que las preferencias de los agentes económicos sean altamente
dependientes de su historia vital.
2. La racionalidad de procedimiento y el contexto poskeynesiano
el principio que da sustento a la teoría del comportamiento del consumidor poskeynesiano es precisamente el de la racionalidad de procedimiento, veamos un poco más lo que implica este concepto.
a) Racionalidad de procedimiento y la toma de decisión
en el enfoque poskeynesiano, la noción de proceso de toma de decisión descansa en la idea de racionalidad de procedimiento,4 se afirma
que el consumidor se rige por hábitos, por reglas de comportamiento no compensadoras, por atajos (simon, 1976). los consumidores no
4
Klaes y sent (2005) presentan una breve introducción sobre el origen de los conceptos
de racionalidad limitada y racionalidad de procedimiento. Barros (2010) discute los conceptos
de racionalidad limitada y racionalidad de procedimiento al interior de la obra de Herbert
simón.
98
esCenarIos de un modelo basado en agentes
examinan sistemáticamente todas las opciones posibles. los procedimientos dependen mucho más de la costumbre previa que del análisis
racional de todas las posibilidades. ese medio para decidir, llamado racionalidad de procedimiento, proporciona un medio rápido y sencillo
de tomar decisiones, un procedimiento de optimización riguroso entre todas las posibilidades podría ser inadecuado. por tanto, podemos
decir, que un consumidor con información limitada y conocimientos
limitados está siendo racional al escoger métodos procedimentales de
elección, pero este tipo de racionalidad no es la racionalidad optimizadora que presupone la teoría neoclásica.
en la toma de decisión del consumidor poskeynesiano se funden
los conceptos procesos de búsqueda y satisfacción, “el decisor busca
una elección que le sea satisfactoria y cuando la encuentra deja de
buscar”. los consumidores, según esta hipótesis, en lugar de intentar
maximizar los valores en una elección dada, lo que pretenden es la
satisfacción, ellos buscan alternativas que son suficientemente buenas
según algún criterio prestablecido. satisfacción es esencialmente la
hipótesis que permite, y prácticamente induce, a la concepción de los
procedimientos de decisión diversa. con ella, el decisor no tiene que
tener en cuenta todas las alternativas posibles de comportamiento. las
alternativas pueden encontrarse secuencialmente mediante procesos
de búsqueda, búsqueda que es interrumpida cuando se encuentra una
alternativa satisfactoria (Barros, 2010). simon identifica los procesos
de búsqueda como las rutinas utilizadas por los agentes para llegar a
resultados satisfactorios. aspectos susceptibles de matizarse a través de
un programa de computadora.
b) La toma de decisión del agente poskeynesiano:
el rol de la información y la incertidumbre
contrario a la teoría neoclásica, el punto de partida de la teoría poskeynesiana es la existencia de una brecha ineliminable entre la capacidad
del agente y la complejidad de la situación problemática que enfrenta
(eichner, 1983). esta brecha es, a veces, descrita como:
1) insuficiencia o sobreabundancia de información.
2) y la mayoría de las veces como incertidumbre acerca del mundo.
99
aCtas de eConomÍa y ComplejIdad I
en cualquiera de ambas situaciones, no es posible optimizar, pero
ello no impide que se pueda alcanzar en forma deliberada una buena
solución.
en condiciones de certeza, el resultado de cada elección es conocido. en situaciones de riesgo, cada elección arroja un conjunto de
resultados posibles, cuyo valor es conocido y a los cuales es posible
asignar una cierta probabilidad, tal como lo hacen los neoclásicos. de
acuerdo con G. marqués (González, marqués y Ávila, 2002), el de incertidumbre es un concepto polifacético. es posible distinguir tres tipos
de incertidumbre:
i) se desconoce la probabilidad del resultado de una elección.
ii) se desconocen los valores monetarios asociados con cada
elección.
iii) se desconocen los cursos disponibles de acción o los estados
futuros del mundo.
este último tipo de incertidumbre se denomina incertidumbre
fundamental o verdadera, su importancia radica en que, a diferencia de
las dos primeras, no es susceptible de ser interpretada como situación
de riesgo y, en consecuencia, cae fuera del análisis neoclásico.5 es a este
tipo de incertidumbre al que se refieren los poskeynesianos.
las razones aducidas por parte de los poskeynesianos para defender
la idea de racionalidad procedimental son básicamente las siguientes. en el
contexto poskeynesiano, a lo más que un agente puede deliberadamente
aspirar es a adoptar una buena decisión, no necesariamente óptima.
para ellos, los agentes aplican procedimientos (generan instituciones,
siguen rutinas y aplican convenciones o reglas) con el fin de posibilitar este propósito. lavoie (1992) recupera algunos de los principales
procedimientos sugeridos por Keynes y simon para hacer manejable la
toma de decisiones, a saber:
1) emprenda acciones que reduzcan la incertidumbre.
2) cuando una solución satisfactoria ha sido alcanzada, pare de
buscar.
5
en la perspectiva neoclásica, “el conocimiento que tienen los agentes del futuro es tal que
las situaciones de incertidumbre pueden ser reducidas a situaciones de riesgo”. por el contrario,
“Keynes distinguió claramente las situaciones que involucran incertidumbre de aquellas que involucran riesgo, dando énfasis a las primeras (snowdon, Vane y Wynarczk, 1994: 375).
100
esCenarIos de un modelo basado en agentes
3) tome el presente y pasado reciente como guías para el futuro.
4) asuma que la evaluación presente del futuro es correcta.
5) siga la opinión de la mayoría.
6) cuando la incertidumbre es demasiado grande, posponga la
decisión.
estos procedimientos pueden ser clasificados, según su función,
en dos tipos básicos:
i) los que crean el marco para la acción o toma de decisión, es
decir, 1), 2) y 6); y
ii) los que orientan las decisiones en dicho marco, 3) a 5).
Que algunos poskeynesianos llaman, respectivamente, instituciones
marco e instituciones guía. si el propósito es identificar las pautas de
comportamiento que realmente llevan a cabo los agentes, uno podría
aplicar estas reglas para el modelado de la toma de decisión de los
agentes, tal es el caso de la teoría del consumo poskeynesiano.
i) las instituciones marco e información deficiente
en el consumo poskeynesiano
la deficiencia o abundancia de información es particularmente cierto
en el marco de la teoría poskeynesiana de la demanda del consumidor.
según esta teoría, es fundamental distinguir entre necesidades y deseos.
existe una jerarquía de necesidades y, para cada necesidad, diferentes
maneras de satisfacerlas (deseos). Una manera de precisar este comportamiento es modelar a los agentes adoptando un orden lexicográfico,
tal como hemos referido arriba.
en sus decisiones de consumo, los agentes siguen una pauta bien
determinada: comienzan satisfaciendo las necesidades básicas y sólo se
mueven hacia las superiores cuando su ingreso se lo permite. “se asume
que los consumidores poseen un orden de prioridades acerca de los
bienes que pueden comprar cuando aumentan sus ingresos” (arestis,
1992: 125).
siguiendo a G. marqués (González, marqués y Ávila, 2002), en
muchas de sus decisiones, el agente poskeynesiano se fija un nivel de
aspiración (umbral) y considera aceptable (en principio) toda opción
que lo satisface (desde luego, puede aplicar después otros criterios
101
aCtas de eConomÍa y ComplejIdad I
para discriminar en el seno del conjunto factible). esto muestra que
en el marco de información deficiente es posible aplicar la regla 2). si
dispongo de más información de la que puedo procesar, no estoy en
condiciones de optimizar. pero como tengo alguna información, puedo
advertir en ella una opción que satisface mis estándares. asimismo, si
dispongo de información incompleta, puedo hallar en ella lo que considero una buena opción y aprovecharla. la información deficiente no
impide identificar las buenas opciones.
el uso de umbrales permite reducir la complejidad de la situación
y abre paso a la posterior adopción de decisiones aceptables. por ejemplo, podemos acotar, mediante reglas de este tipo, el ámbito de la toma
de decisión de manera que se reduzca el número de opciones factibles
y sólo incluya las que habremos de considerar aceptables. el conjunto
de pocas buenas opciones es entonces construido mediante convenciones.
como cuando uno compra un par de zapatos: dadas ciertas reglas que
acotan el conjunto de artículos elegibles (precio, material, confort, quizás color), uno puede seleccionar entre alternativas que pertenezcan al
conjunto factible. asimismo, si se da inmediatamente con alguno de los
artículos que satisfacen estos requisitos, puede que se le considere una
buena opción y la búsqueda cese.
ii) instituciones guía, rutinas e imitación
en el consumo poskeynesiano
ahora corresponde examinar los procedimientos que orientan la acción
en el caso del consumo, la característica central es que la toma de decisión
se lleva a cabo en condiciones de información deficiente, a diferencia
de la toma de decisión en la inversión cuyo análisis corresponde a las
situaciones de incertidumbre fundamental.
en el caso de la teoría del consumidor en donde la información
es deficiente, una vez “recortado” el conjunto factible de las buenas
opciones el agente puede elegir utilizando alguno de los criterios que
van del 3) al 5), éstos son designados frecuentemente como rutinas, hábitos o rules the thumb y comportamiento imitativo (Gónzalez, marqués
y Ávila, 2002: 185).
en la teoría poskeynesiana muchos de los gastos de consumo (por
ejemplo, los bienes no durables) se realizan por hábito y no insumen
deliberación alguna. estas decisiones no se fundan en reglas del tipo
102
esCenarIos de un modelo basado en agentes
(3) a (5). cuando se produce un aumento en el ingreso, en cambio, los
agentes deben aprender a gastarlo. según la teoría, los agentes reconfiguran sus preferencias lexicográficas y expectativas, y adoptan sus decisiones de consumo, imitando a los integrantes de su nuevo grupo de
ingreso. estas decisiones están pautadas socialmente, además, pueden
ser predecibles empíricamente y son predecibles. el consumidor desea
demostrar que él o ella pertenecen a cierta clase de la sociedad, a cierto grupo dentro de la jerarquía de consumidores. ello trae confort al
consumidor. las unidades de consumo, o al menos, los miembros de
estas unidades, intentarán entonces imitar el comportamiento de otros
consumidores. ellos seguirán las que parecen ser las normas de consumo existentes, para mostrar que pertenecen al estrato apropiado de la
jerarquía (González, marqués y Ávila, 2002: 185).
en este sentido, se dice que el individuo es racional imitando a su
nuevo grupo. si a lo que aspira incorporando la nueva pauta del consumo
es pertenecer a cierto nivel social o ser reconocido como par por un cierto
grupo, entonces su racionalidad puede ser defendida de manera simple:
el tipo de consumo imitativo es un medio para obtener el reconocimiento
buscado. ello es lo que motiva a ciertos individuos enriquecidos a asociarse
con determinados clubes exclusivos o vestirse de cierta manera.
3. El consumo poskeynesiano propuesta de un modelo
basado en agentes, los casos de consumo por moda e imitación
desde los años setenta, se han tratado de explicar comportamientos
de la dinámica social por medio de modelos dinámicos discretos como
en los trabajos del economista thomas schelling sobre segregación de
grupos sociales (schelling, 1971) y del sociólogo james m. sakoda sobre
interacciones sociales (sakoda, 1971). en la actualidad, la modelación
basada en agentes (mba) se ha utilizado en distintas disciplinas como
técnica para modelar sistemas complejos. (axelrod, 1997a, 1997b),
(tesfatsion, 2002, 2003) (conte, et al., 1997). los sistemas basados en
agentes se constituyen por un conjunto de entidades que interactúan
entre ellos y en su entorno a partir de un conjunto de reglas previamente definidas. a partir de la definición de los atributos del agente
y la relación con su entorno, éstos pueden tener cierto grado de autonomía y heterogeneidad; a diferencia de la teoría neoclásica en el que
se plantea la existencia de un agente representativo prototipo. Uno de
103
aCtas de eConomÍa y ComplejIdad I
los aspectos más importantes de la mba es el uso del enfoque bottom up
o de abajo hacia arriba (epstein et al., 1996), el cual permite describir
niveles jerárquicos de organización, que van de lo más simple como la
definición de la dinámica del agente a partir de información local, a lo
más complejo, como el resultado de la dinámica global entre los agentes. la clave para el estudio de la dinámica global son las propiedades
emergentes, aquellas relaciones que no están codificadas en las reglas
locales básicas de interacción pero que describen propiedades importantes de la dinámica del fenómeno real.
en este apartado, se formaliza el consumo poskeynesiano a partir
de un mba. en particular, se asume que la dinámica del consumo está
regida por la interacción local de diversos agentes heterogéneos gobernados por determinadas reglas del consumo poskeynesiano, tales
como, consumo por moda y por imitación. dichas pautas de consumo
permiten pensar en un agente cuyas decisiones se adaptan a su entorno
a lo largo del tiempo.
a) Descripción del modelo
i) agentes y grupos sociales
el modelo asume la presencia de agentes heterogéneos cada uno con
características propias de consumo a partir de su nivel de ingreso, y, a su
vez, éstos pertenecen a uno de los tres grupos sociales también caracterizados por el nivel de ingreso, así se tienen, los grupos de ingreso bajo,
de ingreso medio y de ingreso alto. la dinámica de consumo de cada
agente varía de acuerdo con los cambios en el ingreso y en el entorno.
ii) Hipótesis
la hipótesis de referencia utilizada es la siguiente: el consumo depende del
ingreso corriente, de las costumbres, de los hábitos, de la moda y de la imitación.
a lo largo del tiempo, la formación de expectativas para el caso de dos
periodos es:
Ci(t + 1) = fi(Yi(t), Ci(t – 1), Mi(t))
Ci(t + 2) = fi(Yi(t + 1), Ci(t), Mi(t + 1), Mi(t))
104
esCenarIos de un modelo basado en agentes
donde Ci(t + 1) y Ci(t + 2) denotan el consumo del agente representativo i en los momentos t + 1 y t + 2, respectivamente; Yi(t) y Yi(t +
1) denotan el ingreso corriente del agente representativo del grupo en
los momentos t y t + 1, respectivamente; y Ci(t – 1) denota el consumo
del periodo anterior. y Mi(t) y Mi(t + 1)denotan el entorno del agente
representativo i en los periodos t y t + 1. la función fi define la forma
de consumo en cada periodo de cada agente i.
las hipótesis de referencia adicionales son las siguientes:
• El agente ordena su consumo de acuerdo con sus necesidades a
partir de un orden lexicográfico, se forman categorías de bienes
de acuerdo con las necesidades y los deseos. aunque en este
modelo no es evidente debido a que hay un solo bien para cada
grupo social.
• El grupo social de ingreso bajo, la mayor parte de su ingreso va
al consumo de bienes básicos. en este rubro, se pueden plantear
ponderaciones a los tipos de bienes que el agente consume.
• Cuando el ingreso aumenta (grupos de ingreso bajo e intermedio) los agentes imitan el consumo de su nuevo grupo. el proceso
de adaptación es lento y paulatino.
• El consumo depende del consumo del periodo anterior.
en este modelo se interpretará la moda como el consumo realizado por estar rodeado de determinados vecinos y la imitación será el
consumo realizado cuando aumenta el ingreso consumiendo igual que
su nuevo grupo.
iii) interacción entre agentes
el agente consume de acuerdo con su ingreso y con su entorno. consume por moda de acuerdo con la influencia de sus vecinos y consume
imitando al grupo social al que pertenece. ante cambios en el ingreso,
cada agente pasa con cierta probabilidad de un grupo a otro, imitando nuevamente el consumo de su nuevo grupo social. en resumen, el
consumo de cada agente en cada unidad de tiempo variará de acuerdo
con su ingreso y a sus vecinos.
105
aCtas de eConomÍa y ComplejIdad I
iv) modelación de las prácticas de consumo
la dinámica del agente poskeynesiano se desarrolla sobre una retícula
homogénea de n por m celdas, donde cada celda representa la posición
de un agente en particular, se asume una vecindad tipo Moore, es decir,
cada agente está rodeado por ocho vecinos. se identifica el tipo de
agente a partir de la asignación de una etiqueta como sigue, “B” para el
agente que consume productos de ingreso bajo, “m” para el agente que
consume productos de ingreso medio y “a” para el agente que consume
productos de ingreso alto. para modelar las prácticas de “consumo por
moda” se le atribuye a cada agente un vector de consumo Vc, el cual tiene
tres componentes donde se describe el nivel de consumo que realizó en
el tiempo actual, las entradas del vector son binarias, uno para cuando hay consumo de esta categoría y cero para cuando no lo hay. para
identificar la práctica de consumo de cada agente dentro de la retícula
o entorno se le asigna el color que coincide con la escala rgb6 de su Vc.
en la siguiente tabla se caracterizan los posibles valores.
tabla 1.
tipo de
agente
práctica de consumo
Vector de
consumo
color RGB
“B”
productos de ingreso bajo
(1,0,0)
Rojo
“m”
productos de ingreso medio
(0,1,0)
Verde
“a”
productos de ingreso alto
(0,0,1)
azul
“m”
productos de ingreso medio y bajo
(1,1,0)
amarillo
“a”
productos de ingreso alto y bajo
(1,0,1)
magenta
“m” y “a”
productos de ingreso medio y alto
(0,1,1)
cian
“m” y “a”
productos de ingreso bajo, medio
y alto
(1,1,1)
Blanco
en cada caso se asigna el vector de consumo adecuado. para la
dinámica del agente tipo “B” se asume un vector (1,0,0) para todos los
6
106
es un esquema de composición de colores primarios, rojo, verde y azul.
esCenarIos de un modelo basado en agentes
casos debido a la imposibilidad de consumir productos considerados
de otros grupos.
la parte esencial del modelo es la actualización del vector de consumo, ésta se realiza a partir de la información local. la información local
se divide en tres componentes, la influencia que ejerce el grupo social
de bajos sobre el agente, la influencia que ejerce el grupo de medios
y la influencia que ejerce el grupo de altos. dependiendo de la poca o
mucha influencia es como se asigna el vector de consumo.
para ejemplo, consideremos la actualización del vector consumo
del agente ubicado en la posición (i, j) de la figura 1, en su vecindad de
moore tiene cuatro agentes tipo “B”, dos agentes tipo “m” y dos agentes tipo “a”, la mayor carga de información la proporciona los agentes
de tipo “B”, mientras que los del tipo “a” no contribuyen demasiado, así
que, si el vector de consumo de la clase de “B” es por definición (0,1,0)
ahora se actualizará por “moda en el consumo” a (1,1,0), en resumen,
es un agente tipo “m” que consume como lo hace su propio grupo social y que por influencia externa consume productos considerados como
“bajos”. en la figura 2, se puede ver el vector consumo en escala rgb de
cada agente, se asume que los agentes en la vecindad de moore tienen
vectores consumo propios de su clase.
para minimizar la gran cantidad de casos que existen, no se toman
en cuenta las posiciones explícitas sobre la vecindad y se considera la
cantidad de tipos de agentes que tiene a su alrededor. a la suma de
Figura 1. tipos de agentes
alrededor del agente (i, j).
Figura 2. Vectores consumo
de cada agente representado en escala rgb.
107
aCtas de eConomÍa y ComplejIdad I
agentes de tipo “B” se le llama “sB” a la suma de tipo “m” se le llama
“sm” y a la de tipo “a”, “sa”. en la siguiente tabla se muestran todos
los posibles casos.
tabla 2.
Vector
consumo
agente
casos
Bajo
está limitado y no puede salirse de sus prácticas
de consumo.
(1,0,0)
medio
caso 1: si sm > sB y sm > sa , entonces el agente
consumirá como de ingreso medio.
(0,1,0)
caso 2: si sB < sa y sm < sa, entonces el agente
consumirá como de ingreso medio y alto.
(0,1,1)
caso 3: si sa < sB y sm < sB, entonces el agente
consumirá como de ingreso bajo y medio.
(1,1,0)
caso 4: si sB = sa, entonces el agente consumirá
como de ingreso bajo, medio y alto.
(1,1,1)
caso 1: si sa > sB y sa > sm, entonces el agente
consumirá como de ingreso alto.
(0,0,1)
caso 2: si sm > sB y sm > sa, entonces el agente
consumirá como de ingreso medio y alto.
(0,1,1)
caso 3: si sm < sB y sa < sB, entonces el agente
consumirá como de ingreso alto y medio.
(1,0,1)
caso 4: si sB = sm, entonces el agente consumirá
como de ingreso bajo, medio y alto.
(1,1,1)
alto
las prácticas de “consumo por imitación” del agente dependen
del grupo social al que pertenece; para observar la dinámica que surge cuando hay movilidad entre los agentes generamos un mecanismo
probabilístico de transición entre categorías.
en la figura 3, se muestran esquemáticamente las posibles transiciones entre las distintas clases, se tiene la probabilidad de pasar del
grupo social “B” al “m” denotada por p(Bm), del grupo social “m” al
“B” por p(mB), del grupo social “m” a “a” por p(ma) y del grupo social
“a” a “m” por p(am).
108
esCenarIos de un modelo basado en agentes
Figura 3.
el agente también tiene como atributo una memoria acumulada
de k vectores de consumo Vc; tiene como finalidad mostrar la dinámica
de consumo a lo largo del tiempo, cada tiempo t tenemos una muestra del comportamiento de consumo generado por la interacción local
de sus vecinos. la memoria acumulada funciona como una estructura de datos tipo fifo7 o cola. en la figura 4, se muestra el desempeño
de la memoria.
Figura 4.
7
fifo significa first in first out, primero en entrar primero en salir, ya que el primer elemento
en entrar en el arreglo de datos es el primero en salir.
109
aCtas de eConomÍa y ComplejIdad I
en el tiempo 1, ingresa el primer vector de consumo Vc1, en el
segundo tiempo Vc2, y así sucesivamente, cuando se llega al tiempo k,
se tienen k vectores en la memoria, en el tiempo k + 1 sale el primer
vector que entró, se recorren los elementos e ingresa el vector k + 1.en
cada tiempo, se contabiliza la carga de información de la memoria acumulada de un agente en particular, así, tenemos tres series de datos, la
primera describe el consumo de productos de “bajo”, la segunda, describe el consumo de productos de “medio”, y, la tercera, de productos
de “alto”. las series representan el promedio de consumo a través del
tiempo incluyendo las transiciones entre grupos de un agente en particular. capta la evolución de la memoria y los procesos de adaptación
del agente ante los cambios del medio.
b) Resultados del modelo
el modelo se implementó en el lenguaje de programación java, a continuación se describen algunos resultados. los parámetros de control
del sistema son: el tamaño del sistema, el tamaño de la memoria para
cada agente, y cuatro probabilidades de transición para las distintas
categorías. para identificar a los agentes sobre el espacio, les asignamos
un color, rojo para agentes tipo “B”, verde para “m” y azul para “a”.8
el sistema se inicializa homogéneamente con agentes del tipo “B”. la
dinámica modelada para consumo por imitación hace que los agentes
empiecen a cambiar de grupo social y, por consiguiente, las preferencias
de consumo; por otro lado, la parte del consumo por moda empieza a
influir y los vectores de consumo empiezan a actualizarse dependiendo
de la información del entorno. en la figura 5, se observa la evolución
del sistema en el tiempo t = 500 con un tamaño de 30x30, tamaño de
memoria de 60 y probabilidades de transición, p(Bm) = 0.1, p(mB) =
0.1, p(ma) = 0.1, y p(am) = 0.1, en la primera imagen se muestra la
distribución de los tipos de agentes sobre el entorno, y, en la segunda
imagen, la memoria de cada agente en escala rgb.
en este experimento, se pueden observar los distintos patrones de
consumo, presenta una movilidad grande entre las clases, en promedio,
por cada 10 tiempos el agente cambia de grupo, la población de los
8
para facilitar la visualización los colores en escala rgb coinciden con el vector de consumo
propio del grupo, es decir, para “B” es (1,0,0) para “m” es (0,1,0) y para “a” es (0,0,1).
110
esCenarIos de un modelo basado en agentes
Figura 5.
grupos se mantiene constante en un valor alrededor de 300. los agentes
exploran formas de consumo variadas, esto se refleja en la memoria, por
lo tanto, se observa heterogénea. las zonas cercanas a blanco identifican a los agentes que han consumido de todos los productos, “bajos”,
“medios” y “altos”, debido a la influencia del entorno. en algunos casos,
los agentes tipo “B” tienen memorias “blancas”, la razón es porque en
algún momento fueron agentes tipo “a” y tuvieron la capacidad de consumir productos de todos los tipos, conforme se incrementa el tiempo,
la memoria se actualiza a partir del grupo en el que se encuentre, se
van remplazando las pautas de consumo antiguas.
en el siguiente experimento el modelo se alimenta con los siguientes parámetros, tamaño de 30 × 30, tamaño de memoria de 60
y probabilidades de transición, p(Bm) = 0.01, p(mB) = 0.1, p(ma) =
0.001, y p(am) = 0.01. en la figura 6, se muestra la visualización del
programa.
se puede observar una menor diversidad en los patrones de consumo, predominan los agentes tipo “B”, pues la transición de Bm es
baja y la de mB es alta en comparación de las demás, así, el grupo social
“B” mantiene una población grande, sucede lo contrario con el grupo
“a” el cual es reducido en proporción de 1 a 100 con el grupo “B”,
mientras que el grupo “m” se mantiene en una proporción de 1 a 10
con el grupo “a”. la memoria exhibe muy poca diversidad, las celdas
111
aCtas de eConomÍa y ComplejIdad I
Figura 6.
moradas muestran agentes tipo “a” que también consumen productos
de “B”, y las celdas en tonos amarillos muestran el grado de consumo
de agentes tipo “m” sobre productos tipo “B”.
las visualizaciones nos muestran la dinámica global en un tiempo
determinado, para analizar la dinámica de un agente en particular
graficamos el estado de la memoria para n tiempos. en las figuras 7 y
8, se observa la evolución de la memoria en 3 dimensiones de los dos
experimentos previos, cada componente muestra el nivel de consumo
del tipo “B”, “m” y “a” para un agente en particular.9
las trayectorias generadas por la memoria indican la diversidad de
consumo que presentó en promedio el sistema, vemos que hay dinámicas más restringidas que otras. en la figura 7, se muestra un “atractor”
acotado en una región, el cual muestra una gran número de combinaciones en los rangos de memoria; el agente pasó de una categoría a otra
permitiendo diversos patrones de consumo; por el contrario, en la figura
8, se observa que el agente inició como tipo “B” y en algunas ocasiones
fue de tipo “m”; siguiendo la trayectoria, el consumo de productos “bajos” se incrementó hasta alcanzar el límite de memoria de consumos de
productos “B” en el valor de 60, posteriormente, consumió como del
tipo “m” generando una línea recta sobre la componente “medio”.
9
112
se tomó el agente posicionado en el centro del sistema.
esCenarIos de un modelo basado en agentes
Figura 7. experimento 1.
Figura 8. experimento 2.
la variación de los parámetros de transición es uno de los aspectos
más interesantes del modelo, se mostró la dinámica de dos experimentos de una infinidad de posibles casos. para hacer un estudio a fondo
y completo de la dinámica es necesario hacer diagramas fases sobre la
dinámica de la memoria.
Conclusiones
el experimento expuesto nos deja varias lecciones e inquietudes sobre el
proceso de toma de decisión del agente económico observado, mismas
que recuperamos a manera de reflexiones.
a) en la teoría del consumidor poskeynesiana hemos insistido en
que la racionalidad de procedimiento le da un carácter descriptivo al
113
aCtas de eConomÍa y ComplejIdad I
comportamiento económico del agente, en el sentido de que interesa el
proceso de toma de decisión, en particular, interesa ilustrar la búsqueda
que realiza el agente para encontrar soluciones satisfactorias. en el experimento, la racionalidad de procedimiento se matiza cuando nuestro
agente tiene que tomar sus decisiones ante un entorno cambiante, es
un proceso de búsqueda continua a lo largo del tiempo cuando cambia
su nivel de ingreso y su entorno. en este sentido se habla de un agente
adaptativo.
el contraste con la teoría neoclásica es radical, en la teoría neoclásica del consumidor no interesa el proceso de toma de decisión, enfatiza
en lo que debería hacer un agente para alcanzar un objetivo. para ello, el
hombre económico racional de la teoría neoclásica es capaz de predecir
los acontecimientos futuros, de utilizar una distribución de probabilidades para trazar todas las alternativas posibles o de formar expectativas
integrando todo el conocimiento disponible. al modelizar el comportamiento de los agentes individuales, la teoría neoclásica les atribuye
superpoderes, tales como, conocimiento perfecto, cálculo instantáneo
y sin costos. en cambio, en la teoría del consumidor postkeynesiana, la
racionalidad limitada impone un conocimiento parcial, capacidad de
cómputo limitado, capacidad de pronóstico restringido, y generación y
evaluación de alternativas costosa. el experimento ilustra nítidamente
estos aspectos de la racionalidad limitada.
b) en la teoría del consumidor neoclásica la racionalidad global
restringe el problema de elección del consumidor a un óptimo, en donde el equilibrio parcial es único y estable. en cambio, en la teoría del
consumidor poskeynesiana la racionalidad limitada le permite al agente
buscar soluciones satisfactorias, aquí existe la posibilidad de soluciones
múltiples dada la interacción entre los agentes y su entorno. nuestro
ejercicio tiene como principal implicación todo un conjunto satisfacción
del consumidor, el cual puede representar la historia del proceso de
toma de decisión del consumidor a lo largo del tiempo.
este conjunto de satisfacción tiene que ver no sólo con el proceso
de toma de decisiones, es la búsqueda de soluciones satisfactorias que
dependen de las costumbres, la cultura, las instituciones, la historia,
la capacidad cognitiva del agente, aspectos que no encontramos en la
teoría convencional.
c) la forma de ver y reflexionar el comportamiento del consumidor
es distinta. la forma en que se estudia economía es distinta, aquí, en
primer lugar, interesa la observación del fenómeno económico, después,
114
esCenarIos de un modelo basado en agentes
se hace abstracción de dichos hechos a partir de supuestos no tan restrictivos, se formaliza y se simula a partir de cierta heurística en busca
de patrones y regularidades empíricas del fenómeno en cuestión.
en esta visión, el objeto de estudio de la economía es “la naturaleza
de la realidad económica”, importan los hechos económicos, no suponer
un modelo lógico matemático alejado de la realidad económica. aquí, los
métodos de investigación se adaptan a la modelización de esa realidad
económica. en nuestra propuesta se modelan los aspectos reales del
comportamiento económico, agentes cuyo comportamiento se basan en
reglas sencillas sustentadas en los hechos económicos llamadas consumo
por moda e imitación, no es un agente idealizado en donde las reglas de
decisión tengan que ser pronosticadas por la teoría económica, tal como
sucede en los modelos de expectativas racionales.
d) en el modelo de comportamiento del consumidor poskeynesiano
está presente la noción de agente adaptativo de simon, en donde las
decisiones del agente dependen de las decisiones de los demás y que
influyen sobre el entorno. a diferencia de la economía convencional que
estudia los patrones de comportamiento coherentes con los agregados,
en el sistema propuesto se estudia el cómo las acciones podrían reaccionar y endógenamente cambiar con los patrones agregados a que dan
lugar, se trata de un enfoque del consumidor que presenta propiedades
de un sistema complejo evolutivo.
esta idea de agente adaptativo con racionalidad limitada permite
alejarnos de la noción de sistema cerrado y determinista presente en
la escuela del consumidor neoclásica a favor de un sistema abierto en
donde existe una interacción entre el todo y las partes. en esta visión
de la economía, al detectarse la interacción entre el todo y las partes
lo que se gana es la caracterización bidireccional de las relaciones de
causa y efecto entre los elementos del sistema y su dinámica a lo largo
del tiempo, fenómeno conocido como feedback. sin duda, esto también
tiene que ver con el reconocimiento de la naturaleza del sistema económico.
adicional, lo relevante de este enfoque es que se aplica tanto fuera
del equilibrio como en equilibrio, las expectativas no tienen que ser consecuentes con su resultado, tal como exigen las expectativas racionales,
y se aplica generalmente a problemas basados en agentes en donde las
expectativas se implican, tal como sugiere Brian arthur (2005). Una
vez más, el proceso de toma decisión en el tiempo tiene que ver con los
patrones que crean y cómo reaccionan ante cambios en el agregado, se
115
aCtas de eConomÍa y ComplejIdad I
trata de una nueva forma de estudiar el comportamiento del consumidor
que tiene fuertes implicaciones sobre la economía.
Bibliografía
arestis, p. (1992) The postkeynesian approach to economics. edward elgar.
arthur, W. Brian (2005) out-of-equilibrium economics and agentbased modelling. en K. judd y l. tesfatsion (eds.), Handbook of
computational economics, Vol. 2: Agent-based computational economics.
elsevier/north-Holland, forthcoming.
axelrod, R. (1997a) advancing the art of simulation in the social sciences.
en conte R., Hegselmann, R. y terna, p. (eds.) simulating social
phenomena. Lecture notes in economics and mathematical systems, 456:
21-40. Berlín: springer-Verlag.
axelrod, R. (1997b) The complexity of cooperation: Agent based models of
competition and collaboration. princeton nj: princeton University
press.
Barros, Gustavo (2010) Herbert a. simon and the concept of rationality:
Boundaries and procedures. Brazilian Journal of Political Economy,
vol. 30, núm. 3 (119): 455-472.
conte, R., Hegselmann, R. y terna, p. (1997) simulating social phenomena.
eichner, a. s. (1984) Economía Postkeynesiana, trad. miguel morán madrid, españa: Hermann Bulme.
epstein, j. m. y axtelle, R. l. (1996) Growing artificial societies: Social science
from the bottom up. cambridge, mass. y londres: the mIt press.
Galbraith, j. K. (1955) The affluent society. Boston: Houghton mifflin. (en
versión castellana: La sociedad opulenta. Barcelona: ariel, 1960).
González, Wenceslao j.; marqués, Gustavo y alfonso Ávila (2002) Enfoques
filosófico-metodológicos en economía. méxico: fCe.
Georgescu-Roegen, n. (1966) Analytical economic isues and problems. cambridge, mass: Harvard University press.
Klaes, matthias y esther mirjman sent (2005) History of Political Economy,
37:1.
lancaster, K. (1971) Consumer demand: A new approach. nueva york:
columbia University press.
lavoie, marc (1992) Foundations of poskeynesian economic analysis. edward
elgar.
116
esCenarIos de un modelo basado en agentes
lavoie, marc (2005a) ¿las teorías heterodoxas tienen algo en común?
Un punto de vista poskeynesiano. Lecturas de Economía, 63, juliodiciembre: 43-76.
lavoie, marc (2005b) La economía poskeynesiana: un antídoto del pensamiento
único. icaria y antrazyt.
lutz, m. a. y lux K. (1979) The challenge of humanistic economics. menlo
park, california: Benjamin/cummins.
mass-colell, a.; Whinston michael y jerry Green (2005) Microeconomic
theory. oxford University press.
Resnik, m. (1998) Elecciones. Una introducción a la teoría de la decisión.
Barcelona, españa: Gedisa.
sakoda, j. (1971) the checkerboard model of social interaction. Journal
of Mathematical Sociology, vol. 1, núm. 1: 119-131.
schelling, t. c. (1971) dynamic models of segregation. Journal of Mathematical Sociology, 1(2): 143-186.
shi, yong et al., (eds.) (s.f.) Lecture notes in economics and mathematical
systems, 456. Berlín: springer.
simon, H. (1976) de la racionalidad sustantiva a la procesal. en F. Hahn
y martin Hollis (comps.), Filosofía y teoría económica. méxico: fCe:
130-171.
snowdon, B., Vane, H. y Wynarczyk, p. (1994) A modern guide to macroeconomics. cambridge: edward elgar.
tesfatsion, l. (2002) agent-based computational economics: Growing
economies from the bottom up. Artificial Life, 8(1): 55-82.
tesfatsion, l. (2003) agent-based computational economics: modeling
economies as complex adaptive systems. Information Sciences, 149(4):
263-269.
117
sIstemas Complejos, CambIo teCnológICo
y oleadas de desarrollo
Edgar Acatitla Romero*
El mundo no es una máquina.
Todo en él es fuerza, vida, pensamiento.
Gottfried Wilhelm leibniz
Introducción
e
l propósito del presente capítulo es mostrar el uso de uno de los
métodos propuestos bajo la teoría de sistemas complejos (tsC) para
el estudio de los sistemas complejos: la modelación matemática con base
en la teoría de sistemas dinámicos (tsd). el estudio de la dinámica no
lineal que caracteriza los sistemas complejos permite identificar pautas
globales de comportamiento que describen estos sistemas, así como
describir su evolución.
se argumenta que los sistemas biológicos y socioeconómicos son
sistemas complejos adaptativos. se propone a la tsd para analizar, en particular, la evolución que siguen los sistemas socioeconómicos. a manera
de ejemplo, se presenta una propuesta de formalización matemática de
algunas ideas centrales contenidas en el marco conceptual e interpretativo de carlota pérez, referido a las oleadas de desarrollo que han caracterizado históricamente a los países del centro o países desarrollados,
generadas por la irrupción y difusión de revoluciones tecnológicas, las
cuales muestran un patrón en su dinámica temporal: una forma de “s”
alargada. el modelo matemático muestra cómo, de acuerdo con la teoría
de carlota pérez, la forma de “s” alargada puede cambiar de acuerdo
con una gama amplia de factores. pero también muestra la importancia de la modelación matemática en el estudio de sus condiciones de
posibilidad ya que, bajo ciertas condiciones, la difusión del paquete de
* Facultad de contaduría y administración, unam.
119
aCtas de eConomÍa y ComplejIdad I
innovaciones en las industrias de la economía podría resultar frustrada.
estos resultados son importantes en el marco de la teoría económica y, en
particular, en cuanto a la naturaleza de los fenómenos socioeconómicos,
los cuales no parecen tender a una situación de equilibrio estable sino,
por lo contrario, se alejan de dicha situación al evolucionar.
1. Sistemas complejos y su descripción matemática
Bajo el paradigma conocido como teoría de sistemas complejos (tsC),
los sistemas sociales y, en particular, los económicos, pueden ser considerados como sistemas complejos adaptativos ya que, en forma semejante a los sistemas biológicos, presentan propiedades emergentes como
la aptitud que se expresa a través de cambios en la dinámica interna,
dada a su vez por las interacciones entre los componentes del sistema,
ante cambios en el entorno. en este sentido, se dice que los sistemas
complejos adaptativos evolucionan en el tiempo.
esta forma de concebir los sistemas sociales y económicos, se opone
a la forma en que, se supone, funciona la economía bajo el paradigma de
la vertiente neoclásica u ortodoxa. según esta escuela de pensamiento,
la economía tiende por naturaleza al equilibrio de mercado. en esta idea
están implícitos otros supuestos: primero, que la organización social se
da a través del mecanismo de mercado y, segundo, que por tal motivo,
el mecanismo de mercado y su tendencia al equilibrio constituyen el
dominio de estudio de la economía como ciencia. la implicación más
importante de esto es que, cualquier otro factor ajeno a este mecanismo
generará problemas en la organización social.
así pues, están en juego dos concepciones opuestas acerca del
funcionamiento de los sistemas sociales y económicos: la neoclásica u
ortodoxa que pone énfasis en un solo comportamiento: el equilibrio; y
la correspondiente a la tsC, que pone énfasis en la variedad y diversidad
de comportamientos o estructuras que adquieren los sistemas sociales
y económicos en su evolución.
ahora bien ¿qué importancia tiene la teoría de sistemas dinámicos
(tsd) en el estudio de los sistemas sociales y económicos como sistemas
complejos? para ofrecer una posible respuesta a esta pregunta hay que
comenzar con una breve caracterización de lo que es la tsd.
la tsd puede considerarse como un área de la matemática que
se encarga de estudiar el comportamiento dinámico de los fenómenos
120
sIstemas Complejos, CambIo teCnológICo y oleadas de desarrollo
(naturales o sociales) a través de su representación matemática. la representación matemática de un fenómeno para estudiar su comportamiento
dinámico es una abstracción, en tanto que se consideran algunas variables, pero se omiten otras. de esta forma, esta representación matemática
es un modelo. a través de las soluciones de los modelos matemáticos, es
posible saber aspectos cualitativos del comportamiento dinámico de los
fenómenos. se puede afirmar que la tsd constituye una metodología para
el estudio del comportamiento dinámico de los fenómenos. el método
de la tsd se puede resumir en lo siguiente:
mediante la observación y la experimentación se obtiene una primera
idea sobre el comportamiento de dicho fenómeno, pasando entonces a la
fase de modelización, consistente en dar forma a dicha idea en términos
matemáticos, para lo cual resulta imprescindible su descripción en términos cuantitativos. Una vez cubiertas estas dos primeras fases, se busca una
solución matemática del modelo. el camino para alcanzar tal objetivo es
recorrido haciendo uso de las técnicas y razonamientos lógicos propios de
la matemática. el posterior estudio cuantitativo y cualitativo de la solución
obtenida nos permite, tras la correspondiente interpretación en términos
físicos, arrojar tanta luz como sea posible sobre el fenómeno objeto de
estudio. las conclusiones así obtenidas habrán de ser contrastadas empíricamente para establecer hasta qué punto el modelo matemático se
puede considerar aceptable, desechándolo o refinándolo si fuese necesario
y estableciendo a su vez sus límites de validez. (pérez-cacho, 2002: 1)
Un ejemplo interesante que muestra el seguimiento de este método
es la representación matemática de la dinámica que siguen dos poblaciones de especies, en la que una es la presa y la otra la depredadora.
la observación de esta dinámica la dio a conocer charles darwin en su
famosa obra El origen de las especies, a mitad del siglo xIx. en palabras
de darwin:
de la alta progresión en que tienden a aumentar todos los seres orgánicos, resulta inevitablemente una lucha por la existencia. todo ser que
durante el tiempo natural de su vida produce varios huevos o semillas
tiene que sufrir destrucción durante algún periodo de su vida, o durante
alguna estación, o de vez en cuando en algún año, pues, de otro modo,
según el principio de la progresión geométrica, su número sería pronto
tan extraordinariamente grande, que ningún país podría mantener el
121
aCtas de eConomÍa y ComplejIdad I
producto. de aquí que, como se producen más individuos que los que
pueden sobrevivir, tiene que haber en cada caso una lucha por la existencia, ya de un individuo con otro de su misma especie o con individuos de
especies distintas, ya con las condiciones físicas de la vida […] la cantidad de alimento para cada especie da por supuesto el límite extremo al
que puede aumentar cada una; pero muy a menudo no la obtención de
alimento, sino servir de presa a otros animales, es lo que determina el
número promedio de una especie. (darwin, 1992: 83-86)
Resulta interesante cómo esta hipótesis de darwin, con base en observaciones sobre la dinámica que muestran las poblaciones de distintas
especies y en algunos cálculos, haya sido modelada matemáticamente
en las décadas de 1920 y 1930 por alfred lotka, con aplicaciones en la
química, y por Vito Volterra, con aplicaciones en la biología, de manera
independiente. en ambos casos, la hipótesis de darwin fue respaldada
con muchos datos que desembocaron, finalmente, en un sistema de
ecuaciones diferenciales no lineales que representa las interacciones entre
dos especies, donde una es la presa y la otra depredadora. las soluciones
del sistema de ecuaciones muestran resultados muy interesantes que se
expresan a través de dos leyes: la ley de ciclo periódico, la cual, señala
que las fluctuaciones de las poblaciones del depredador y su presa son
periódicas; y la ley de los promedios, la cual establece que las poblaciones
promedio de depredador y presa durante un ciclo son constantes.
el ejemplo anterior muestra la potencialidad que tiene el uso de la
matemática para estudiar la dinámica de los fenómenos: ayuda a describir pautas o patrones de comportamiento comunes entre procesos de
distinta naturaleza. en este sentido se habla de “universalidad” de los
sistemas dinámicos en el contexto de la tsd. el modelo lotka-Volterra
posee esta cualidad, pues describe la dinámica de sistemas que tienen
una peculiaridad: que entre sus componentes hay conflicto y simbiosis
al mismo tiempo. así, este modelo, además de ser útil para estudiar la
dinámica de poblaciones de distintas especies en el ámbito de los sistemas biológicos, también ha sido utilizado para modelar situaciones
de conflicto–simbiosis en economía. Fue el economista norteamericano
Richard m. Goodwin quien, en 1967, logró trasladar el modelo de lotkaVolterra a la economía siguiendo también ideas de Karl marx.
en el ámbito de la tsd, es posible clasificar el tipo de dinámica que
llevan a cabo los distintos fenómenos modelados. así, se distinguen dos
tipos de procesos: los lineales y los no lineales:
122
sIstemas Complejos, CambIo teCnológICo y oleadas de desarrollo
Un proceso es lineal si el resultado de una acción es siempre proporcional a su causa: al doble de fuerza, doble de trabajo; al triple de fuerza, el
triple de trabajo. al factor constante que media entre la causa y el efecto
se le llama factor de proporcionalidad. en los sistemas que poseen dinámicas lineales es válido el principio de superposición: la adición de soluciones
da lugar a una nueva solución. los sistemas que no cumplen con estas
premisas se llaman no-lineales. (miramontes, 1999: 73)
los sistemas complejos son procesos no lineales, ya que no satisfacen las condiciones necesarias anteriores que cumplen los procesos
lineales. de esta forma, una peculiaridad de los sistemas complejos
es que causas de magnitud pequeña pueden generar efectos de gran
magnitud y, por lo contrario, causas de gran magnitud pueden generar efectos pequeños. evolucionan de manera natural hacia un estado
crítico en el que una pequeña perturbación puede generar efectos de
cualquier magnitud. esto significa que las causas que producen efectos
insignificantes para el sistema, son las mismas que producen efectos
catastróficos. a esta propiedad se le conoce como criticalidad autorganizada. Un ejemplo de criticalidad autorganizada en la economía puede
ser el comportamiento fluctuante en el tiempo de variables como el producto interno bruto (pIb); la inversión (I); el nivel de empleo (e), entre
otras. las series de tiempo correspondientes a estas variables reportan
la existencia de fluctuaciones de distintos tamaños. en general, se observa que muchas fluctuaciones pequeñas van acompañadas de algunas
fluctuaciones de gran magnitud. esto quiere decir que el mismo mecanismo causal que produce las fluctuaciones pequeñas, puede producir
también las fluctuaciones a una escala mayor. si esto es así, entonces la
economía opera en un estado crítico donde surge la autorganización. el
reto consiste en hallar el conjunto de reglas que describen la forma en
que opera la economía bajo dicho estado. Una vez descifradas dichas
reglas, se podrían representar matemáticamente utilizando sistemas de
ecuaciones diferenciales no lineales.
cabe señalar que, bajo esta hipótesis, la teoría del ciclo económico tendría una explicación alternativa a la que propone la escuela ortodoxa, es decir, a la teoría que afirma que las fluctuaciones de menor
magnitud son producidas por shocks exógenos de menor magnitud y,
que las fluctuaciones de mayor magnitud son producidas por shocks exógenos de gran magnitud. los últimos trabajos de Goodwin (Goodwin,
1990) apuntan en esta línea de proponer a priori un mecanismo causal
123
aCtas de eConomÍa y ComplejIdad I
endógeno productor de fluctuaciones de distinto tamaño. en el santa Fe institute, el centro de investigación de los sistemas complejos de
vanguardia a nivel mundial, desde su fundación en los años ochenta
del siglo pasado, los trabajos de Brian arthur también apuntan en este
sentido pero, a diferencia de Goodwin, el estudio de dicho mecanismo
causal parte del estudio mismo de los datos.
de esta forma, debido a que los sistemas complejos son procesos
no lineales, no es posible predecir su comportamiento más allá de un
limitado horizonte temporal. esto ocurre porque sus estados espaciotemporales se modifican al cambiar la dinámica interna, como resultado
de un proceso de adaptación, ante modificaciones en las restricciones
dadas por el entorno. en su descripción matemática, la teoría de bifurcaciones ofrece herramientas de análisis que permiten estudiar esta
dinámica ante cambios en los valores de los parámetros, los cuales
representan las interacciones con el entorno. el tránsito de un estado
espaciotemporal a otro distinto se le conoce como ruptura de simetría.
los sistemas biológicos, que son sistemas complejos, evolucionan de esta
forma. Un ejemplo muy claro de lo que es una ruptura de simetría es la
evolución del cigoto o huevo que da origen a un ser humano. primero,
una vez que el espermatozoide ha fecundado al óvulo, el cigoto tiene
una estructura espaciotemporal homogénea. sin embargo, después de
cierto tiempo, el cigoto crece y las células que lo componen se dividen
y se organizan, por sí solas, en diferentes partes que, funcionalmente,
desempeñarán las actividades de los diferentes órganos del cuerpo humano: corazón, riñones, ojos, etc. las divisiones que muestra el cigoto
en este proceso, representan rupturas de simetría, ya que la estructura
homogénea del cigoto se rompe al fraccionarse de manera espacial y
funcionalmente. algo semejante ocurre con una economía cuando ha
transitado de una fase en que predominaba la actividad agrícola, a otra
fase en que esta actividad ha perdido importancia, aunque no ha desaparecido, y ha cedido su lugar a la actividad industrial. Hay que hacer
notar, que estos cambios estructurales tendrían que verse reflejados en
el comportamiento fluctuante de las variables macroeconómicas, esto
es, en el comportamiento del ciclo económico.
en el marco de la tsC, el estudio de los sistemas complejos como
procesos no lineales a través de su descripción matemática permite
identificar propiedades a un nivel global del sistema, las cuales son,
debido a ello, de carácter cualitativo. así, el propósito de su modelación
matemática no reside en la pretensión de predecir su comportamiento
124
sIstemas Complejos, CambIo teCnológICo y oleadas de desarrollo
sino, mejor dicho, en comprender las propiedades cualitativas que emergen de su dinámica como una totalidad. de esta forma, es posible saber
en qué sentido cambiará la dinámica espaciotemporal de un sistema
complejo a través de su representación matemática, pero no es posible
predecir con exactitud cuándo lo hará. en ello reside la importancia
y el potencial de la matemática como un método en el estudio de los
sistemas complejos.
por otra parte, como se afirmó al inicio del presente capítulo, un
modelo matemático es una representación abstracta de un fenómeno,
en este caso, de un sistema complejo específico. puede ser que el sistema complejo a estudiar se componga, a su vez, de otros sistemas que
también son complejos. por ejemplo, una neurona puede ser un sistema
complejo y formar parte, como componente, de otro sistema complejo,
que sería el sistema nervioso central. no obstante, si el sistema complejo a estudiar es el sistema nervioso central, entonces sus componentes
(las neuronas), que también son sistemas complejos, tendrían que ser
consideradas como componentes simples. este supuesto permite aplicar
el principio de parsimonia en la modelación matemática e identificar
pocas variables que permitan la descripción del estado de estos componentes que se suponen simples. la modelación matemática ofrece la
posibilidad de representar la dinámica de un proceso en distintas escalas y a través de una “maqueta” que permite modificar las condiciones
iniciales y las restricciones dadas por el entorno, y explorar distintas
posibilidades de comportamiento del sistema a través del tiempo.
a manera de ejemplo, se expondrá en este capítulo, la descripción matemática de un proceso específico de la economía, que resulta
importante para comprender otros procesos económicos y sociales: la
dinámica que sigue la difusión de un paquete de innovaciones tecnológicas generado por una revolución tecnológica y, los efectos de esta
dinámica, sobre el desarrollo socioeconómico de un país. sin embargo,
antes de llevar a cabo esta exposición, se revisarán algunos conceptos
centrales para sustentar la interpretación fenoménica de los resultados
que arroje el modelo matemático.
2. Revoluciones tecnológicas y oleadas de desarrollo
Uno de los tópicos centrales en la ciencia económica es el de explicar
por qué y cómo se desarrolla la economía de un país. pero ¿qué es el
125
aCtas de eConomÍa y ComplejIdad I
desarrollo económico? la respuesta a esta pregunta cambia según la vertiente teórica. esto significa que la noción del término desarrollo económico
depende del marco conceptual o teórico en el que se use. no obstante,
a pesar de esta dificultad semántica, se acepta entre los economistas
que, en general, hablar de desarrollo económico alude a un proceso donde
los cambios observados en las variables económicas tienen un impacto
sobre variables que, en promedio, reflejan las condiciones de vida de
una población. por ejemplo, el impacto que tiene la tendencia creciente
observada de variables como el pIb, la inversión y el nivel de empleo
en la economía de un país, sobre otras variables como alimentación,
educación, salud, etc., que son variables de carácter cualitativo porque,
de alguna forma, miden aspectos relacionados con las condiciones en
que vive la población de ese país.
ahora bien, la evidencia histórica muestra que el desarrollo económico no representa un proceso lineal, pues el incremento en el pIb, la
inversión y el empleo en un cierto periodo de tiempo, puede no implicar
el mejoramiento de las condiciones de vida de la población de un país,
e, incluso, podrían empeorar. esto supone que las dinámicas generadas
por los mecanismos causales que producen el desarrollo económico,
son no lineales. los factores involucrados son diversos y la forma en
que se hallan relacionados entre sí, sigue dinámicas no lineales. esto
explica por qué las medidas de política económica que pueden detonar
el desarrollo en un país, sean insuficientes, y, del mismo modo, perjudiciales, en otro país. se trata pues, de un proceso complejo. no obstante,
resulta sorprendente que el pensamiento lineal predomine en la ciencia
económica ya sea a un nivel teórico, como en la teoría ortodoxa, o a un
nivel de política económica bajo el supuesto de que las “recetas” tienen
efectividad universal a pesar de que la evidencia muestra que, en la
mayoría de los casos, han resultado ser un fracaso.
en este sentido, la propuesta teórica de carlota pérez muestra su
relevancia ya que, siguiendo una perspectiva evolucionista en economía, presenta un marco conceptual e interpretativo sobre el desarrollo
económico visto como un proceso no lineal. de esta forma, partiendo
de trabajos ubicados en distintas áreas del conocimiento: economía,
biología y filosofía, y, apoyándose en una perspectiva histórica, carlota
pérez logró formular un marco conceptual que ayuda a comprender la
relación que existe entre progreso tecnológico y desarrollo económico. su trabajo es interdisciplinario porque su objeto de estudio es un
proceso no lineal, es decir, es un sistema complejo. lo relevante de su
126
sIstemas Complejos, CambIo teCnológICo y oleadas de desarrollo
propuesta, es que logró vincular factores que habían sido estudiados
por separado en la economía, principalmente en la vertiente ortodoxa.
en sus propias palabras:
[…] existe una sorprendente desconexión entre los economistas estudiosos
de las finanzas, por una parte, y los del cambio técnico, por la otra. los
seguidores de schumpeter no se han ocupado de los aspectos financieros
del proceso económico […] por su parte, los estudiosos de las finanzas —y
en particular de las crisis financieras— rara vez han prestado atención
a la economía real de la producción de bienes y servicios […] este libro
intenta entretejer juntas estas dos cuestiones dentro de una perspectiva
interdisciplinaria amplia, trascendiendo las fronteras de la economía.
(pérez, 2002: 20-21)
de la teoría de joseph schumpeter, carlota pérez recuperó la idea
de que el cambio tecnológico se halla en el centro del mecanismo que
explica la presencia de ciclos largos. así, en la fase de contracción del
ciclo largo, aumentan los descubrimientos tecnológicos cuya aplicación
en la industria tiene lugar en la siguiente fase del ciclo largo, es decir,
en la fase expansiva. por otra parte, de la propuesta de thomas s. Kuhn
para comprender el progreso de la ciencia, carlota pérez recuperó el
concepto de paradigma. Kuhn usó el término paradigma para referirse a
dos aspectos de la ciencia: como el conjunto de teorías, supuestos ontológicos y criterios metodológicos involucrados en la actividad científica,
y como modelo a seguir, sobre todo en los periodos de ciencia normal,
donde una teoría exitosa se extiende para explicar más elementos del
dominio de estudio en un área de la ciencia o, incluso, en otras áreas de
la ciencia. carlota pérez usó este segundo sentido pero en el contexto de
la tecnología para explicar cómo se difunden las innovaciones tecnológicas en las diferentes industrias de una economía. en este sentido, usa el
término paradigma tecnoeconómico. ahora bien, así como Kuhn se refirió
a las revoluciones científicas en el sentido de “cambios de paradigma”, de
manera análoga, carlota pérez se refiere a revoluciones tecnológicas en el
sentido de “cambio de paradigma tecnoeconómico”. y de la biología,
retomó la idea de la evolución como un proceso en el que los seres vivos
se adaptan a las condiciones del entorno, lo cual implica cambios en su
comportamiento. su propuesta interpretativa del desarrollo económico,
es grosso modo la siguiente.
127
aCtas de eConomÍa y ComplejIdad I
2.1 La interpretación de Carlota Pérez sobre revoluciones
tecnológicas y las oleadas de desarrollo
en su libro Revoluciones tecnológicas y capital financiero, carlota pérez presenta su interpretación sobre las revoluciones tecnológicas y las oleadas
de desarrollo características de las economías del centro. de acuerdo
con ella, una vez que irrumpe una revolución tecnológica en algunas empresas, se difunde en las industrias a través de la conformación de un
nuevo paradigma tecnoeconómico. Éste define el modelo y el terreno de las
prácticas innovadoras “normales”, prometiendo el éxito a quienes sigan
los principios encarnados en las industrias–núcleo de la revolución. el
proceso de difusión tanto de la revolución como de su paradigma a lo
largo y ancho de la economía constituye una gran oleada de desarrollo.
cada oleada consta de dos periodos distintos: el de instalación y el de
despliegue, separados por un intervalo de reacomodo más o menos a
la mitad de cada oleada. a su vez, cada periodo está dividido en dos
fases sumando cuatro fases en cada oleada: irrupción, frenesí, sinergia y
madurez, separadas las dos primeras de las segundas por un intervalo de
reacomodo. cada oleada de desarrollo describe una trayectoria a través
del tiempo en forma de “s” alargada, con duración de 50 o 60 años.
al término de cada oleada, la estructura productiva se eleva a un nivel
mayor de productividad promedio, al mismo tiempo que establece un
tejido distinto de vinculación entre las ramas de la economía. en este
proceso, el marco institucional se adapta a cada paradigma tecnoeconómico
y determina, a su vez, la dirección preferencial para el despliegue del
potencial tecnológico y la manera como se distribuirán los frutos. sin
embargo, esta adaptación se convierte en obstáculo ante la introducción
y difusión de un nuevo paradigma tecnoeconómico motivado por la próxima revolución tecnológica. esto implica un proceso de destrucción creadora
institucional, es decir, el desmantelamiento del viejo marco institucional
y la instalación gradual de uno nuevo.
por su parte, el capital financiero hace posible la sucesión de oleadas
de desarrollo. de esta forma, al final de cada oleada el capital financiero
se independizará del capital productivo y contribuirá respaldando a
los emprendedores en la difusión de la siguiente revolución tecnológica.
no obstante, una vez iniciada ésta, el capital financiero llevará a la
economía en ascenso hacia una inmensa burbuja de riqueza de papel
y, en ese momento, el capital productivo tomará el mando y conducirá
a la economía a un proceso de crecimiento más ordenado. este proceso
128
sIstemas Complejos, CambIo teCnológICo y oleadas de desarrollo
ocurre en el intervalo de reacomodo, más o menos a la mitad de cada
oleada. el proceso en su conjunto se repetirá en cada oleada.
después de esta breve exposición de la propuesta interpretativa
de carlota pérez, cabe hacer algunas aclaraciones. en primer lugar,
hay que señalar que las oleadas de desarrollo no son un sinónimo de
los ciclos económicos. las primeras, representan un proceso sistémico
más amplio donde los factores social e institucional tienen un papel
central, primero en la resistencia y luego en la fluidez, en el desenvolvimiento de la revolución tecnológica. en este punto, carlota pérez
hace la distinción entre su perspectiva y la perspectiva común en la
teoría económica que ve el ciclo económico como un proceso exógeno
(en el caso de la teoría neoclásica) y endógeno (en el caso de la teoría
poskeynesiana). para ella, no representa un proceso endógeno en el
sentido de que es posible explicarlo recurriendo solamente a variables
económicas sino que, más bien, se trata de un proceso sistémico en el
que no sólo intervienen variables económicas sino también variables
sociales, políticas y culturales y, por ello, debe estudiarse en forma
interdisciplinaria.
en segundo lugar, el mecanismo causal descrito no ocurre en forma mecánica. esto significa que la velocidad en la que se difunde una
revolución tecnológica, primero entre las industrias de la economía del
país del centro donde irrumpe la revolución y luego hacia las economías
periféricas, puede variar dependiendo de diversas condiciones, por
ejemplo, del estallido de una guerra o una crisis bursátil. al respecto,
carlota pérez señala que:
los procesos de asimilación y difusión tienen lugar en diferentes circunstancias con la intervención de múltiples factores singulares. los pasos de
una a otra fase suelen ser continuos e invisibles para sus contemporáneos.
exceptuando eventos como los colapsos bursátiles o las grandes guerras
que marcan cambios significativos en las condiciones, las fases se solapan
de manera natural. (pérez, 2002: 89)
de esta forma, las condiciones iniciales en que se lleva a cabo el
proceso condicionan el desenvolvimiento de la revolución tecnológica en
la economía del país del centro en cuestión.
en el siguiente apartado se presenta, a manera de ejemplo, la construcción de un modelo matemático que describe la dinámica que sigue
la difusión de un closter de innovaciones tecnológicas, bajo el propósito
129
aCtas de eConomÍa y ComplejIdad I
de mostrar el potencial metodológico de la matemática en el estudio
de los sistemas complejos.
3. El modelo de difusión tecnológica
Una vez presentada brevemente la interpretación propuesta por carlota pérez sobre el origen y difusión de un paquete de innovaciones
generado por una revolución tecnológica se expondrá, a continuación,
un intento de formalización matemática de estas ideas. el propósito es
contar con una “maqueta” que sea capaz de describir posibles dinámicas del proceso al cambiar los valores de las condiciones iniciales y sus
parámetros. contar con esta “maqueta” es importante ya que, como se
mencionó en el primer apartado, no se trata de predecir con exactitud
el comportamiento de este fenómeno —pues se trata de un sistema
complejo, los cuales, además, son altamente impredecibles—, sino de
estudiar su comportamiento cualitativo y anticipar así posibles consecuencias al adoptarse ciertas medidas de política económica.
ahora bien ¿cómo se construye el modelo matemático? la tsd
propone dos posibilidades: partir de los datos observados y registrados
acerca del fenómeno a estudiar, obtener parámetros estadísticos y, con
base en ello, proponer reglas funcionales entre parámetros y variables
para construir el sistema de ecuaciones que, al hallar su solución, permita deducir pautas de comportamiento relevantes en el estudio. este
proceso implica, al mismo tiempo, la construcción de un marco teórico que sea capaz de ofrecer una interpretación en términos causales
del fenómeno estudiado. sin embargo, ¿qué ocurre cuando no se tiene
información estadística del fenómeno? en este caso, el proceso de investigación puede seguir el camino inverso, es decir, partir de un marco conceptual o interpretativo que, en términos generales, ofrezca un
conjunto de conceptos sustentados en observaciones correspondientes
a estudios de caso. estos marcos interpretativos son ricos en hipótesis,
las cuales, mediante su formalización matemática, podrían contrastarse en algún momento con los datos observados. cabe decir, que el uso
de la matemática en la construcción de una teoría científica, no sólo
es importante en el proceso de verificación de hipótesis sino, además,
en la perfección de la consistencia lógica de la teoría. la formalización
matemática de las teorías científicas permite descubrir sus alcances y
130
sIstemas Complejos, CambIo teCnológICo y oleadas de desarrollo
límites explicativos, por ejemplo, identificar contradicciones y paradojas que limitan su poder explicativo.
en el caso de la propuesta interpretativa de carlota pérez, ésta se
halla sustentada en evidencia histórica de estudios de caso y, retomando
conceptos que provienen de distintas áreas: biología, economía y filosofía, y propone un marco conceptual que intenta describir pautas globales
de comportamiento a partir de algunas hipótesis. así, la formalización
matemática de algunas de sus hipótesis centrales puede ser un avance
en términos de su propuesta teórica. en primera instancia, se contaría
con un modelo verificable en cualquier economía real que reúna las
características que establece su teoría, siempre que se tengan los datos.
los resultados de la contrastación empírica ayudarían también a corregir aspectos de la teoría en cuanto a sus alcances y límites explicativos.
en este sentido, y, considerando además, que la propuesta de carlota
pérez se inscribe en un espíritu de investigación interdisciplinario, se
propone la siguiente formalización matemática.
el modelo matemático intenta formalizar lo que podría considerarse como el mecanismo central de esta teoría: que las oleadas de desarrollo por las que evolucionan los países del centro son impulsadas por
el proceso de difusión tecnológica correspondiente a cada revolución
tecnológica. es decir, la forma en que se lleva a cabo la oleada de desarrollo
(esto es, magnitud y alcances) dependerá de la dinámica que implica el
proceso de difusión del paquete de innovaciones generados bajo una
revolución tecnológica. cabe señalar, que el proceso en su conjunto
implica una dinámica espaciotemporal. sin embargo, el modelo matemático propuesto sólo describe, por el momento, la dinámica temporal,
pero podría incorporarse también su dinámica espacial.
3.1 Supuestos del modelo
i) la economía corresponde a la de los países del centro.
ii) las industrias (o empresas) no son homogéneas en el sentido de que, al iniciar la revolución tecnológica, un conjunto
pequeño de ellas ha asimilado los cambios tecnológicos que
supone la revolución tecnológica, pero no el resto de ellas.
iii) el número de industrias (o empresas) que componen la economía, cuando irrumpe la revolución tecnológica, está dado
y corresponde al valor de saturación del mercado.
131
aCtas de eConomÍa y ComplejIdad I
iv) la revolución tecnológica irrumpe en un conjunto pequeño
de industrias (o empresas) y se difunde a lo largo y ancho de
la economía en forma proporcional a la interacción ocurrida
entre las industrias (o empresas) de ambos grupos.
de acuerdo con los supuestos ii) y iii), se puede establecer que:
E=S+R
(1)
donde: E representa el número total de industrias (o empresas)
que componen la economía al irrumpir la revolución tecnológica y
corresponde al valor de saturación del mercado. se supone constante
en el tiempo.
S representa el número de industrias (o empresas) que aún no
han asimilado la revolución tecnológica, pero que son susceptibles
ante ella. disminuye a través del tiempo en la misma proporción en
que aumenta R.
R representa el número de industrias (o empresas) que ya asimilaron el paquete de innovaciones generadas por la revolución tecnológica. aumenta en la misma proporción en que disminuye S a través
del tiempo.
conforme a la expresión (1), el valor de S se puede calcular por
medio de un simple despeje:
S=E–R
(2)
así, de acuerdo con el supuesto iv), la revolución tecnológica se
difunde entre las industrias (o empresas) de la economía, a través del
tiempo, en forma proporcional al producto de R cantidad de industrias
(o empresas) que han asimilado el paquete de innovaciones por la cantidad S de industrias (o empresas) que aún no han asimilado el paquete
de innovaciones y que son susceptibles ante él. esto es,
dR
αRS
dt
donde: α indica la relación de proporcionalidad.
expresándola como una ecuación diferencial, tenemos:
132
sIstemas Complejos, CambIo teCnológICo y oleadas de desarrollo
dR
µRS
dt
donde µ es el parámetro de difusión de la revolución tecnológica.
de acuerdo con (2) y sustituyendo en la expresión anterior, se
obtiene:
dR
= µR( E − R)
dt
(3)
la expresión (3) representa la dinámica temporal que sigue el proceso de difusión del paquete de innovaciones generado por la revolución
tecnológica, en el conjunto de industrias (o empresas) de la economía.
obsérvese que tiene la forma de una ecuación logística, expresión usada
por la tsd para representar procesos de difusión en sistemas donde sus
componentes son de distinta naturaleza, por ejemplo, la difusión de una
epidemia en una población.
cabe señalar que, desde el punto de vista matemático, la mayoría
de las ecuaciones diferenciales no lineales como la ecuación (3) no tienen
solución analítica por lo que, generalmente, se recurre al uso de métodos
cualitativos y numéricos para, al menos, visualizar su solución. en este
caso, afortunadamente, sí existe la solución analítica, la cual, es:
R(t) =
RoE
Ro + ( E − Ro)e− E µ t
(4)
donde: Ro indica el valor de la condición inicial, es decir, para
un valor de R = 0, en t = to. de esta forma, el teorema de existencia y
unicidad garantiza que dado el valor de una condición inicial, esto es,
que para un problema de cauchy con valores específicos, la solución
existe y es única.
obsérvese que la ecuación (3) tiene dos posiciones de equilibrio:
i) cuando R = 0 y ii) cuando (E - R) = 0, lo que ocurre si E = R. cabe
observar, que la primera posición de equilibrio no tiene sentido de acuerdo con el fenómeno modelado, pues significa que aún no ha iniciado la
revolución tecnológica que es, justamente, lo que interesa representar.
la segunda posición de equilibrio sí tiene sentido de acuerdo con el
fenómeno a estudiar, al afirmar que la velocidad a la que se difunde el
133
aCtas de eConomÍa y ComplejIdad I
paquete de innovaciones es igual a cero cuando el número de industrias que lo han asimilado es igual al número total de industrias de esa
economía, es decir, cuando se ha alcanzado el valor correspondiente
a la saturación del mercado. esto significa también, que el análisis de
estabilidad del sistema debe girar en torno a la segunda posición de
equilibrio.
Una forma cualitativa de llevar a cabo dicho análisis de estabilidad,
por lo menos a nivel local, es mediante el análisis de la línea-fase. el
resultado de este análisis muestra que la primera posición de equilibrio es una fuente, esto significa que cualquier condición inicial que se
encuentre por arriba de R = 0 y menor que E = R, se alejará de la primera posición de equilibrio y lo mismo ocurrirá para todos los valores
de las condiciones iniciales por debajo de R = 0, aunque estos últimos
valores no tienen significado alguno desde el punto de vista del fenómeno representado. la segunda posición de equilibrio es un sumidero,
esto quiere decir que para cualquier valor de las condiciones iniciales
por encima de esta posición de equilibrio tenderá, al pasar el tiempo, a
dicha posición de equilibrio. en términos del fenómeno estudiado, este
comportamiento significa que aquellas industrias (o empresas) que ya
asimilaron las innovaciones de la revolución tecnológica y que se ubican por encima del valor de saturación del mercado, se extinguirán al
transcurrir el tiempo. este resultado es importante porque indica que
la asimilación de las innovaciones tecnológicas representa una condición necesaria, pero no suficiente, para permanecer en la economía.
otra condición es que el mercado no esté saturado. ahora bien, lo que
generalmente ocurre es que las industrias (o empresas) que están por
encima del nivel de saturación del mercado, no desaparecen sino que se
instalan en las economías que se ubican en la periferia, con el objetivo
de abrir nuevos mercados. como ya se mencionó, para valores de las
condiciones iniciales que están por debajo de la segunda posición de
equilibrio y por encima de la primera, tenderán al valor de saturación
del mercado E describiendo una dinámica en forma de “s” alargada. así,
las soluciones que resuelven un problema de cauchy siguen la dinámica
descrita en la figura 1.
a continuación se presenta un ejemplo asignando valores específicos a las variables y parámetros, los cuales representan el caso hipotético
de una economía.
supóngase que se tiene una economía con 10 industrias. en un
primer ejemplo, la revolución tecnológica se lleva a cabo en una de ellas,
134
sIstemas Complejos, CambIo teCnológICo y oleadas de desarrollo
Figura 1. dinámica de la difusión de una revolución tecnológica
para una economía con 10 industrias y dos condiciones iniciales.
R ' = m R (E - R)
m = 0.075
E = 10
15
10
R
5
0
0
2
4
6
8
10
t
12
14
16
18
20
es decir, para un valor de la condición inicial Ro = 1 (primera curva de
abajo hacia arriba en la figura 1). al transcurrir el tiempo, la revolución
tecnológica se difunde a lo largo y ancho de la economía hasta cubrir
las 10 industrias que corresponden al valor de saturación del mercado.
obsérvese que la dinámica de la difusión describe una forma de “s”
alargada, tal como lo señala el mecanismo propuesto por carlota pérez.
esta dinámica condiciona la forma en que se desplegará la oleada de
desarrollo, la cual, describe las fases señaladas por esta autora: irrupción,
frenesí, sinergia y madurez. la primera fase se ubica al inicio de la revolución tecnológica, en esta fase la dinámica refleja cierta desconfianza
por los posibles efectos sobre los beneficios que puede tener el uso de
las innovaciones tecnológicas, por lo que hay resistencia a la difusión.
la segunda fase está representada por el crecimiento exponencial que
135
aCtas de eConomÍa y ComplejIdad I
muestra la gráfica después de la irrupción pero antes del punto de
inflexión. este comportamiento se debe al hecho de que los resultados
positivos, observados en las industrias que están usando el paquete de
innovaciones, han vencido ya la resistencia inicial de las demás industrias,
por lo cual la difusión se lleva a cabo en forma acelerada. la sinergia
y madurez están representadas después del punto de inflexión, una
vez que se ha llevado a cabo un reacomodo institucional que, a su vez,
permite el funcionamiento del paradigma tecnoeconómico bajo nuevas
reglas del juego y con la orientación del capital productivo. en conjunto,
las fases representan dos grandes fases de una oleada de desarrollo: la de
instalación y la de despliegue, separadas por un periodo de reacomodo a
nivel institucional.
de acuerdo con el mecanismo propuesto por carlota pérez, al agotarse una revolución tecnológica se sientan las bases para que se inicie
una nueva, lo que tendría que estar representado en la gráfica por una
nueva curva traslapada con el final de la primera. por el momento, la
formalización matemática solamente permite representar la dinámica
de la difusión de una revolución tecnológica. otro aspecto a considerar,
es que en la propuesta interpretativa de carlota pérez las dos primeras
fases están separadas por un intervalo de reacomodo, lo cual, no se observa en esta gráfica. esto se debe a que la formalización matemática
propuesta se ubica en tiempo continuo. no obstante, el punto de inflexión de la curva, esto es, cuando R = 5, puede ser interpretado como
el intervalo de reacomodo institucional señalado por carlota pérez.
ahora, supóngase que dos industrias se ubican por encima del valor de saturación del mercado, entonces, éstas desaparecerán a menos
de que se trasladen a otra economía no saturada, por ejemplo, a una
economía de la periferia. por último, cada curva representada en la
gráfica corresponde a dos valores distintos de las condiciones iniciales.
obsérvese que la dinámica que sigue la difusión depende del valor
correspondiente a las condiciones iniciales pues, si éste es mayor, el
tiempo en que tardarán en difundirse las innovaciones generadas por
la revolución tecnológica será menor en el conjunto de industrias de
la economía.
ahora bien, al graficar la ecuación (3) como una f(R) se observan
las fases de cada oleada de desarrollo, es decir, la de instalación y la de
despliegue. la primera fase crece con pendiente positiva pero decreciente hasta alcanzar un valor igual a cero, en el que f(R) alcanza su
valor máximo. este valor máximo se alcanza cuando R = E/2, es decir,
136
sIstemas Complejos, CambIo teCnológICo y oleadas de desarrollo
donde se observa el punto de inflexión de la solución analítica de la
ecuación diferencial (3). en términos del fenómeno modelado, el valor
máximo de f(R) representa el intervalo de tiempo en que se lleva a cabo
un reajuste institucional que establece las nuevas reglas del juego en la
oleada de desarrollo. en la fase de despliegue, la dinámica de la difusión
de la revolución tecnológica es más lenta, lo que se refleja en f(R) con
un comportamiento decreciente hasta R = E, en el que se ha agotado la
difusión de la revolución tecnológica y la oleada de desarrollo. el proceso
se repetirá al irrumpir una nueva revolución tecnológica a través de otro
paquete de innovaciones. el comportamiento de f(R) para el ejemplo
analizado se observa en la figura 2.
Figura 2. Gráfica de f(R) para el caso en que E = 10 y µ = 0.075.
en la figura 2, se observa el despliegue de una revolución tecnológica para el caso hipotético señalado de una economía que está compuesta
por 10 industrias. como se indica en la figura 1, se supone que, para
este caso en específico, la revolución tecnológica se difunde a una tasa
de 0.075 industrias (o empresas) por unidad de tiempo, por ejemplo,
137
aCtas de eConomÍa y ComplejIdad I
medido en años. en la primera fase, se observa que la pendiente de f(R)
es positiva, pero decrece hasta alcanzar un valor igual a cero cuando
R=5. en este valor crítico ocurre un proceso de reajuste institucional.
la segunda fase está representada después del valor crítico, en el que
f(R) sigue avanzando pero lo hace con pendiente decreciente hasta R =
10. en este punto, la difusión de la revolución tecnológica se ha agotado
ya que se ha alcanzado el valor de saturación del mercado y, por ello,
la oleada de desarrollo ha llegado a su fin. el proceso se repetirá cuando
irrumpa una nueva revolución tecnológica. en conjunto, el proceso de
sucesión de revoluciones tecnológicas, en el largo plazo, representa las
ondas largas de desarrollo que muestran las economías de los países del
centro, con una duración de entre 50 o 60 años.
3.2 Una versión corregida y aumentada del modelo
la ecuación (3) representa bien, en términos generales, la dinámica que
sigue la difusión de una revolución tecnológica una vez que irrumpe en
un conjunto de industrias (o de empresas). sin embargo, es poco realista
en el sentido de que no considera tanto el número de industrias que
surgen y las industrias que desaparecen durante el proceso.
así, sea αR el número de industrias (o de empresas) que desaparecen a un ritmo constante por unidad de tiempo α, entonces, la ecuación
(3) se transforma en:
dR
= µ R( E − R) − α R
dt
(3bis)
donde α ∈ [0,1].
ahora bien, supóngase que se mantienen los datos del ejemplo
hipotético que ilustra la dinámica representada por la ecuación (3), es
decir, para E = 10 y µ = 0.075, además, considérese un valor de α =
0.15. los resultados se observan en la figura 3.
en la figura 3, se observa que, para una economía con 10 industrias
(o empresas), con parámetro de difusión de la revolución tecnológica
µ = 0.075, con un α = 0.15 y suponiendo que el valor de Ro = 1, el
valor de saturación del mercado E es menor que 10. esto significa que,
al considerar el número de industrias que desaparecen durante el pro138
sIstemas Complejos, CambIo teCnológICo y oleadas de desarrollo
Figura 3. difusión de una revolución tecnológica considerando
el número de industrias que desaparecen en el proceso de difusión
de las innovaciones
R ' = m R (E - R) - a R
m = 0.075
E = 10
a = 0.15
15
10
R
5
0
0
2
4
6
8
10
t
12
14
16
18
20
ceso de difusión de la revolución tecnológica, el valor de saturación del
mercado disminuyó, en contraste con lo que se observa en la figura 1.
otro cambio respecto de la figura 1, es que en la figura 3 se observa
que el agotamiento de la oleada de desarrollo disminuyó más lentamente
al final, extendiéndose un poco más en el tiempo. igualmente, como se
observa en la figura 1, aquellas industrias que se ubican por encima del
valor de saturación del mercado tenderán a la extinción aunque hayan
asimilado las innovaciones de la revolución tecnológica.
ahora bien, al graficar f(R) se observa el comportamiento de las dos
grandes fases de la oleada de desarrollo, la de instalación y despliegue
(véase figura 4).
139
aCtas de eConomÍa y ComplejIdad I
Figura 4. Gráfica de f(R) para el caso en que E = 10, µ = 0.075
y α = 0.15
como en el caso de la ecuación (3), al graficar f(R) se obtiene una
descripción de la oleada de desarrollo para el caso particular señalado de
la ecuación (3bis). nuevamente, cabe mencionar que, a diferencia de la
oleada de desarrollo correspondiente a la ecuación (3) descrita en la figura
2, al considerar la parte proporcional de industrias que desaparecen en
forma constante a lo largo de la difusión de la revolución tecnológica
con un α = 0.15, se observa que el valor de saturación del mercado
disminuyó de 10 a 8, mientras que el valor crítico (máximo) de f(R) disminuyó de 1.8 a 1.2. dado que la condición inicial y el valor asignado
a los parámetros son los mismos, entonces se observa que el efecto del
nuevo aspecto considerado en la ecuación (3bis) modificó la dinámica
que sigue la difusión de la revolución tecnológica. la oleada de desarrollo
descrita en la figura 4 es más corta respecto de la oleada descrita en la
figura 2, tanto en longitud como en amplitud.
ahora considérese el efecto inverso. sea bR el número de industrias (o de empresas) que aparecen a un ritmo constante por unidad de
tiempo b. entonces, la ecuación (3) se transforma en:
140
sIstemas Complejos, CambIo teCnológICo y oleadas de desarrollo
dR
= µ R( E − R) − β R
dt
(3’bis)
donde: b ∈ [0,1].
de esta forma, la ecuación (3’bis) toma en cuenta el efecto de
crecimiento generado por la difusión de la revolución tecnológica.
supóngase, nuevamente, que se mantienen los valores asignados al
caso hipotético estudiado, esto es, E = 10, µ = 0.075, y ahora b = 0.15,
para la condición inicial Ro = 1. en la figura 5, se observa la oleada de
desarrollo correspondiente a este caso.
así, al tomar en cuenta el número de industrias (o empresas) que
aparecen en el proceso de difusión de innovaciones generadas por la
revolución tecnológica, se observa en la figura 5 que aumentó el valor de
saturación del mercado respecto de la gráfica correspondiente a la ecua-
Figura 5. difusión de una revolución tecnológica considerando
el número de industrias que aparecen en el proceso.
R ' = m R (E - R) + b R
m = 0.075
E = 10
b = 0.15
15
10
R
5
0
0
2
4
6
8
10
12
14
16
18
20
141
aCtas de eConomÍa y ComplejIdad I
ción (3) que no considera este aspecto. también se observa que, como
consecuencia de este último cambio, la oleada de desarrollo se extendió
un poco más. al graficar f(R) se confirma este aspecto (figura 6).
Figura 6. Gráfica de f(R) para el caso en que E = 10, µ = 0.075
y b = 0.15.
obsérvese que las dos fases de la oleada de desarrollo, la fase de instalación y la fase de despliegue son más amplias que la oleada correspondiente a la ecuación (3). de esta forma, mientras que el valor máximo
de f(R) de la ecuación (3) es 1.8, el valor máximo de f(R) de la figura
6 es de 2.6. en cuanto a la longitud, esta última es más larga debido al
aumento generado en el valor de saturación del mercado.
el efecto completo de la cantidad de industrias (o empresas) que
aparecen y desaparecen a lo largo de la oleada de desarrollo, se incorpora
en la siguiente ecuación:
dR
= µ R( E − R) + R( β − α )
dt
142
(4)
sIstemas Complejos, CambIo teCnológICo y oleadas de desarrollo
dependiendo de las magnitudes de b y α se pueden representar
tres casos que siguen la forma de la difusión:
i) si b es mayor que α, entonces la oleada de desarrollo es más
amplia y más larga.
ii) si α es mayor que b, entonces la oleada de desarrollo es menos
amplia y menos larga.
iii) si α es igual a b, entonces la oleada de desarrollo es de tamaño
regular.
3.3 Una bifurcación simple en el modelo
la ecuación (4) puede extenderse un poco más, si se considera un parámetro Ω que representa una cantidad de industrias (o de empresas)
que desaparecen como consecuencia de procesos ajenos a la oleada de
desarrollo, por ejemplo, los efectos destructivos de una guerra, una crisis financiera o un fenómeno natural con efectos devastadores. así, la
ecuación (4) toma la forma:
dR
= µ R( E − R) + R( β − α ) − Ω
dt
(5)
donde Ω es un parámetro positivo.
supóngase que, debido a los efectos de una guerra, el número
de industrias afectadas en nuestro ejemplo hipotético fueron tres.
esto afecta el tamaño de la oleada de desarrollo como se observa en
la figura 7. se le asignaron los siguientes valores hipotéticos a los
parámetros: µ = 0.075; e = 10; α = 0.15; b = 0.15 y Ω = 0.5. de
acuerdo con estos valores, dado que µ y e son los mismos que en los
ejemplos anteriores y α = b, la dinámica de la difusión de la revolución
tecnológica debería observar, sin considerar el valor de Ω, como en la
figura 1, para un valor de la condición inicial Ro = 1. no obstante, al
suponer que, como efecto de una guerra, desaparece media industria
(Ω = 0.5) entonces se observa que la oleada de desarrollo se vio afectada
en su dinámica, ya que el valor de saturación del mercado disminuyó,
pasando de un valor de 10 a 9.3. debido a esto, la oleada de desarrollo
es de menor alcance.
143
aCtas de eConomÍa y ComplejIdad I
Figura 7. difusión de una revolución tecnológica considerando
la desaparición de media industria como efecto de un proceso
ajeno al proceso de difusión.
R ' = m R (E - R) + R (b - a) - 0.5
m = 0.075
E = 10
a = 0.15
14
16
b = 0.15
15
10
R
5
0
0
2
4
6
8
10
t
12
18
20
ahora, supóngase que el efecto destructivo de la guerra fue un
poco mayor, por lo que Ω = 0.75 industrias. la difusión de la revolución
tecnológica se observa en la figura 8.
cabe hacer notar que si el impacto destructivo de la guerra es un
poco mayor, trae consecuencias importantes en la dinámica que sigue
la difusión de la revolución tecnológica y, en este caso, no sólo afectó la
magnitud de la oleada de desarrollo sino que, además, afectó las condiciones iniciales de la difusión tal y como lo interpreta carlota pérez. de
esta forma, como se mencionó en el análisis de la figura 7, la condición
inicial es de Ro = 1. esto significa que suponemos que la revolución
tecnológica se inicia en una industria. sin embargo, cuando Ω es un
poco mayor (Ω = 0.75) entonces la condición inicial del proceso de di144
sIstemas Complejos, CambIo teCnológICo y oleadas de desarrollo
Figura 8. difusión de una revolución tecnológica considerando
la desaparición de tres cuartos de industria debido a un proceso
ajeno a la dinámica que sigue la difusión.
R ' = m R (E - R) + R (b - a) - 0.75
m = 0.075
E = 10
a = 0.15
14
16
b = 0.15
15
10
R
5
0
0
2
4
6
8
10
t
12
18
20
fusión no puede ser igual a 1, pues en este caso la difusión se extingue
o fracasa. pero si suponemos que la condición inicial es mayor, Ro = 2,
el proceso de difusión del paquete de innovaciones se lleva a cabo a lo
largo y ancho de la economía.
supóngase ahora que el efecto nocivo de la guerra es aún mayor,
por ejemplo Ω = 2. en este caso, la dinámica que sigue la difusión de
la revolución tecnológica se observa en la figura 9.
el resultado obtenido es sorprendente. no hay posiciones de
equilibrio y para cualquier valor asignado a las condiciones iniciales, la
difusión de la revolución tecnológica tiende a cero, lo cual, quiere decir
que se extingue. significa que ocurrió un cambio estructural, esto es, la
dinámica que mostraban las soluciones se modificó por completo. es
145
aCtas de eConomÍa y ComplejIdad I
Figura 9. dinámica que sigue la difusión de una revolución
tecnológica cuando Ω = 2.
R ' = m R (E - R) + R (b - a) - 2
m = 0.075
E = 10
a = 0.15
b = 0.15
15
10
R
5
0
0
2
4
6
8
10
t
12
14
16
18
20
importante poner énfasis en que tal cambio estructural ocurrió por un
cambio en el valor asignado a Ω, y suponiendo además que el valor de
los otros parámetros es constante. en términos de la teoría de sistemas
dinámicos (tsd), a dicho cambio en la estructura de las soluciones ante
un cambio en alguno de los parámetros del sistema, se le conoce como
bifurcación. y al parámetro que causa dicho cambio al modificar su valor
se llama parámetro de bifurcación. en este caso, el parámetro de bifurcación
es Ω.
también es posible calcular, en el caso particular analizado, el valor preciso del parámetro de bifurcación. de acuerdo con este valor, un
cambio pequeño sería suficiente para provocar un cambio en la estructura de las soluciones, lo cual es una propiedad peculiar de los sistemas
dinámicos, esto es, un pequeño cambio en las causas puede producir
146
sIstemas Complejos, CambIo teCnológICo y oleadas de desarrollo
grandes efectos. para hallar este valor crítico, se calculan los valores de
las raíces R1 y R2 de f(R) al asignarle distintos valores a Ω. las raíces se
obtienen con la siguiente expresión:
R1,2 =
E
E2 Ω
+
−
2
4
µ
es importante señalar que las soluciones de la ecuación (5) tienen
dos raíces con valores reales si y sólo si el valor contenido en la raíz es
mayor que cero. sólo bajo esta condición, la estructura de las soluciones
de la ecuación (5) será la misma, esto es, en forma de “s”. no obstante,
si el valor bajo la raíz es igual a cero, la estructura de las soluciones es
diferente. por lo tanto, el cambio estructural de este sistema ocurre
cuando el valor bajo la raíz cuadrada es igual a cero. Realizando los cálculos, se obtuvo que dicho valor se alcanza cuando Ω = 1.875 industrias
afectadas por los efectos destructivos de la guerra. lo interesante que se
desprende del análisis de la dinámica que sigue este sistema dinámico
es que ante un pequeño cambio en los efectos negativos de una guerra,
lo cual se refleja en el valor de Ω, se produce un cambio estructural en
todo el sistema. en el siguiente cuadro se muestran algunos valores para
las raíces R1 y R2 bajo distintos valores de Ω.
cuadro 1. Valores de R1 y R2 correspondientes
a distintos datos de Ω.
parámetro Ω
Valor de R1
Valor de R2
0.5
9.28
0.72
0.9
8.6
1.4
1.2
8
2
1.5
7.24
2.76
1.7
6.53
3.47
1.875
5
5
Fuente: elaboración propia con datos hipotéticos asignados
a los parámetros de la ecuación (5).
147
aCtas de eConomÍa y ComplejIdad I
Figura 10. diagrama de bifurcación de la ecuación (5).
obsérvese que al aumentar los valores de Ω y acercarse a 1.875 los
valores correspondientes a R1 y R2 se acercan y convergen en 5. la gráfica
de estos valores con respecto al parámetro Ω representa el diagrama de
bifurcación del sistema analizado (ver la figura 10).
comprender los mecanismos causales que dan origen al desarrollo
socioeconómico de un país es un problema complicado para las ciencias
sociales y, en particular, para la economía. la razón es que intervienen
muchos factores en el proceso y una multitud de relaciones entre ellos.
se trata pues, de un proceso histórico complicado. sin embargo, el grado elevado de dificultad no impide intentar su estudio. como señala
carlota pérez:
[…] este esfuerzo por identificar fenómenos recurrentes no está dirigido a
simplificar la historia o a aplicar modelos mecanicistas a su infinita complejidad o a su carácter fundamentalmente impredecible. está dirigido,
sobre todo, a servir a dos propósitos útiles en relación con las políticas,
el crecimiento y el desarrollo:
1] ayudar a reconocer la dinámica y la naturaleza cambiante del capitalismo para evitar extrapolar cualquier periodo particular —sea éste bueno o
malo— como el ‘final de la historia’, como la crisis final del capitalismo,
148
sIstemas Complejos, CambIo teCnológICo y oleadas de desarrollo
o como la llegada del progreso indetenible o como cualquier “nueva”
característica del sistema de ahí en adelante.
2] ayudar a mirar prospectivamente hacia la siguiente fase de la secuencia, a fin de diseñar a tiempo las acciones requeridas para aprovechar las
oportunidades que estén por presentarse. (pérez, 2002: 29-30)
así, la tsC reconoce el grado de dificultad que implica el estudio
y comprensión de los fenómenos y, en este caso específico, de los fenómenos históricos. por ello, propone un conjunto de herramientas de
análisis que ayuden a estudiar estos procesos. Una de estas herramientas
es la modelación matemática de fenómenos dinámicos no lineales, como
lo es el desarrollo socioeconómico de un país. Un modelo matemático
permite identificar pautas de la evolución de un fenómeno, pero sin
perder de vista que un proceso real sigue comportamientos ricos en variedad y diversidad, el modelo matemático ayuda en el esclarecimiento
de patrones posibles de evolución, con el propósito de afinar la mirada
prospectiva a la que hace referencia carlota pérez.
A manera de conclusión
el paradigma conocido como teoría de sistemas complejos (tsC), o
ciencias de la complejidad (CC), sostiene la idea de que la mayoría de
los fenómenos que se observan en la naturaleza son sistemas complejos.
esto significa que son sistemas que se componen de un número elevado
de elementos que interactúan entre sí. además, también interactúan con
su entorno que puede estar compuesto, a su vez, de otros sistemas. los
cambios en el entorno pueden modificar la dinámica interna del sistema,
la cual está dada por las interacciones entre sus componentes. es decir,
los sistemas complejos tienen la propiedad de que evolucionan en el
tiempo adaptándose a los cambios producidos en el entorno. como se
mostró en el primer apartado de este capítulo, los sistemas biológicos
y socioeconómicos tienen esta propiedad, por lo cual, pertenecen al
dominio de los sistemas complejos adaptativos.
la tsC usa, para el estudio de las propiedades de los sistemas complejos, un conjunto de métodos y herramientas de análisis. Uno de estos
métodos es el que ofrece la teoría de sistemas dinámicos (tsd), el cual
consiste en construir modelos matemáticos que permitan analizar po149
aCtas de eConomÍa y ComplejIdad I
sibles comportamientos de la dinámica de los sistemas. en este sentido,
los modelos matemáticos funcionan como una “maqueta” del fenómeno
de estudio. cabe señalar, que la modelación matemática debe ir acompañada de un marco conceptual o teórico sobre el objeto de estudio.
esto hace posible que los resultados del modelo sean significativos.
ahora bien, existen dos posibles caminos para el estudio de la
dinámica de un sistema complejo: se parte de información estadística
suficiente sobre el fenómeno de estudio y, con base en ella, se identifican
relaciones entre variables y pautas de comportamiento que permitan,
junto con un marco conceptual sobre el objeto de estudio, formular
hipótesis de trabajo que sirvan de base para formular los modelos matemáticos y estudiar así los mecanismos causales que los producen. en
este caso, el proceso de investigación sigue una ruta, esto es, se parte de
la información estadística para llegar a la modelación matemática. sin
embargo, existe otra posibilidad, la cual consiste en seguir el camino
inverso, es decir, partiendo de un marco conceptual o interpretativo
de un fenómeno, construir modelos matemáticos a priori que ayuden
en el estudio de alguna hipótesis central de la teoría. cabe decir, que
las ciencias sociales y, en particular, la teoría económica moderna han
seguido este camino. no obstante, en el marco de la tsC queda claro
que, dado que los sistemas complejos son altamente impredecibles por
naturaleza, su representación matemática no tiene como propósito
central la predicción de su comportamiento sino, mejor dicho, obtener
información cualitativa. se trata solamente de una herramienta de
análisis de los sistemas complejos y, por ello, los resultados obtenidos
a través del modelo matemático, no tienen un carácter normativo sino
únicamente descriptivo, a diferencia de lo que significan en la teoría
económica, principalmente en la ortodoxa.
ahora bien, siguiendo la segunda vía posible de investigación
se presentó en este capítulo, a manera de ejemplo, una propuesta de
modelación matemática referida a una hipótesis propuesta por carlota
pérez para explicar el desarrollo socioeconómico de un país del centro,
es decir, perteneciente a los países desarrollados, a partir del mecanismo
causal que implica el origen y desarrollo de una revolución tecnológica,
poniendo particular énfasis en los efectos que tiene el proceso de difusión de un paquete de innovaciones, en otros aspectos del desarrollo
socioeconómico, por ejemplo, en el cambio institucional. el propósito
consistió en mostrar el uso de la modelación matemática en el estudio
de un sistema complejo, como lo es un sistema socioeconómico.
150
sIstemas Complejos, CambIo teCnológICo y oleadas de desarrollo
el modelo matemático propuesto (ecuación 5) reproduce algunos
de los aspectos descritos por carlota pérez en su teoría, por ejemplo,
que las oleadas de desarrollo no representan un fenómeno mecánico, es
decir, se confirma que la magnitud y el alcance de las oleadas de desarrollo
pueden responder a una variedad de condiciones dadas históricamente
que se sintetizan en el modelo bajo el concepto de condiciones iniciales.
de esta forma, un cambio en las condiciones iniciales puede modificar
el alcance de la oleada de desarrollo. también, un cambio pequeño en los
parámetros que representan las interacciones del sistema con el entorno
pueden alterar la estructura de la dinámica interna del sistema, lo cual
conduce a un cambio estructural. los valores de estos parámetros permiten modelar dos situaciones generales: diversos tamaños de la oleada
de desarrollo y oleadas de desarrollo que se extinguen. lo interesante, y es
ahí donde reside su potencial, es que un modelo matemático permite
deducir un conjunto de posibilidades de evolución de un sistema complejo, delimita una variedad de comportamientos, pero no una cantidad
infinita de éstos. las pautas de comportamiento también pueden ser
diversas, pero no infinitas o aleatorias. así, en el caso específico de la
dinámica que sigue un proceso de difusión de una revolución tecnológica, la pauta es clara: describe una dinámica temporal en forma de
“s” alargada. en términos matemáticos, a esta pauta se la conoce como
ecuación logística. al cambiar las condiciones iniciales, por ejemplo,
condiciones históricas, culturales, institucionales, o al cambiar el contexto en que se lleva a cabo la revolución tecnológica, por ejemplo,
debido a una guerra, una crisis financiera, un fenómeno natural que
tiene efectos catastróficos en la economía de un país, por ejemplo, un
tsunami, etc., la forma que sigue la pauta cambiará, se hará más alargada
o más corta; más grande o más pequeña, etc., pero mientras se lleve a
cabo el proceso de difusión de la revolución tecnológica, seguirá describiendo una forma de “s” alargada. pero también, el modelo matemático
sugiere que la difusión no podría darse sin que se satisfagan ciertas
condiciones. por ejemplo, ante los efectos devastadores de una guerra,
si éstos rebasan cierto límite, entonces la difusión resulta frustrada. el
modelo matemático permite hacer una aproximación a dichos efectos.
por último, hay que señalar que otro aspecto importante de la modelación matemática es que, la formalización de una hipótesis permite su
contrastación empírica, siempre y cuando se cuente con la información
estadística suficiente para ello. la retroalimentación de la teoría con su
contrastación empírica, la hará más robusta.
151
aCtas de eConomÍa y ComplejIdad I
Bibliografía
darwin, charles [1859] (1992) El origen de las especies. Barcelona: planeta-agostini.
Goodwin, Richard m. [1967] (1997) Un ciclo de crecimiento. en Crítica de
la teoría económica, selección de e.K. Hunt y j.G. schwartz. méxico:
Fondo de cultura económica.
Goodwin, Richard m. (1990) Caos y dinámica económica. españa: ediciones prensas Universitarias de Zaragoza. (primera edición en
español, 1996).
Kuhn thomas s. (2002) La estructura de las revoluciones científicas, 1a
reimpr. méxico: Fondo de cultura económica.
marx, carlos [1867] (1994) El Capital, t. 1, 23a reimpr. méxico: Fondo
de cultura económica.
miramontes V., pedro (1999) el estructuralismo dinámico. en Ramírez
santiago (coord.), Perspectivas en las teorías de sistemas. méxico: siglo
xxI editores, CeIICH‑unam.
pérez, carlota (2002) Revoluciones tecnológicas y capital financiero. méxico:
siglo xxI editores (primera edición en español, 2004.).
pérez-cacho G., santiago; Gómez c., Fernando maría y marbán p., josé
maría (2002) Modelos matemáticos y procesos dinámicos. Valladolid:
Universidad de Valladolid.
152
dos modelos de la teorÍa de los sIstemas Complejos
(tsC) para el estudIo de la ComplejIdad de las varIables
poblaCIón y empleo en méxICo
Jorge Zaragoza Badillo*
Ricardo Mansilla Corona**
El estudio de la dinámica no lineal y de los
sistemas complejos muestra que en general es
imposible predecir lo que va a pasar más allá
de un cierto horizonte temporal, característico
de cada fenómeno, y que después de ese tiempo
es necesario revaluar la situación del sistema
y aplicar las correcciones necesarias. Además,
estos sistemas, al evolucionar, transforman su
entorno, con lo que se modifican las condiciones y reglas de cambio; esta retroalimentación
funcional pone de manifiesto su carácter
adaptativo.
Gustavo martínez mekler
Resumen
p
artiendo de diferentes planteamientos teóricos sobre la relación
entre población y empleo, en este trabajo se aborda dicha relación
recurriendo a dos modelos de la teoría de los sistemas complejos (tsC).
con base en el primero de ellos, se plantea la idea de que patrones de
distribución que siguen leyes de potencias, como los que describen la
distribución rango–orden, en este caso la aplicación a las variables población y empleo de méxico, nos sugiere que se puede ver a dichas variables como sistemas que están evolucionando a un estado de criticalidad
autorganizada. en el caso del segundo modelo (es un sistema dinámico
no lineal) se trató de modelar la dinámica temporal y de retroalimentación entre la población económicamente activa ocupada (peao) y la
población económicamente activa desocupada (pead) dado un nivel de
* instituto de investigaciones económicas, unam.
** centro de investigaciones interdisciplinarias en ciencias y Humanidades, unam.
153
aCtas de eConomÍa y ComplejIdad I
empleo formal (ef). después de que se corrió este segundo modelo con
datos de las variables mencionadas se pudo observar que se trata de un
sistema que evoluciona hacia en equilibrio inestable y que presenta un
comportamiento adaptativo, el cual es típico de los sistemas dinámicos
no lineales. también se descubrió que el modelo tiene un horizonte
de predictibilidad de tres trimestres para la tasa de desempleo (td), lo
cual es consistente con una de las características de estos sistemas que,
según Gustavo martínez mekler: “…es imposible predecir lo que va a
pasar más allá de un cierto horizonte temporal.”.
Introducción
partiendo de los planteamientos teóricos de los clásicos de la economía,
adam smith, david Ricardo y carlos marx, y algunas investigaciones más
recientes que versan sobre la relación entre población y empleo, en éste
trabajo se intenta abordar dicha relación desde el enfoque teórico y metodológico —por medio de dos modelos— de los sistemas complejos.1
primero se hace una aplicación de la distribución rango–orden
con datos de población y empleo con el objetivo de calcular los valores
de los parámetros y hacer una interpretación de los mismos que nos
puedan llevar a detectar algunas de las propiedades de los sistemas
complejos.
después, se usa como herramienta un sistema dinámico no lineal con tres variables y seis parámetros que evoluciona en el tiempo,
mediante el cual se modela la dinámica de retroalimentación entre la
población económicamente activa ocupada (peao) y la población económicamente activa desocupada (pead) dada una cantidad conocida de
empleos formales (ef) ocupados. Respecto a éste, se utilizan los datos
que arroja el modelo de las variables en cuestión para calcular la tasa
de desempleo, misma que se compara con los datos oficiales publicados
por el InegI, lo cual nos muestra que el modelo tiene un horizonte de
predictibilidad de tres trimestres en este caso.
para la aplicación del primer modelo, la distribución rango–orden,
se tomaron los datos de la población total y de los afiliados al instituto
1
Un sistema complejo es aquel que está compuesto por un determinado número de elementos que interactúan entre sí. además, el estado inicial del sistema cambia al transcurrir el
tiempo y dicho cambio es el resultado de una dinámica no lineal.
154
dos modelos de la teorÍa de los sIstemas Complejos
mexicano del seguro social (éstos son considerados por los estudiosos
como el indicador principal de empleo formal) de las páginas Web del
instituto nacional de estadística y Geografía (InegI) y del instituto
mexicano del seguro social (Imss), respectivamente.
para la aplicación del segundo modelo, el sistema dinámico no lineal, se tomaron los datos de la peao y de la pead de la Encuesta nacional
de ocupación y empleo (enoe) de la página Web del InegI; y los datos del
empleo formal de la página Web del Imss.
1. Una breve reflexión de algunos aspectos teóricos
sobre la dinámica de la población y el empleo
para adam smith (2009) hay empleos más ventajosos y menos ventajosos, y habría gente dispuesta a invertir en los primeros y a abandonar
los segundos, aunque las ventajas de los primeros pronto retornarían
al nivel de los demás empleos. en una sociedad libre donde los individuos puedan elegir el empleo que deseen y cambiarlo cuantas veces lo
juzguen conveniente, el interés de cada persona lo inducirá a buscar el
mejor empleo y a rechazar el peor empleo.
para david Ricardo (2004), la mano de obra tiene un precio natural
y un precio de mercado. este precio está sujeto a la ley de la oferta y
la demanda. cuando el precio de mercado está por arriba del precio
natural, esto provoca un aumento de la mano de obra (trabajadores) y
de la población; cuando el precio de mercado está por debajo del precio
natural, esto provoca una disminución de la mano de obra (trabajadores)
y de la población.
para carlos marx (1994), manteniendo constante la composición
orgánica del capital (capital constante y capital variable), la reproducción
ampliada conlleva un aumento en la demanda del capital variable. ante
las necesidades de acumulación de capital, la demanda de trabajadores
puede ser mayor que la oferta, haciendo con ello subir los salarios. la
acumulación de capital supone, por tanto, un aumento del proletariado, es decir, la influencia que el incremento de capital ejerce sobre la
clase obrera.
es importante mencionar el modelo econométrico de maría jesús
Ruiz y Vicent soler (s.f.) en el cual relacionaron endógenamente a la
población y el empleo, además de que sus resultados sugieren que, en
efecto, en algunos casos el incremento del empleo atrae más población
155
aCtas de eConomÍa y ComplejIdad I
en determinadas regiones; de igual forma, en otros casos, el incremento
de la población provoca un aumento de los empleos.
para peter m. allen (1997), quien modela la forma en que crecen
las ciudades, el factor clave de la historia de la urbanización creciente
es que los buscadores de empleo migrarán a los lugares donde hay
oportunidades de obtenerlo, y los inversionistas llevarán sus inversiones
a donde hay fuerza de trabajo calificada y un mercado. entre estas dos
variables, hay un efecto de retroalimentación que genera centros de
concentración urbana donde, de acuerdo con su modelo teórico y sus
modelos aplicados, se forman patrones de autorganización espacial en
regiones y ciudades.
lo que tienen en común los clásicos de la economía con allen es
que ven la economía como un sistema.2 Una diferencia de Ricardo y
marx con allen es que los primeros ven la relación causal de la actividad
económica hacia la población; en cambio, el segundo ve un efecto ‘catalítico cruzado’, es decir, una retroalimentación de la variable inversión
(con la demanda de empleo asociada) y la variable oferta de empleo
(flujos migratorios de los buscadores de empleo), además de que éste
efecto es el factor más importante en el crecimiento de centros urbanos,
en los cuales encontró, por medio de sus modelos, patrones espaciales
de autorganización. el modelo de Ruiz Fuensanta y soler se acerca
más a la hipótesis de peter m. allen al relacionar endógenamente las
variables población y empleo, los autores concluyeron que en algunos
sistemas locales de trabajo de algunas regiones, el empleo sí afecta a la
población y viceversa, pero hay otras regiones donde no sucede esto.
no hay que perder de vista que este modelo es lineal y econométrico;
por su naturaleza estadística, no capta la dinámica de retroalimentación
entre la población y empleo; en cambio, los modelos de allen representan sistemas dinámicos no lineales que evolucionan en el tiempo y
sirven para observar procesos de autorganización en la formación de
ciudades y regiones.
2
nota: aunque no es fácil proporcionar una definición formal de ‘sistema’, partimos aquí
de la noción ofrecida por ludwig von Bertalanffy en su obra Teoría general de los sistemas. allí establece que: “Un sistema puede ser definido como un complejo de elementos interactuantes. interacción
significa que elementos, p, están en relaciones, R, de suerte que el comportamiento de un elemento
p en R es diferente de su comportamiento en otra relación R’. si los comportamientos en R y R’
no difieren, no hay interacción, y los elementos se comportan independientemente con respecto
a las relaciones R y R’.” (Bertalanffy, 1990: 56. las cursivas son nuestras).
156
dos modelos de la teorÍa de los sIstemas Complejos
1.1. Estudios recientes sobre la problemática
del desempleo en México
la idea de revisar algunas de las investigaciones más recientes, hechas
por economistas, que versan sobre el desempleo en méxico no es sólo
la problemática en sí misma, sino también ver como la relación entre
población y empleo es abordada, a nivel teórico, también por ellos. por
ejemplo, en alusión a los jóvenes que cada año engrosan las filas de
la población económicamente activa (pea), Gerardo González chávez
señala lo siguiente: “nuestro país requiere generar 1,100,000 de plazas
nuevas anualmente, pero por el lento crecimiento de la economía el
aumento del desempleo se ha colocado como uno de los problemas más
graves de la economía mexicana” (González chávez, 2010: 147); ernesto
peralta es más explícito: “cabe aclarar que las dimensiones poblacionales
y de ocupación futuras duplican las de los años setenta y sextuplican las
de la época cardenista; los requerimientos de empleo aumentarán 50%
entre los años 2000 y 2030, sin percibirse una vía que pueda satisfacerlos (peralta, 2010: 25 y 26); y norma samaniego no sólo relaciona
la dinámica demográfica con el empleo, sino que lo hace en el marco
de la crisis financiera de octubre de 2008: “en méxico, la recesión ha
golpeado en el peor momento: cuando la pirámide demográfica se
ensancha con mayor rapidez en su parte media —formada por adultos
en edad de trabajar— y cuando el flujo anual de jóvenes que ingresa a
la fuerza de trabajo es más vigoroso” (samaniego, 2010: 68).
2. La distribución rango–orden
la distribución rango–orden es una función tipo beta con dos parámetros, y se representa con la fórmula:
P=
K ( N + 1 − r )b
ra
(1)
donde r es el rango, N es el valor máximo, K la constante de normalización y (a, b) dos exponentes de ajuste. la manera de presentar
los datos es mediante gráficas semilogarítmicas; las cuales aparecen
como curvas tipo sigmoide. en el artículo citado, los autores presentan
diferentes aplicaciones en las artes y en las ciencias, pero lo que es de
157
aCtas de eConomÍa y ComplejIdad I
interés para esta ponencia es que ellos hicieron aplicaciones con datos
de la población de las provincias españolas de Zaragoza y Valladolid, y
obtuvieron los siguientes resultados (a, b, R) = (0.95, 0.54, 0.99), (0.98,
0.42, 0.99), respectivamente. de acuerdo con uno de los autores, Gustavo
martínez mekler, es importante buscar patrones de comportamiento
de manera directa del fenómeno estudiado, después obtener datos del
mismo y, por último, aplicar la fórmula (1); si los datos ajustan bien y de
acuerdo con el conocimiento que se tenga del fenómeno en cuestión se
podría afirmar que se trata de un sistema que evoluciona o ya alcanzó
un estado de criticalidad autorganizada; la aparición de ésta última
sería un indicio de que estamos frente a un sistema complejo. es decir,
se trata de sistemas que se encuentran entre el orden y el desorden,
que presentan caos determinista; en ese sentido, cuando a > b significa
que predomina el orden, pero cuando a < b significa que predomina el
desorden. es importante decir que los sistemas deterministas caóticos,
los que se encuentran entre el orden y el desorden, son impredecibles
en el mediano y largo plazos porque son muy sensibles a las condiciones
iniciales, es decir, que un pequeño cambio en dichas condiciones implica
grandes cambios en el sistema. sin embargo, la ventaja de estos sistemas
es que en el punto crítico encontramos lo siguiente: a todas las escalas
hay información (propiedad de fractalidad); existe un comportamiento
cualitativo, y, todo está relacionado con todo, es decir, hay interdependencia y retroalimentación entre todos los elementos del sistema.
2.1. Una aplicación de la distribución rango–orden con datos
de población y empleo de las 32 entidades federativas de la
República Mexicana, 2005
definición de las variables que se utilizan:
i. Población total (pt): es la población total de cada una de las 32
entidades federativas de la República mexicana.
ii. Población derechohabiente del imss (pd-imss): asegurados y
pensionados, así como sus familiares que dependen económicamente de ellos y que cubren los requisitos que establece
la ley del seguro social para recibir los beneficios.
iii. Asegurados totales del imss (at-imss): población integrada por
los asegurados trabajadores permanentes y eventuales urbanos
158
dos modelos de la teorÍa de los sIstemas Complejos
y del campo así como los asegurados no trabajadores: seguro
facultativo, estudiantes, continuaciones voluntarias y seguro
de salud para la familia. algunos estudiosos del empleo toman
a esta variable como indicador de empleo formal.
iv. Trabajadores permanentes y eventuales urbanos (tpeu): los trabajadores permanentes y eventuales son personas que tienen
una relación laboral de subordinación con un patrón (no se
incluye a los trabajadores eventuales de campo). no incluye
la afiliación de personas que cotizan en el seguro de salud
para la familia, en el esquema de continuación voluntaria el
régimen obligatorio, ni a los estudiantes afiliados al seguro
facultativo. la secretaría del trabajo y previsión social (styps)
y la presidencia de la República, entre otras instancias, toman
esta variable como indicador de la evolución del empleo.
los datos de las variables son:
cuadro 1.
entidad Federativa
pt
(1)
pd‑Imss
(2)
at‑Imss
(3)
tpeu
(4)
aguascalientes
1065416
489275
220218
185982
Baja california
2844469
1230126
682848
97383
512170
216938
116207
613870
Baja california sur
campeche
754730
218714
133770
105514
chiapas
4293459
1476569
295143
156765
chihuahua
3241444
225273
722447
656069
coahuila
2495200
398585
537171
496187
colima
567996
1539949
127321
86780
distrito Federal
8720916
3034181
3091077
2307721
durango
1509117
539779
203600
165680
Guanajuato
4893812
1431177
647150
532514
Guerrero
3115202
366036
282564
134569
Hidalgo
2345514
444146
145629
142373
jalisco
6752113
2720246
1274293
1088592
méxico
14007495
4128554
1477594
1030451
3966073
746626
386601
268806
michoacán
159
aCtas de eConomÍa y ComplejIdad I
entidad Federativa
pt
(1)
pd‑Imss
(2)
at‑Imss
(3)
tpeu
(4)
morelos
1612899
415484
221202
153587
nayarit
949684
284446
148247
93960
nuevo león
4199292
2426951
1040045
996387
oaxaca
3506821
418237
272410
146153
puebla
5383133
1004986
546847
393513
Querétaro
1598139
628679
354249
270528
Quintana Roo
1135309
396110
246820
213668
san luis potosí
2410414
770845
321422
259702
sinaloa
2608442
1078538
455271
327702
sonora
2394861
1073297
473607
381923
tabasco
1989969
268728
264313
128540
tamaulipas
3024238
1221271
649643
539811
tlaxcala
1068207
210561
121425
71150
Veracruz
7110214
1635923
834768
567732
yucatán
1818948
704002
292080
253022
Zacatecas
1367692
343315
164559
104667
Fuente: (1), ii conteo de población y Vivienda 2005, InegI; (2), (3) y (4),
página Web del Imss <www.inegi.gob.mx>.
2.1.1. Una aplicación de la distribución rango–orden a nivel
nacional con datos de la pt de las 32 entidades federativas
de la República mexicana, 2005
se tomaron los datos de la pt (ver columna 2 del cuadro 1) de cada una
de las entidades federativas de la República mexicana. se ordenaron
en forma descendente, y, con la ayuda de la programación en cómputo
hecha por Ricardo mansilla, se aplicó la fórmula (1), se obtuvieron los
valores (a, b, R2) = (0.49, 0.47, 0.99) y la gráfica 1.
interpretación de resultados:
desde el punto de vista de la información proporcionada por el InegI,
tenemos que el 53% de la población mexicana se encuentra concentrada en ocho entidades federativas (estado de méxico, distrito Federal,
Veracruz, jalisco, puebla, Guanajuato, chiapas y nuevo león); por otro
160
dos modelos de la teorÍa de los sIstemas Complejos
Gráfica 1. República mexicana.
8
10
Entidades federativas
Curva de ajuste
log(frequenc y ). P T
7
10
6
10
5
10
0
10
1
10
log(r). Entidades federativas
2
10
Distribución rango-orden de la PT en la República Mexicana,
(a, b, R 2) = (0.49, 0.47, 0.99).
lado, el 47% restante de la población se encuentra en las otras 24 entidades federativas. es decir, la forma en que se distribuye la población
total en méxico responde al patrón concentración–dispersión. esto
significa que en las ocho entidades federativas donde se concentra la
mayoría de la población en méxico se encuentran las ciudades que por
su mayor actividad económica atraen a la población de otras entidades
que busca una oportunidad de trabajo y un mejor nivel económico de
vida. sabemos que esas ciudades son: la ciudad de méxico (zmCm),
monterrey y Guadalajara.
desde el punto de vista de la teoría de la criticalidad autorganizada,
podríamos decir que la población en méxico, por entidad federativa,
se distribuye de acuerdo con una ley de potencias, lo cual nos permite
inferir que el sistema (la interacción entre todos los individuos de la
población) se encuentra cerca o ya alcanzó un punto crítico. asimismo,
la diferencia de a-b nos da un resultado ligeramente positivo, lo cual
significa que predomina, ligeramente, la parte ordenada sobre la parte
161
aCtas de eConomÍa y ComplejIdad I
desordenada en la dinámica del sistema. además, el hecho de que el
sistema se encuentre cerca o en el punto crítico nos permite inferir que
todo está relacionado con todo y que las relaciones que se dan a escala
nacional, por la propiedad de fractalidad, también se podrían dar en
la escala estatal, municipal, por pueblos y colonias.
2.1.2. Una aplicación de la distribución rango–orden a nivel
nacional con datos de la pd‑Imss en el año 2005 de cada una
de las 32 entidades federativas de la República mexicana
igual que en el apartado anterior, de acuerdo con la metodología planteada, se tomaron los datos de la pd–Imss (ver columna 3 del cuadro
1) de cada una de las entidades federativas de la República mexicana.
se ordenaron en forma descendente, y con la ayuda del programa de
cómputo citado se aplicó la fórmula (1), se obtuvieron los valores (a, b,
R2) = ( 0.66, 0.36, 0.97) y la siguiente gráfica:
Gráfica 2. República mexicana.
7
10
log(frequency). PD-IMSS
Entidades federativas
Curva de ajuste
6
10
5
10
0
10
1
10
log(r). Entidades federativas
Distribución rango-orden de la PD-IMSS en la República Mexicana,
(a, b, R 2 ) = (0.66, 0.36, 0.97).
162
2
10
dos modelos de la teorÍa de los sIstemas Complejos
interpretación de resultados:
desde el punto de vista de la información, se puede decir que en tan
sólo siete entidades federativas (estado de méxico, distrito Federal,
jalisco, nuevo león, Veracruz, colima y chiapas) se encuentra el 53%
de la pd‑Imss; el restante 47% se encuentra en las otras 25 entidades
federativas. es decir, la forma en que se distribuye la pd‑Imss en méxico
también responde al patrón concentración–dispersión. en este caso,
son siete las entidades federativas donde se encuentra más del 50% de
la pd‑Imss. Una vez más la concentración se da en aquellas entidades
federativas donde se encuentran la zmCm, monterrey y Guadalajara.
también la pd‑Imss se distribuye de acuerdo con una ley de potencias, lo cual significa que la interpretación que hicimos de la gráfica 1,
sería igual que la interpretación que hacemos en este caso.
2.1.3. Una aplicación de la distribución rango–orden a nivel
nacional con datos de los at‑Imss en el año 2005 de cada una
de las 32 entidades federativas de la República mexicana
Haciendo lo mismo que en los apartados anteriores, ahora se tomaron
los datos de la columna 4 del cuadro 1, una vez más, se aplicó la fórmula (1), ahora se obtuvieron los valores (a, b, R2) = (0.70, 0.26, 0.98)
y la gráfica 3.
interpretación de resultados:
Una vez más, de acuerdo con la información, se encontró que en tan sólo
seis entidades federativas (distrito Federal, estado de méxico, jalisco,
nuevo león, Veracruz y chihuahua) se concentra el 50% de los at‑Imss;
mientras el otro 50% de los at‑Imss se distribuyen en las 26 restantes entidades federativas. en otras palabras, el 50% de los empleos formales (ef) en
México se encuentran concentrados en tan sólo seis entidades federativas. es decir,
que la distribución de los at‑Imss (empleo formal) también responde al
patrón concentración–dispersión o de acuerdo con una ley de potencias.
ahora, cabe aclarar que aunque los at‑Imss son el indicador más
utilizado como equivalente del ef, la styps, la presidencia de la República
y otras instituciones toman a los tpeu como un indicador de la evolución del empleo. con esta variable, se tiene la ventaja de que registra
163
aCtas de eConomÍa y ComplejIdad I
Gráfica 3. República mexicana.
7
10
log(frequency). AT-IMSS
Entidades federativas
Curva de ajuste
6
10
5
10
4
10
0
10
1
10
log(r). Entidades federativas
2
10
Distribución Rango-Orden de los AT-IMSS
en la República Mexicana, (a, b, R 2 ) = (0.70, 0.26, 0.98).
exclusivamente a los trabajadores activos afiliados al Imss, además de
que el hecho de que sean sólo los urbanos, representa a los trabajadores
con un empleo formal en las urbes (léase ciudades).
2.1.4. Una aplicación de la distribución rango–orden a nivel
nacional con datos de los tpeu en el año 2005 de cada una
de las 32 entidades federativas de la República mexicana
siguiendo la misma metodología de los apartados anteriores, ahora se
tomaron los datos de la columna 4 del cuadro1, nuevamente, se aplicó
la fórmula (1), obteniéndose ahora los valores (a, b, R2) = (0.75, 0.31,
0.98) y la gráfica 4.
interpretación de resultados:
por último y de acuerdo con la información, ahora se encontró que
también en sólo seis entidades federativas (distrito Federal, jalisco,
estado de méxico, nuevo león, chihuahua y Baja california sur)
se concentra el 51% de los tpeu; mientras el otro 49% de los tpeu se
164
dos modelos de la teorÍa de los sIstemas Complejos
Gráfica 4. República mexicana.
7
10
log(frequenc y ). TP E U
Entidades federativas
Curva de ajuste
6
10
5
10
4
10
0
10
1
10
log(r). Entidades federativas
2
10
Distribución rango-orden de los TPEU en la República Mexicana,
(a, b, R 2 ) = (0.75, 0.31, 0.98).
distribuye en las 26 restantes entidades federativas. de acuerdo con los
resultados obtenidos y por el orden en que aparecen las entidades, en
el dF, jalisco, estado de méxico y nuevo león se encuentran las urbes
donde hay más trabajadores con un empleo formal, sea éste permanente
o eventual. con esta variable, queda más claro que las entidades donde
se encuentran la zmCm (distrito Federal y estado de méxico), Guadalajara (jalisco) y monterrey (nuevo león) son las ciudades con la mayor
cantidad de empleos formales.
desde el punto de vista de la teoría de la criticalidad autorganizada,
podríamos hacer una interpretación semejante a la de los apartados
anteriores.
3. Un modelo sobre la dinámica de la población
y el empleo aplicado a México
el modelo aquí propuesto es una adaptación del modelo de flujos migratorios de peter m. allen, con el que hicieron una aplicación del mismo
165
aCtas de eConomÍa y ComplejIdad I
con datos de estados Unidos. dicho de un modo sencillo, allen usó su
modelo para observar que los incrementos en la oferta de empleo en
algunos de los estados de la Unión americana inducen patrones realistas
de migración y autorganización, mismos que después comparó con las
migraciones reales.
así que, tomando como base e inspiración el modelo de allen, se
hizo un modelo que es un sistema de tres ecuaciones diferenciales con
tres variables y seis parámetros. es importante aclarar que —a diferencia
del modelo citado— en éste no se incluyó el parámetro de migración,
pero se logró un avance muy importante porque se modeló la retroalimentación entre las variables población y empleo, lo que permitió
predecir la tasa de desempleo en el corto plazo.
supuestos del modelo:
i. la población total (pt) crece de acuerdo con la ecuación logística.3
ii. la tasa de crecimiento de la población económicamente activa
total (peat) es constante.
iii. la creación de nuevos empleos formales (ef) es muy baja.
notas sobre algunas identidades contables de las variables del
modelo:
i. Hay una relación inversamente proporcional entre la población económicamente activa ocupada (peao) y la población
económicamente activa desocupada (pead).
ii. la población económicamente activa ocupada (peao)4 es la
suma de los empleados formalmente (ef),5 los empleados
3
la gráfica de esta ecuación muestra que la capacidad de carga refleja un límite de espacio
y recursos que impide que la población crezca exponencialmente. dicha capacidad de carga hace
que la gráfica forme una “S” alargada.
4
según el InegI es “la persona de 14 y más años que realizó alguna actividad económica,
al menos una hora en la semana de referencia, a cambio de un sueldo, salario, jornal u otro tipo
de pago en dinero o en especie. incluye a las personas que tenían trabajo pero no laboraron en la
semana de referencia por alguna causa temporal, sin que hayan perdido el vínculo con su trabajo
(vacaciones, licencia por maternidad, enfermedad, mal tiempo o porque estaban en espera de
iniciar o continuar con las labores agrícolas, etcétera). también están incluidas las personas que
ayudaron en el predio, fábrica, tienda o taller familiar sin recibir un sueldo o salario de ninguna
especie, así como a los aprendices o ayudantes que trabajaron sin remuneración”.
5
para esta investigación se está tomando como ef a los afiliados al Imss.
166
dos modelos de la teorÍa de los sIstemas Complejos
informalmente (eI),6 los empleadores (em)7 y los trabajadores
por cuenta propia (tCp) :
peao
= ef + eI + em + tpC
Variables y parámetros del modelo:
sean:
= pt. (Unidad: número de personas).
= peao. (Unidad: número de personas).
= pead.8 (Unidad: número de personas).
= pnea . población no económicamente activa.9 (Unidad: número
de personas).
n = población menor de catorce años. (Unidad: número de personas).
E = ef. (Unidad: número de personas con un empleo formal).
ε = proporción de solicitantes de empleo canalizados.
p
x
Y
z
Unidad:
Solicitantes de empleo canalizados
Solicitantes totales de empleo
l = tCmap. tasa de crecimiento media anual de la población en
el periodo 2000-2005.
k = proporción de solicitantes de empleo colocados.
Unidad:
Solicitantes de empleo colocados
Solicitantes totales de empleo
H = proporción de ef.
Unidad:
6
7
Empleos formales
Población económicamente activa total
por igualdad contable, si a la peao le restamos los ef, los em y los tCp obtenemos los eI.
incluye a todos los empleadores cuya empresa puede ser micro, pequeña, mediana y
grande.
8
según el InegI es la “persona de 14 y más años que en la semana de referencia no tenía
trabajo pero lo buscó activamente”.
9
también, de acuerdo con el InegI, esta población tiene 14 años y más. se refiere a estudiantes, incapacitados permanentemente para trabajar, jubilados o pensionados, personas dedicadas
a los quehaceres del hogar y otro tipo de inactividad.
167
aCtas de eConomÍa y ComplejIdad I
a = intercepto de la línea de regresión de la pead contra la pnea
en el periodo 2000.3–2005.4.
b = pendiente de la línea de regresión de la pead contra la pnea
en el periodo 2000.3–2005.4.
Representación matemática del modelo:
P=x+y+z+n
dx
1
= ε 1 + y −
dt
b
dx
1
b
x + 1 + y −
= λ
b
b + 1
dt
(2)
a
( E − x)
b
a
1
− ε 1 + y −
b
b
a
( E − x)
b
(3)
dE
E
= kE 1 − H
a
dt
1
−
1
+
+
x
y
b
b
es importante decir que los principios de interacción de los elementos que integran el sistema son sencillos. pero en ello radica el mérito de
allen, que sus modelos son variantes de la ecuación logística (la ecuación
diferencial no lineal más simple, pero con un gran poder explicativo)
que respeta el principio de parsimonia de occam.10 es decir, no siempre
los modelos más complicados o con el mayor número de variables son
garantía de que representen bien el fenómeno modelado.
como se puede ver, el modelo representa un sistema de retroalimentaciones (feedback) con tres variables. independientemente del valor
que se le asignen a los parámetros, podemos ver cómo la evolución de
la primer variable depende de la evolución que tengan la segunda y
la tercera variables; a su vez, la evolución de la segunda depende del
impacto que reciba de la primera y la tercera; por último, los cambios
en la tercera variable impactarán a la primera variable, a la segunda y
a ella misma, generando un proceso dinámico no lineal y temporal.
10
Una recomendación hecha por Galileo: “las entidades no deben multiplicarse más allá
de lo necesario”.
168
dos modelos de la teorÍa de los sIstemas Complejos
3.1. Una aplicación con datos de México
cuadro 2. datos oficiales para correr el modelo
abreviaturas
República
mexicana
pt
104294222
población económicamente activa ocupada
(trimestre 2005-4)
peao
41880780
población económicamente activa desocupada
(trimestre 2005-4)
pead
1351603
población económicamente activa total
(trimestre 2005-4)
peat
43232383
asegurados totales del Imss (trimestre 2005-4)
(empleos formales)
ef
16850541
tasa de crecimiento media anual de la población
(2000-2005)
l
1.26
proporción de eF con respecto a la peat [1]
H
0.39
intercepto de la recta (2000.3–2005.4) [2]
a
-4861463
pendiente de la recta (2000.3–2005.4) [3]
b
0.20
proporción de solicitantes de empleo canalizados
en 2005 [4]
e
0.68
proporción de solicitantes de empleo colocados
en 2005 [5]
k
0.30
Variables y parámetros
población total (2005-4)
Fuente: elaboración propia con datos obtenidos en <www.inegi.gob.mx>;
<www.imss.gob.mx>.
[1] se calculó dividiendo los ef entre la peat.
[2] Éste es el intercepto de la regresión lineal de la población desocupada contra la
población no económicamente activa.
[3] Éste es la pendiente de la regresión lineal de la población desocupada contra la
población no económicamente activa.
[4] se calculó dividiendo los solicitantes de empleo canalizados entre los solicitantes
de empleo totales durante 2005.
[5] se calculó dividiendo los solicitantes de empleo colocados entre los solicitantes
de empleo totales 2005.
169
aCtas de eConomÍa y ComplejIdad I
el sistema (3) se resolvió cuantitativamente y cualitativamente con
un programa de cómputo. para correr el programa se usaron los datos
que están sombreados en el cuadro 2, es decir, las tres variables y los
seis parámetros. con datos del año 2005, se obtuvieron los siguientes
resultados:
Gráfica 5. espacio fase
7
x 10
1.75
1.74
1.73
EF
1.72
1.71
1.7
1.69
1.68
3.5
3
4.5
2.5
4
2
x 10
3.5
1.5
7
3
1
2.5
0.5
7
x 10
2
0
1.5
PEAD
PEAO
Gráfica 6. trayectorias de peao, pead y ef
x 107
4.5
4
Y(:,1) PEAO
Y(:,2) PEAD
Y(:,3) EF
3.5
Condiciones Iniciales
3
2.5
2
1.5
1
0.5
0
0
10
20
30
Trimestres
170
40
50
60
dos modelos de la teorÍa de los sIstemas Complejos
la gráfica 5 se puede interpretar de la siguiente manera: de
acuerdo con la teoría de los sistemas dinámicos no lineales, el sistema
evoluciona hacia un punto donde se mantiene temporalmente estable,
pero después se dispara, es decir, se trata de un sistema con un equilibrio inestable.
en la gráfica 6 podemos ver con claridad que la peao empieza a descender, primero lentamente, después de manera acelerada, deteniendo
su caída hasta que se iguala con los ef; a partir de ese momento —por
lo menos lo que nos muestra la gráfica— estas dos variables evolucionan
juntas, lo que nos sugiere un mecanismo adaptativo y de posible autorganización ante la cantidad de ef disponibles. Basta ver la evolución de
la pead, en un principio tiene una evolución proporcionalmente inversa
a la peao, y en la medida que ésta última se adapta a la evolución de los
eF, la pead sigue el mismo comportamiento proporcionalmente inverso.
en última instancia, ante las condiciones iniciales dadas, basta observar
la evolución de la pead para tener idea del problema del desempleo
en méxico.
3.2 Una predicción de la tasa de desempleo (td)
Una pregunta razonable es ¿el modelo predice bien las variables que se
han relacionado en el mismo? Uno de los aspectos más sobresalientes es
la predicción de la td. con los datos trimestrales de la peao y la pead
es suficiente para calcular la td (porcentaje de la peat que se encuentra
desocupada). Recordemos que peat = peao + pead. de modo que, la
fórmula para calcular la td es la siguiente:
PEAD
*100
PEAT
TD =
(4)
en el siguiente cuadro se muestran las variables peao y pead calculadas por el modelo. a partir de ellas se calculó la peat y la td:
171
aCtas de eConomÍa y ComplejIdad I
cuadro 3. República mexicana.
trimestre
peao,
modelo
(1)
pead,
modelo
(2)
peat,
modelo
(3)
td,
modelo
(4)
td, InegI
(5)
2005-4
41880780
1351603
43232383
3.1
3.1
2006-1
41770129.28
1462253.722
43232383
3.4
3.5
2006-2
41657771.43
1574611.576
43232383.01
3.6
3.2
2006-3
41543664.47
1688718.536
43232383.01
3.9
4
2006-4
41016466-.47
2215916.555
43232383.02
5.1
3.6
2007-1
40455121.49
2777261.55
43232383.04
6.4
4
2007-2
39859269.65
3373113.406
43232383.05
7.8
3.4
2007-3
39229297.36
4003085.707
43232383.07
9.3
3.9
2007-4
36934200.47
6298182.655
43232383.13
14.6
3.5
2008-1
35064041.91
8168341.268
43232383.17
18.9
3.9
2008-2
33096023.92
10136359.31
43232383.22
23.4
3.5
20083
31092980.65
12139402.63
43232383.28
28.1
4.2
2008-4
29122031.77
14110351.57
43232383.34
32.6
4.3
2009-1
25982518.08
17249865.37
43232383.45
39.9
5.1
2009-2
23340307.62
19892075.95
43232383.57
46.0
5.2
2009-3
21299856.68
21932527.03
43232383.71
50.7
6.2
2009-4
19829928.82
23402455.02
43232383.85
54.1
5.3
2010-1
18818309.93
24414074.06
43232383.99
56.5
5.3
2010-2
18116121.76
25116262.38
43232384.15
58.1
5.3
2010-3
17659643.05
25572741.25
43232384.3
59.2
5.6
Fuente: elaboración propia con datos calculados por el modelo
y obtenidos del InegI.
(1), (2), (3) y (4) información obtenida del modelo.
(5) información obtenida de <www.inegi.gob.mx>.
en la gráfica 7 se muestra la comparación de la td calculada por el
modelo y la td publicada por el InegI para el periodo 2006.1–2010.3.
como se puede ver en las columnas 4 y 5 del cuadro 3 y en la
gráfica 7, el modelo sobre la dinámica de la población y el empleo presentado aquí tiene un horizonte de predictibilidad de tres trimestres.
esto significa que se trata de un buen modelo, es decir, con el ejercicio
172
dos modelos de la teorÍa de los sIstemas Complejos
Gráfica 7. tasa de desempleo.
de abstracción matemática y la programación en computadora del modelo, se ha captado bien la dinámica de la peat ante una determinada
cantidad de empleos formales.
por otra parte, el sistema (3) es dinámico y no lineal, lo que significa
que un pequeño cambio en las condiciones iniciales provoca resultados
de gran magnitud en la dinámica del sistema, ello explica por qué el
horizonte de predictibilidad es de corto plazo; como se ve en las gráficas
6 y 7, las trayectorias de la pead y la tasa de desempleo, respectivamente,
se comportan como la gráfica de la ecuación logística que, por cierto,
es la ecuación dinámica no lineal más sencilla. de cualquier modo, el
modelo podría servir como guía para una política de empleo siempre
y cuando se haga un corte y éste se alimente con la información oficial
cada tres trimestres.
Conclusiones
el recorrido por las aportaciones teóricas de los clásicos de la economía
y los estudios más recientes sobre la relación entre población y empleo
nos permitió ubicarnos en el problema que abordamos con herramientas
de la teoría de los sistemas complejos (tsC).
173
aCtas de eConomÍa y ComplejIdad I
los autores de la distribución rango–orden la aplicaron a los datos
de la población de las provincias españolas de Zaragoza y Valladolid,
también a los datos de población de algunas entidades federativas de
la República mexicana. lo novedoso de la aplicación hecha en este trabajo es que se aplicó a nivel nacional con datos de la población de las
32 entidades de méxico, año 2005. además, se extendió la aplicación a
datos del empleo para el mismo año. lo anterior nos permitió no sólo
estudiar el fenómeno de concentración–dispersión de los datos citados,
sino que se intentó hacer una primera interpretación del fenómeno
desde el enfoque de los sistemas complejos.
con el modelo dinámico no lineal (el cual es una adaptación del
modelo de flujos migratorios de peter allen), se trató de modelar la
dinámica temporal y la retroalimentación entre la población económicamente activa ocupada y económicamente activa desocupada dada una
cantidad de empleos formales (ef) ocupados. de los resultados cuantitativos y cualitativos del modelo encontramos que se trata de un sistema
que evoluciona hacia un punto de equilibrio inestable y que es muy
sensible a las condiciones iniciales; también se observa una tendencia
hacia la adaptación de la población económicamente activa total (peat)
ante una cantidad limitada de empleos formales (ef).
Bibliografía
allen m., peter (1997) Cities and regions as self-organizing systems models of
complexity. Gordon and Breach science publishers.
Bertalanffy, ludwig (1990) Teoría general de los sistemas. méxico: Fondo
de cultura económica.
Blanchard, paul; devaney, Robert l.; Hall, Glen R. (1999) Ecuaciones
diferenciales. méxico: international thompson editores.
carlino, G.a. y mills, e.s. (1987) the determinants of country growth.
Journal of Regional Science, núm. 27.1.
González chávez, Gerardo (2010) el mercado de trabajo y los salarios
en méxico. en Bouzas ortiz, alfonso (coord.), Perspectivas del trabajo
en México. méxico: unam.
levin, ígor alexiéevich (2004) Sinergética y arte. moscú: editorial
URss.
InegI (2009) Encuesta nacional de ocupación y empleo, trimestral. indicadores estratégicos.
174
dos modelos de la teorÍa de los sIstemas Complejos
(2005a) II Conteo de población y vivienda.
(2005b) Sistema de cuentas nacionales de México.
martínez-mekler, G., martínez, R.a.; del Río m.B.; mansilla, R.; miramontes, p.; cocho, G. (2009) Universality of rank- ordering
distributions in the arts and sciences. Plos ONE, 4(3): e4791.
doi:10.1371/journal.pone.0004791.
marx, carlos (1994) El capital. Crítica de la economía política. méxico:
Fondo de cultura económica
milovánov, V. p. (2005) Sinergética y autorganización. Modelación matemática
del comportamiento humano. moscú: editorial URss.
milovánov, V. p. (2007) Sinergética y auto-organización: sistemas socioeconómicos fuera de equilibrio. moscú: editorial URss.
miramontes, octavio (1999) los sistemas complejos como instrumentos de conocimiento y transformación del mundo. en santiago
Ramírez (coord.) Perspectivas en las teorías de sistemas. méxico: siglo
XXi, CeIICH-unam.
miramontes, pedro (1999) el estructuralismo dinámico. en santiago
Ramírez (coord.) Perspectivas en las teorías de sistemas. méxico: siglo
XXi, CeIICH-unam,
newman, m.e.j.(2005) Power laws, Pareto distributions and Zipf ’s law. University of michigan. ann arbor, Usa. arXiv:cond-mat/041204.
partida, Virgilio y anzaldo carlos (2004) escenarios demográficos y
urbanos de la Zona metropolitana del Valle de méxico. en Procesos metropolitanos y grandes Ciudades. méxico: unam, miguel Ángel
porrúa, cámara de diputados.
peralta, ernesto (2019) El (des)empleo en México, 2008-2030. méxico:
unam e Itesm.
pérez, Rigoberto (1997) Análisis de datos económicos II. Métodos inferenciales.
españa: ed. madrid.
prigogine, ilya (1987) La estructura de lo complejo. madrid: alianza editorial.
Ramírez Hernández, Roberto (2007) La dispersión económica de la zona
central de la Ciudad de México a su área metropolitana y sus efectos en
la estructura económica del suelo urbano de la zmcm: aplicación de un
modelo matemático para el periodo de 1994 a 2004, tesis de maestría.
méxico: unam.
Ricardo david (2004) Principios de economía política y tributación. méxico:
Fondo de cultura económica.
InegI
InegI
175
aCtas de eConomÍa y ComplejIdad I
Ruiz Fuensanta, maría jesús y soler, Vicent (s.f) “pautas de crecimiento
y dinámica espacial de la población y el empleo en los mercados
locales de trabajo: un análisis para castilla-la mancha, cataluña
y la comunidad Valenciana. <www. revecap.com/encuentros/trabajo/pdf/062.pdf>.
samaniego, norma (2010) el empleo y la crisis. precarización y nuevas “válvulas de escape. economía unam, núm. 20, mayo-agosto.
unam.
silva Herzog, jesús (1967) A un joven economista mexicano. méxico: empresas editoriales.
smith, adam (2009) Una investigación sobre la naturaleza y causa de la
riqueza de las naciones. madrid, españa: tecnos.
Vizcaya Xilotl, octavio eduardo (2009) Leyes de potencias de dos colas, tesis
de licenciatura. méxico: unam.
Mesografía
<www.inegi.gob.mx>.
<www.imss.gob.mx>.
176