Automatizaci On de Procesos
Automatizaci On de Procesos
Automatizaci On de Procesos
Tesis o trabajo de grado presentada(o) como requisito parcial para optar al tı́tulo de:
Magister en Automatización Industrial
Director(a):
Ph.D Fredy Andres Olarte Dussan
3. A la Universidad Nacional de Colombia por brindar los espacios necesarios, para poder
desarrollar mi formación profesional.
4. A los docentes del área de ‘Tecnologı́a e Informática’ y estudiantes del I.E.D Clemencia
Holguı́n de Urdaneta ası́ como el I.E.D Julio Garavito Armero.
ix
Resumen
Para el desarrollo del proceso de automatización implementado fue necesario seleccionar he-
rramientas evaluativas que brinden, tanto al docente como al estudiante, información que
permita establecer el nivel de competencia que tiene el educando. Se trabajó en el diseño e
implementación de pruebas tipo test y rúbricas o matrices de evaluación automáticas. Para
ello previamente fue necesario obtener las habilidades que se requerı́an evaluar en el estu-
diante. Dichas habilidades fueron obtenidas al analizar los desempeños de dos de los cuatro
componentes propuestos por el Ministerio de Educación Nacional (MEN), los cuales fueron:
‘Apropiación y Uso de la Tecnologı́a’ y ‘Solución de Problemas’. De los desempeños pro-
puestos en cada una de las componentes elegidas se realizó su respectiva corrección, de tal
manera que fuese posible, a partir de ellos, obtener indicadores para medir el nivel. Con los
desempeños corregidos y los indicadores creados se diseñaron las matrices de evaluación y los
test, los cuales fueron validados y mejorados de tal manera que garantizarán una medición
adecuada de los desempeños y a su vez de la competencia.
Se aplicaron las pruebas automatizadas a dos grupos piloto, fueron evaluados con la herra-
mienta y recibieron información que les permitió, tanto a los estudiantes como educadores,
establecer el nivel de competencia que tienen los educandos en cada componente. También se
desarrolló un juicio de expertos para validar la herramienta de evaluación automática basada
en rúbricas. El instrumento permitió establecer la opinión de educadores alrededor de diver-
sos aspectos, entre ellos: caracterı́sticas del usuario y configuración inicial de la plataforma,
usabilidad de la herramienta creada y utilidad del software desarrollado.
Abstract
In this thesis the design and implementation of an automatic evaluation tool based on
software is presented, which focus on the tracking of educational activities in the area of
“Technology and informatics” in the fifth cycle of the basic high school education. Some of
the problems in the evaluation process, within the technological area, are presented in two
chapters: at the first chapter the difficulties that professors in the technological area have
when they try to perform an evaluation process based on competences, and other aiming
to describe the evaluation tools that allow to perform a tracking of the student evaluative
process.
In order to develop the implemented automatization process, the selection of evaluative tools
that provide information, to the teacher as well as the student, that establish the competence
level of the student was mandatory. The design and implementation of automatic test type
exams, rubrics and matrices was done. In order to do so, previously was necessary to obtain
the skills to evaluate. Such skills were obtain through the analysis of the competency from
two of the four components proposed by the Ministry of Education (MEN), which were:
‘Appropriation and Use of Technology’ and ‘Solving Problems with Technology’. From the
proposed competency in each one of the chosen components, a correction process was held in
order to obtain level indicators. With the indicators and the corrected competency the test
and evaluation matrices were designed, which were validated and improved to guarantee an
adequate measure of the competency and the competence.
After the validation process and the improvement of the developed instruments, the design
that allows the automatization of the evaluative tools was developed. To do so, the program-
ming language was selected based on experiences that validated language characteristics such
as free distribution, multiplatform, capable of integration with data bases and web server
interpretation. After this process, the algorithms that permit the automatization of the gene-
ration of different test questions were designed. Likewise, the procedures that extract, from
the obtained results, reports that establish the student level in each skill, competency, and
competence. Also, the algorithms that automatize the rubric and the generation of different
report types were also designed and implemented. Furthermore, and taking into account the
decree 1290 from the MEN, a configuration system adjustable to the needs of each institu-
tion was created. Some configuration aspects taken into account were: number of academic
periods, autoevaluation, coevaluation, and heteroevaluation, and the possibility to configure
an individual skill, competency and competence. Ultimately, the user profiles that allow to
each educator and student log in into the system and observe the current and pendent acti-
vities and the evaluation type were created.
The automated test were applied to two pilot groups, which were evaluated with the de-
xii
veloped tools and receive information that allow, to educators and students, determine the
competence level of the students on each component. Also, an expert judgement was per-
formed in order to validate the automatic evaluation tool based on rubrics. The instrument
allowed to establish the opinion of various educators around different aspects, such as: user
characteristics, initial configuration of the platform, usability and utility of the developed
software.
Contenido
Agradecimientos VII
Resumen IX
Lista de figuras XV
1. Introducción 1
1.1. Contexto general . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2. Planteamiento del Problema . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3. Solución Propuesta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.4. Contenido de la Tesis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2. Marco de Referencia 7
2.1. Automatización de procesos . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.1.1. Automatización de procesos en la educación . . . . . . . . . . . . . . 8
2.1.2. Automatización del diseño instruccional (D.I) . . . . . . . . . . . . . 9
2.1.3. Automatización del proceso evaluativo . . . . . . . . . . . . . . . . . 12
2.2. Educación tecnológica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2.1. Educación tecnológica en Colombia . . . . . . . . . . . . . . . . . . . 18
2.3. Resumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
5. Resultados 68
5.1. Resultados pruebas diagnóstico y sumativa . . . . . . . . . . . . . . . . . . . 68
5.1.1. Metodologı́a de aplicación de las pruebas tanto manuales como au-
tomáticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
5.1.2. Comparación entre el uso de pruebas manuales y automáticas . . . . 71
5.1.3. Resultados de los estudiantes en las pruebas . . . . . . . . . . . . . . 73
5.2. Resultados juicio de expertos sobre el diseño de la plataforma para rúbricas . 79
5.2.1. Caracterı́sticas del usuario y configuración inicial de evaluación con
rúbricas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
5.2.2. Usabilidad de la plataforma de evaluación con rúbricas . . . . . . . . 81
5.2.3. Utilidad de la plataforma de evaluación con rúbricas . . . . . . . . . 82
5.3. Resumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
Bibliografı́a 98
Lista de Figuras
2-1. Fases del proceso RPU [101] . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2-2. Gráfica de los tiempos por fase para el RPU [101] . . . . . . . . . . . . . . . 11
2-3. Aspectos fundamentales en el diseño curricular [106] . . . . . . . . . . . . . . 17
2-4. Organización de la serie guı́a #30 . . . . . . . . . . . . . . . . . . . . . . . . 19
5-1. Tiempos promedios de evaluación de cada grupo por cada educador, tiempo
en segundos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
5-2. Resultado de evaluación de preguntas con única respuesta, tiempo en segundos 70
5-3. Resultado de evaluación de preguntas con múltiple respuesta, en segundos . 71
5-4. Tabla de Resultados I.E.D Clemencia Holguı́n de Urdaneta . . . . . . . . . . 73
5-5. Tabla de Resultados I.E.D Julio Garavito Armero . . . . . . . . . . . . . . . 75
5-6. Tabla de Resultados I.E.D Clemencia Holguı́n de Urdaneta, prueba de la
componente ‘Solución de Problemas con Tecnologı́a’ . . . . . . . . . . . . . . 76
5-7. Tabla de Resultados I.E.D Julio Garavito Armero, prueba de la componente
‘Solución de Problemas con Tecnologı́a’ . . . . . . . . . . . . . . . . . . . . . 77
1. Introducción
El proceso evaluativo es una herramienta del diseño instruccional que permite determinar el
impacto de las actividades, ambientes y herramientas desarrolladas alrededor de una serie
de habilidades a medir [30]. La evaluación no solamente se encarga de otorgar una nota al
estudiante, también permite orientar las estrategias seguidas, dar a conocer al estudiante sus
aciertos y aspectos a mejorar. Por ello es la base fundamental del proceso educativo y debe
ser tenido en cuenta como un eje que permite establecer qué conocimientos y qué habilidades
2 1 Introducción
La evaluación en conjunto con el diseño instruccional, han sido aplicados en diversas áreas
de conocimiento en estudiantes de los últimos grados del nivel de secundaria, tales como:
geografı́a [2] [29] robótica [74], mecatrónica [66], tecnologı́a [103], entre otras. En estas ex-
periencias se han obtenido mejoras en aspectos formativos y motivacionales, gracias a la
incorporación de materiales de software como hardware. Estos trabajos se han caracterizado
por brindar al estudiante los recursos necesarios para permitirle comprender un tema de-
terminado. Acompañados de refuerzos, ejercicios y prácticas de los conceptos aprendidos de
una forma diferente a la clase tradicional. En particular la enseñanza del área de tecnologı́a
e informática también ha sido intervenida por los procesos de diseño instruccional, acom-
pañados de un proceso evaluativo. Ejemplos de este caso se tienen en [7] [15] [32] [74] [41] y
[66], en cada uno de ellos, a partir del diseño instruccional, se diseñaron materiales didácticos
los cuales potencian algunas habilidades, ası́ mismo, son evaluadas haciendo un seguimiento
claro y sistemático del nivel de desempeño alcanzado por el estudiante.
Estos resultados demuestran que la aplicación del diseño instruccional permite identificar
los elementos necesarios para el desarrollo del proceso educativo y evaluativo a nivel de se-
cundaria, orientado a mejorar el desempeño en competencias en tecnologı́a. La educación en
esta área se enfoca en la obtención de competencias como: uso adecuado de la tecnologı́a,
tecnologı́a y sociedad, naturaleza y evolución de la tecnologı́a y solución de problemas con
tecnologı́a. El trabajo colaborativo y el aprendizaje por proyectos han sido utilizados como
un mecanismo en la obtención de las competencias mencionadas anteriormente [31].
Por otra parte en Colombia no se tiene una estructuración curricular en el área de tecnologı́a
e informática, simplemente se tienen una sugerencia de competencias y desempeños para su
creación [34]. Esto conlleva a que cada institución tenga un enfoque diferente frente a esta
área, generando diversos conceptos alrededor de ella y una amplia variedad de formas de tra-
bajo que dependen de factores de la institución tales como: la zona, el énfasis, la formación
del docente y los recursos didácticos disponibles. Esta diversidad trae como consecuencia
el uso y aplicación de muchos tipos de materiales, metodologı́as y formas evaluativas, que
usualmente interpretan el área de tecnologı́a como el simple uso de diversos programas de
computador [24].
El área tecnológica está siendo valorada por pruebas internacionales como la prueba PISA
donde se evalúa la componente de ‘solución de problemas’. Dicha prueba se caracteriza por
dar un contexto y dentro de este, plantear una situación que el estudiante a partir de sus
habilidades debe solucionar [113]. En Colombia aún no está siendo valorada por la prueba
SABER, ya que es un área con bastante diversidad, la cual tampoco tiene indicadores que
permitan fácilmente diseñar instrumentos para su medición. Por tanto es un área que si
1.2 Planteamiento del Problema 3
bien tiene componentes, competencias y desempeños por grupos de niveles propuestos por
el Ministerio de Educación Nacional 1 [34], no es trabajada por los docentes con procesos
evaluativos basadas en competencias.
El proceso evaluativo dentro del aula brinda al estudiante información acerca del nivel de
logro alcanzado, también identifica las dificultades y fortalezas presentes en su proceso de
aprendizaje [129]. De igual manera la evaluación es indispensable para el docente, establece
el nivel de desempeño de los estudiantes y permite identificar las dificultades que pueden
estar presentando. Con estos insumos el educador puede desarrollar una planeación que per-
mita mejora al estudiante y con ello obtener un nivel de logro en la competencia establecida
[110]. De igual manera presentar una serie de informes donde evidencie el avance de cada
estudiante, ası́ como las metas educativas obtenidas por el grupo de educandos en general.
Todos los elementos mencionados para el desarrollo del proceso evaluativo en el área de
tecnologı́a, son insumos necesarios para el diseño de cualquier herramienta instruccional au-
tomatizada. La planeación, el desarrollo, la ejecución y la evaluación del proceso educativo,
son fundamentales si se quieren desarrollar competencias, pero también implican carga de
trabajo al docente [23]. Adicionalmente se requiere una formación para la creación de las
herramientas basadas en este modelo, la dificultad aumenta debido a que el perfil profesional
de los docentes no responde a estas necesidades [31]. Para implementar el enfoque de diseño
instruccional, es necesario que los docentes del área de tecnologı́a cuenten con un apoyo que
reduzca la carga de trabajo que implica su uso. Esta solución puede surgir de la automati-
zación de algunas actividades del proceso educativo, como lo son: la evaluación formativa, el
seguimiento al desarrollo de proyectos, actividades de clase basadas en guı́as evaluadas por
rúbricas, el diseño de mapas conceptuales, entre otros.
1
MEN
4 1 Introducción
ejecución y evaluación del proceso educativo [66]. Este modelo permite mayor participación
en el aprendizaje por parte del estudiante y un proceso estructurado hacı́a una evaluación
cuantitativa y cualitativa constante por parte del docente. Permite también la estructuración
y creación de ambientes de aprendizaje, a partir de una adecuada planeación de actividades,
materiales y procesos evaluativos, brindando condiciones adecuadas para aprender [62]. Es-
to genera una organización curricular apropiada y un mejor aprovechamiento del material
existente motivando e incentivando al estudiante.
Por tanto se hace necesario el diseño de instrumentos evaluativos donde se tenga la posibili-
dad de brindar información al estudiante acerca del avance de sus procesos, de los aspectos a
mejorar y de las fortalezas que presenta. En esta misma lı́nea se espera que pueda tener una
evaluación integral, donde el estudiante se auto-evalúe y pueda evaluar a otros [58]. Asimis-
mo la herramienta a diseñar y crear debe tener la posibilidad de establecer los conocimientos
previos que tiene el estudiante, lo mismo que permita identificar al final del proceso el ni-
vel de cada competencia. Con esta información el docente podrá tener claridad del proceso
educativo, donde prime el desarrollo de habilidades, la aplicación de estas en contexto y la
solución de problemas dando uso a los conceptos aprendidos.
No obstante el aplicar una evaluación basada en competencias, implica mayor carga de tra-
bajo al docente que en muchos casos no cuenta con herramientas que le permitan hacer un
seguimiento adecuado al proceso educativo. Por tanto es necesario que los docentes del área
de tecnologı́a, cuenten con un apoyo que pueda llegar a reducir la carga laboral y que a
su vez les permita hacer un seguimiento adecuado del proceso evaluativo bajo el enfoque
de aprendizaje basado en competencias. De igual forma se tiene la dificultad del número
de estudiantes que debe atender, lo que hace que el proceso evaluativo sea dispendioso y
1.3 Solución Propuesta 5
complejo. Esto también hace que en muchas oportunidades por cansancio o desgaste, la eva-
luación dada no sea objetiva, generando inconformidad y causando poca motivación en el
estudiante [24].
Un posible solución surge desde la automatización del proceso evaluativo mediante la cons-
trucción de un sistema software que permita hacer un seguimiento a cada una de las acti-
vidades evaluativas y con ello obtener seguimiento del proceso educativo. Las actividades
evaluativas deben ser planeadas, estructuradas, ejecutadas y evaluadas de tal manera, que
brinden información al docente sobre el avance del proceso en el estudiante y a este último le
den información sobre los avances en su proceso de aprendizaje. De tal manera que se evalúe
constantemente la labor educativa a través del desempeño del estudiante y su impacto al
trabajar con la herramienta. El sistema debe re-alimentar las actividades desarrolladas por
el estudiante, informándole acerca de sus posibles falencias y la manera en que puede corre-
girlas. De igual manera debe informar al docente de los progresos obtenidos por el estudiante
y sus dificultades, con el fin de mantener el proceso en constante mejora.
4. Identificar los parámetros más relevantes en la aplicación del sistema como su facilidad
de uso y el impacto sobre la formación de competencias en el estudiante.
Asimismo la automatización está presente en las aulas como apoyo al desarrollo del proceso
educativo a partir del seguimiento de una serie de modelos que permiten su estructuración y
aplicación [59]. Estos modelos tienen como base una serie de entradas, las cuales son procesa-
das hasta convertirse en un conjunto de salidas deseadas. Con la información obtenida tanto
docentes como estudiantes pueden obtener información que permita identificar y establecer
los resultados del proceso educativo.
El ingreso del computador al aula de clases contribuyó a cambiar también la forma como
se construı́an los ambientes de enseñanza y de aprendizaje [51]. Estos ambientes que ini-
cialmente eran considerados como espacios fı́sicos, evolucionaron a convertirse en espacios
virtuales donde se tiene la posibilidad de interactuar con un objeto de aprendizaje. Estas
herramientas buscan presentar conocimientos reales y llevarlos al contexto educativo, ası́ el
estudiante mediante la interactividad tiene la posibilidad de comprender muchos de los he-
chos que se presentan fuera del aula. Para ello se hace necesario que el sistema creado tenga
una serie de condiciones para permitir que la experiencia sea lo más cercana a la realidad
[104]. La construcción de estos objetos para el aprendizaje implican el desarrollo de software
bien para uso off-line o on-line, siendo esta última la más usada hoy.
actividades que tendrá, el tipo de aprendizaje que desea lograr, la forma de navegación, la
organización del material y la evaluación del aprendizaje [48].
Chiapetts, Desautels y Telier afirman que el uso de sistemas automáticos basados en softwa-
re, permiten el desarrollo de las estructuras cognitivas relacionadas con la motivación [74].
Para ello se deben diseñar materiales significativos, de manera que estos logren el desarrollo
intelectual del estudiante. Esta caracterı́stica se logra gracias a la manipulación y explora-
ción de diversos objetos, lo que produce impacto en el estudiante. Por esto la creación de un
software educativo involucra una serie de procesos para su análisis, desarrollo y ejecución.
Lo que hace necesario un modelo que permita configurar el software de tal forma que pue-
da cumplir con los objetivos de aprendizaje esperados. De igual forma es necesario que la
herramienta software tenga una fase donde se pueda garantizar la medición, supervisión, y
evaluación de forma constante del proceso educativo [38]. Esto no solo permite evaluar los
alcances del estudiante en las metas educativas, sino que apreciar los alcances del ambiente
creado [37]. Es por ello que se diseñan bajo modelos de diseño instruccional, donde se modela
el ambiente a partir de una serie de fases fundamentales. En la siguiente sección se hará una
descripción acerca del diseño instruccional y sobre la forma como ha sido su automatización.
que el educando deberá conocer y aplicar al final del proceso educativo. A partir de es-
tas habilidades se establecen los indicadores que permitirán la medición de cada habilidad.
Esos indicadores deben ser cuantificables, permitiendo al docente establecer con precisión el
resultado que espera por parte del estudiante. Con los indicadores establecidos es posible de-
terminar las actividades a desarrollar y la herramienta evaluativa adecuada para medirlo [16].
Una de las ventajas que tienen los modelos de diseño instruccional es permitir avance en el
estudiante a pesar de la diferencia en los ritmos de aprendizaje. Esto gracias a que este tipo
de modelos generan impacto en el estudiante en cuánto a potenciar sus habilidades, dando
uso a diversas tecnologı́as TIC como apoyo educativo [59]. A pesar que los estudiantes no
aprenden al mismo ritmo, las herramientas creadas a través del modelo permiten generar
competencias y habilidades, debido a que se aplican en un contexto [50]. Su creación tiene
como base fundamental el seguimiento de los pasos del modelo de diseño utilizado. Estos
apoyos educativos, en muchos casos, son de tipo software y brindan respuesta rápida a los
procesos educativos, con ello el estudiante tiene la posibilidad de corregir errores concep-
tuales en el instante [87]. Un caso de este tipo de material es el presentado por [125], esta
herramienta presenta los conceptos fundamentales, simulación de algunos modelos y una
evaluación.
dologı́a Rational Unified Process (RPU), la cual asegura la producción desde sus primeras
fases de desarrollo un producto de calidad [80]. Esta metodologı́a es un estándar para el di-
seño, análisis, implementación y documentación de sistemas orientados a objetos. Este tipo
de estándar presenta un enfoque de desarrollo iterativo e incremental, proporciona iteracio-
nes tempranas que se enfocan en validar y producir la arquitectura de software y un ciclo
de desarrollo inicial que toma la forma de un prototipo ejecutable. Este prototipo va evolu-
cionando hasta convertirse en una versión final del proceso instruccional a automatizar [101].
La figura 2-1 presenta los pasos utilizados para aplicar el modelo, en ella se observa la
secuencia de las fases usadas. También se aprecia que en medio de cada fase se tiene un punto
de revisión, en donde se analiza a la luz de los requerimientos establecidos para cada fase, la
calidad del avance obtenido. De esta manera si el avance no logra los mı́nimos esperados es
posible re-diseñarlo o desecharlo. Estos puntos de revisión en el caso del software educativo,
están basados en unos cuestionarios elaborados, los cuales son revisados luego de la aplicación
o revisión de esta fase [80].
La figura 2-2 evidencia los tiempos que se usan en cada una de las fases. Es posible observar
que las etapas iniciales tienen tiempos menores al ser comparados con la fase de construcción.
Esto es propio del estándar y su objetivo es garantizar que la fase de construcción solo inicie
cuando los controles de las fases previas se cumplan.
Figura 2-2.: Gráfica de los tiempos por fase para el RPU [101]
Existen otras metodologı́as para el desarrollo de soluciones software basados en una tenden-
cia conocida como ingenierı́a instruccional [102]. Dentro de ella se tiene la metodologı́a MISA
12 2 Marco de Referencia
(Método de Ingenierı́a para Sistemas de Aprendizaje), este método es de tipo integral donde
es posible expresar modelos de enseñanza para estructurar materiales educativos, identifica-
ción de unidades, ası́ como la estimación de costos de producción [80]. El modelo contiene
seis fases: definir el problema de enseñanza, proponer soluciones preliminares, arquitectura
del I.D, diseño y entrega de materiales instruccionales, construcción y validación de mate-
riales, finalizando con el plan de entrega del sistema de aprendizaje. Para cada una de las
fases se tienen una serie de entregables los cuales permiten hacer revisión constante de los
avances del software implementado. Este tipo de modelos cuentan con la posibilidad de 35
tareas principales, ası́ como 150 tareas secundarias, dentro de las que se destacan: buscar,
almacenar y recuperar repositorios de objetos de aprendizaje, ası́ mismo interactuar con un
recurso web, gestionar sus propios repositorios de objetos, compartilos e intercambiarlos por
otros [96].
que permiten hacer seguimiento de las metas o competencias que se quieren desarrollar. Es-
tos sistemas basan su desarrollo en una serie de requerimientos, los cuales dependerán del
tipo de actividad evaluativa propuesta. De esta manera todos los agentes involucrados en el
proceso educativo tendrán información en el momento que se requiera.
Existen diversas experiencias en las cuales se han automatizado los procesos evaluativos,
uno que es comúnmente usado son las pruebas escritas. Algunos de estos sistemas han si-
do desarrollados en espacios web, donde se espera que el estudiante acceda a ellos y pueda
responder un cuestionario, el cual brinda re-alimentación del nivel logrado. Estos sistemas
en algunos casos van acompañados de algún material previo el cual es evaluado mediante
un test. Experiencias como la de [26] [70] [135] y [60] evidencian sistemas donde se tienen
pruebas escritas para validar los aprendizajes obtenidos por los estudiantes.
Las preguntas abiertas no son una herramienta muy común para automatizar, esto debido
a la complejidad del manejo del lenguaje, por tanto son muy pocas las experiencias que las
aplican [118]. El sistema llamado ‘MyTest’ [125] evidencia una herramienta evaluativa que
utiliza preguntas abiertas, las cuales son evaluadas por el docente. La herramienta evalúa
conceptos en matemáticas con preguntas cerradas y abiertas. El algoritmo de evaluación en
el caso de las preguntas abiertas es similar al descrito previamente. En el caso de las pregun-
tas abiertas en la experiencia el sistema toma la respuesta a mano por parte del estudiante y
la re-alimentación es dada por el docente. Este mismo caso se presenta en la herramienta de
evaluación de moodle R y otras plataformas, se tiene la herramienta para ubicar respuestas
abiertas, pero estas deben ser evaluadas por el docente [84].
Automatizar las preguntas abiertas implica algoritmos que puedan identificar palabras cla-
ves expandidas dentro de un texto [43]. El algoritmo a partir de un conjunto de términos y
sus definiciones toma pares de definiciones de un mismo término provenientes de diferentes
14 2 Marco de Referencia
fuentes y a partir de estos pares se establecen parejas de palabras que pueden sustituirse
unas por otras y cuyo cambio en el significado de las definiciones resulta irrelevante. Este
tipo de parejas de palabras forman lo que se ha denominado como par-semántico.
La búsqueda de pares-semánticos se realiza sobre todas las definiciones del diccionario ter-
minológico. Una vez establecidos todos los pares de palabras, se sustituye la primera palabra
por la segunda en todos aquellos pares de definiciones en donde aparecen ambos términos en
su texto. Terminada la sustitución, el proceso de búsqueda de pares se repite. El algoritmo
termina hasta que ya no se identifican nuevos pares. Al final de cada ciclo, los pares de pa-
labras se combinan para formar conjuntos más grandes de palabras, todas ellas relacionadas
semánticamente. De esta manera se establece si el escrito desarrollado por el estudiante se
acerca a la respuesta correcta o no. Un aspecto fundamental al momento de evaluar con pre-
guntas abiertas es que deben ser bien construidas. Si bien no deben llevar al estudiante a la
respuesta, es necesario que permita varias opciones de respuesta y den claridad al educando
sobre lo que se quiere preguntar [57].
Automatización de rúbricas
La rúbrica permite evaluar las habilidades mostradas por el estudiante frente a un determi-
nado contexto, evidenciando que el proceso tiene criterios claros de evaluación y a su vez
calidad en el diseño de actividades [76]. Estas herramientas han sido automatizadas en pla-
taformas virtuales como Moodle. En ellas se tienen una serie de criterios, niveles descriptivos
y la asignación de una calificación numérica, todas estas tareas dadas por el docente [86].
Este sistema tiene un método de calificación el cual se basa en un porcentaje, su cálculo es:
PN
(gi − mini )
Gs = PN i=1 (2-1)
i=1 (maxi − mini )
Existen diversas formas en las cuales se ha vinculado la tecnologı́a con la educación Gagné
[44] se preguntaba acerca de la forma cómo un producto tecnológico podı́a por sı́ mismo
generar aprendizaje. De lograr aprendizaje ¿cuál es el vı́nculo y la relación que existe entre
ambas? A partir de ello ¿cómo puede la tecnologı́a ser contextualizada en el marco educativo?
Estas preguntas han generado diversas investigaciones las cuales buscan analizar la tecno-
logı́a y su relación con el aprendizaje desde diversas observaciones, dentro de ellas se tiene:
evolución de la sociedad, la educación y su influencia en la selección de teorı́as del aprendi-
zaje y tecnologı́as, las teorı́as de aprendizaje y la tecnologı́a situadas de alguna manera en
un campo conceptual, lo mismo que las teorı́as del aprendizaje y la enseñanza conectadas
junto con el procesamiento de la información y la adquisición de conocimiento [73]. Estas
investigaciones permitieron ver la tecnologı́a y su relación con la educación desde diversos
enfoques a partir de la relación enseñanza-aprendizaje.
La tecnologı́a como conocimiento es otro de los enfoques en los que se enmarca la relación
de la tecnologı́a con la educación. En esta perspectiva la tecnologı́a es vista como objeto de
16 2 Marco de Referencia
estudio, donde es analizada como aspecto filosófico. De tal manera que sus conceptos son
aplicables al desarrollo de nuevas tecnologı́as. Si se considerará el comprender un artefacto
desde él es posible generar diversos conocimientos, dentro de ellos: los fı́sicos, la naturale-
za funcional y los principios que lo rigen. Este enfoque tiende a hacer más descriptivo en
términos de conocimientos aplicados, teniendo en cuenta un alto grado de cientificidad en las
descripciones de cualquier sistema presente en una tecnologı́a [137]. Este enfoque brinda al
estudiante la posibilidad de comprender el objeto por los conceptos transversales de diversas
áreas del conocimiento presentes en un sistema tecnológico. De tal manera que a partir de
ellas el educando, pueda dar explicaciones con un nivel de argumentación acorde al concepto
cientı́fico presente en el artefacto [138].
El último enfoque vincula la tecnologı́a con conceptos éticos y de valores, donde prima la
reflexión alrededor del uso de la tecnologı́a en diversos entornos. Asimismo se hace un análisis
de los sistemas tecnológicos y su impacto en el ser humano, la sociedad y el ambiente [137].
A partir de esos impactos surgen cuatro vı́as sobre los cuales se trabaja este enfoque, la
primera de ellas es la relación que el ser humano tiene frente a una determinada tecnologı́a
hasta incluso ser esencial para la vida [92]. La tecnologı́a como aspecto que hace lectura de
la realidad, a partir de la cual observa necesidades y da una adecuada interpretación de ellas.
La tercer vı́a analiza como la tecnologı́a altera la realidad de una sociedad. Ejemplos de este
aspecto son los video juegos, la ciencia ficción y la incursión del computador en el hogar.
La última vı́a de este enfoque examina la forma como la tecnologı́a y sus avances generan
influencia en el ser humano.
2.2 Educación tecnológica 17
Objetivos: basados
en promover el desarrollo de
competencias
A partir de estos enfoques se han generado diversos currı́culos que permiten la enseñanza de
la tecnologı́a. Estos currı́culos proponen la enseñanza de la tecnologı́a basados en competen-
cias, por tanto buscan que el estudiante evidencie a partir de habilidades saberes tecnológicos,
también conocidos como las competencias del siglo XXI. La figura 2-3 evidencia la forma
como [106] propone que se debe analizar el desarrollo curricular para estas competencias.
En la figura es posible observar que es de suma importancia para esos desarrollos curricu-
lares tener unas metas claras acerca de lo que se quiere enseñar en tecnologı́a. Asimismo
determinar el método de enseñanza, las actividades a desarrollar ası́ como los ambientes de
aprendizaje que contribuyan a desarrollar habilidades tecnológicas en el estudiante. De igual
forma se deben plantear los conceptos o contenidos que se espera abordar durante el tiempo
que se aplique el currı́culo. De otro lado se tienen los actores que estarán acompañando el
proceso educativo [6]. La sociedad a partir de analizar como la tecnologı́a se integra a ella, las
necesidades que la tecnologı́a ha suplido y puede llegar a suplir. También se tendrá a la es-
cuela como eje fundamental del desarrollo curricular, generando una planeación que permita
desarrollar habilidades en el estudiante, teniendo en cuenta conocimientos, procesos educa-
tivos, la evaluación y factores éticos que involucran la interacción con otros. Por último en la
figura vemos al individuo que representa al estudiante, quien debe apropiar las habilidades
tecnológicas, solucionar problemas a partir de sus conocimientos y habilidades, desarrollar
conceptos tecnológicos que involucren el entorno, adoptar una postura crı́tica frente al uso
de la tecnologı́a y aplicar valores como la ética al trabajar con otros [134].
18 2 Marco de Referencia
El MEN en el año 2008 publica el documento Serie Guı́a # 30: ser competente en tecnologı́a:
una necesidad para el desarrollo [34]. En este documento inicia con un marco conceptual
dentro del cual se establece una serie de definiciones básicas alrededor del significado de la
tecnologı́a. Después, presenta las diversas relaciones que tiene la tecnologı́a con la evolución
del hombre, por ejemplo con la ciencia, la técnica, la ética, el desarrollo y evolución de la
sociedad, entre otros aspectos. Finalmente, describe un conjunto de lineamientos que per-
miten organizar los procesos educativos y evaluativos en el aula mediante una organización
jerárquica de componentes, competencias y desempeños para cada uno de los grupos de gra-
dos de educación básica y media.
La figura 2-4 presenta la organización del documento, se pueden observar en el nivel superior
los componentes que conforman la base fundamental del documento: Naturaleza y evolución
de la tecnologı́a, Apropiación y uso de la tecnologı́a, Solución de problemas con tecnologı́a y
Tecnologı́a y sociedad. En el segundo nivel, para cada uno de los componentes se asocia una
competencia que se espera sea desarrollada dentro del proceso formativo de los estudiantes
en cada grupo de niveles educativos, para cada una de las competencias. En un tercer nivel,
se ubica el conjunto de desempeños asociados a cada competencia con el fin de medir el nivel
de alcance de la competencia por parte de los estudiantes.
2.3 Resumen 19
Apropiación y Naturaleza y
Solución de
Tecnología evolución de
uso de problemas con
y sociedad la
tecnología tecnología
tecnología
2.3. Resumen
En este capı́tulo se presentaron los conceptos básicos necesarios para el desarrollo del pre-
sente trabajo: en primer lugar se mostró la descripción del proceso de automatización y su
aplicación en el diseño de ambientes de aprendizaje, diseño instruccional y el proceso evalua-
tivo en educación. Luego se presentó la educación en tecnologı́a y los diversos enfoques los
20 2 Marco de Referencia
cuales son la base fundamental de las competencias del siglo XXI. Se describió el panorama
normativo de la educación en tecnologı́a en Colombia, tanto desde el MEN como desde la
SED Bogotá. En el siguiente capı́tulo se hará una descripción acerca del problema de la
evaluación en el contexto educativo, teniendo en cuenta los instrumentos necesarios y su
validación, ası́ como los esquemas automáticos que se pueden implementar.
3. Diseño y creación de instrumentos de
evaluación
En este capı́tulo se tendrá una ampliación del problema de la evaluación educativa basada
en competencias. En Colombia esta evaluación en el área de tecnologı́a es poco común, esto
debido a diversos factores que se tienen en las aulas. Algunos de esos factores serán descritos
en las secciones que conforman el capı́tulo. También a partir de los problemas descritos se
seleccionarán los requerimientos a automatizar, dando una explicación de qué son y qué
caracterı́sticas tienen. Además se explicará la forma cómo se crearon los instrumentos para
los diversos momentos de la evaluación. Se contará el proceso de diseño, creación y validación
tanto de las rúbricas como de las pruebas escritas.
estudiante dentro del proceso evaluativo, el educando es el centro del proceso y la opinión
sobre su desempeño y el del otro permite evidenciar los alcances que considera ha obtenido
en el proceso. También es quién evidencia los desempeños, muestra las actitudes y utiliza
las habilidades en diversas situaciones dadas, por tanto su visión es importante dentro del
proceso evaluativo [54].
El proceso evaluativo basado en competencias descrito por [9] [28] [64] [88] [119] y [134] puede
ser modelado como un sistema de entrada salida como el mostrado en la figura 3-1. Este
sistema permite observar unas entradas, las cuales pueden ser modificadas por el proceso
evaluativo y entregan a la salidas del proceso unos resultados que afectan tanto al estudiante
como a la planeación desarrollada por el docente. Es posible observar que se tienen tres
entradas conformadas por aspectos fundamentales: las competencias que se quieren medir,
los estudiantes como eje fundamental del proceso de aprendizaje y el docente como quien
diseña los aspectos del proceso de enseñanza.
Proceso de evaluación
Salidas del sistema
Momentos evaluativos Formas de evaluación
Entradas del sistema Nivel de competencia
Evaluación diagnóstica Auto-evaluación
del estudiante
Competencias
Objetivos de aprendizaje
Evaluación de proceso Co-evaluación Nivel de competencia
Perfil del de cada grupo
estudiantes y docentes Evaluación Sumativa Hetero-evaluación
Nivel de impacto de
las estrategias usadas
Usan diversos instrumentos
de medición
puede determinar el nivel de competencia de cada estudiante ası́ como de cada grupo.
El informe construido sobre el área tecnológica en Colombia, revela que no es clara la forma
de evaluación dentro de los procesos que siguen los docentes. Se muestra un uso constan-
te de la hetero-eveluación por parte de los docentes, pero escasea la auto-evaluación y la
3.1 Importancia de la evaluación educativa en el área tecnológica 25
En Colombia la evaluación tecnológica está reglamentada para determinar una serie de ha-
bilidades en el estudiante, brindando espacios para la auto-evaluación, la co-evaluación y
la hetero-evaluación [79], esto no siempre sucede en las instituciones educativas en el área
de tecnologı́a. Se evidencia el uso de la hetero-evaluación en el proceso educativo, pero no
se da la posibilidad al estudiante de evaluarse ası́ mismo ni al otro [24]. Esto no permite
al estudiante la posibilidad de reflexionar acerca de su propio trabajo, no posibilita emitir
juicio sobre su desempeño y a su vez el educando no logra comprender en qué se ha mejorado
y en qué se debe seguir evolucionando para alcanzar la meta de aprendizaje [28]. Por ello
es posible establecer que no se trabajan procesos educativos por competencias, ya que no
existe dentro del proceso una re-alimentación al estudiante, donde él conozca sus verdaderos
avances ni la forma de mejorar donde tiene dificultad.
El proceso evaluativo evidenciado por el informe del premio compartir, establece que los do-
centes del área de tecnologı́a evalúan la forma como el estudiante usa el computador. También
presenta el proceso de enseñanza-aprendizaje centrado en el aprendizaje de software, donde
prima el uso del paquete office de Microsoft R . El informe evidencia que los docentes del
área tecnológica evalúan conocimientos pero no su aplicación dentro de un contexto, ni el
empleo de la tecnologı́a para la solución de problemas, ası́ como la forma como el estudiante
utiliza o aprende herramientas de las TIC [24]. Por tanto, se presume la no utilización de la
evaluación por competencias para el área de tecnologı́a e informática en Colombia, si bien
los docentes enuncian postulados pertenecientes a este enfoque, no existen explicaciones de
la forma como lo aplican en sus aulas de clase [24]. De igual forma los educadores justifican
dificultades para aplicar un modelo evaluativo por competencias, debido a diversos factores,
entre ellos, el que más se destaca es la cantidad de estudiantes en el aula [39] y [85].
ficultad de hacer seguimiento del proceso educativo, diversas investigaciones han demostrado
que grupos de educandos numerosos, no solo dificultan la labor docente, también dificultan
la construcción de informes de desempeño, por tanto el educando no tiene información ni
re-alimentación del estado real del nivel de logro obtenido [82] y [91].
La tabla 3-1 resume los diversos problemas descritos alrededor del proceso evaluativo en el
área de tecnologı́a en Colombia. La tabla presenta dos aspectos fundamentales y que según
informes sobre el área tecnológica, no permiten evaluación por competencias. También hace
una descripción de las posibles consecuencias de no tener un desarrollo educativo basado en
competencias. Se destaca el poco uso de las fases de evaluación dentro del proceso, también
muestra la falta de re-alimentación del proceso hacı́a el estudiante, además muestra un pro-
ceso de evaluación que se basa en el aprendizaje de conceptos o uso de software teniendo
en cuenta que en la aplicación de conceptos y que el proceso evaluativo en muchos casos
depende de la entrega de un producto por parte del estudiante.
La tabla también muestra la influencia que genera la cantidad de estudiantes en el aula, don-
de predomina la falta de seguimiento a las habilidades desarrolladas por el estudiante, las
dificultades de conocer el rendimiento de cada grupo en cuánto a habilidades, desempeños y
competencias. Adicionalmente hay dificultades para evaluar desempeños que se trabajan en
diversos periodos académicos y falta de re-alimentación del proceso a estudiantes y docentes.
3.1 Importancia de la evaluación educativa en el área tecnológica 27
organizará su calendario académico [123]. Esto ha hecho que las instituciones determinen
el número de periodos académicos en un rango de dos a cuatro al año. A partir de esos
posibles periodos académicos se determina que para el caso del sistema a desarrollar, se dará
al docente la opción de seleccionar el número de periodos académicos según los establecidos
por su institución.
El gobierno nacional presenta en el decreto 1290 de 2009 libertad a cada institución para
establecer su sistema institucional de evaluación (SIA). El decreto establece que es necesario
para una evaluación basada en competencias involucrar la auto-evaluación y co-evaluación
como formas de evaluación. Pero también sugiere que cada institución tiene la libertad de
determinar el valor porcentual que considere para cada una de estas formas de evaluación.
A partir del decreto se estableció la ecuación 3-1, la cual permite determinar la evaluación
que obtendrá un estudiante de cualquier institución distrital en un periodo académico. La
ecuación evidencia las formas de evaluación dadas en el decreto: la auto-evaluación (A), la
co-evaluación (C) y la hetero-evaluación (H). Ası́ mismo se determinaron unos valores X, Y
y Z que son valores porcentuales que la institución tiene establecidos para cada uno de las
formas evaluativas.
Adicionalmente el decreto 1290 establece una escala nacional sobre la cual se ubican los resul-
tado obtenidos en cada periodo académico por parte de los estudiantes en las competencias
a desarrollar. Dicha escala ubica en su parte más alta el nivel superior, posterior el nivel alto,
luego el básico y para los estudiantes con dificultades en una determinada competencias el
nivel bajo.
Los docentes de secundaria de las diversas áreas del conocimiento en Colombia están regidos
por la ley general de educación o ley 115, establecida por el MEN. En uno de sus artı́culos
el MEN da a los educadores del paı́s libertad para el desarrollo de sus clases dentro del aula.
Esto debido a que dentro de un salón de clase se tienen diversos tipos de aprendizaje en los
estudiantes, ası́ como diversos ritmos de aprendizaje. Las personas no entienden los temas
planteados, ni los utilizan de forma inmediata ni de la misma manera, por ello se plantea
que las personas construyen su conocimiento a su propio ritmo [58] y [109]. El docente es-
tablece a partir de un proceso diagnóstico al iniciar el año escolar, cuales y cuántos son los
desempeños que se deben trabajar en cada periodo académico. Ası́ mismo a partir de su
planeación y del transcurso del curso él determinará si es necesario trabajar un desempeño
en más de una oportunidad. Por tanto el sistema automático a diseñar debe permitir al
docente seleccionar los desempeños que planea en cada periodo académico y darle la opción
de poder seleccionarlos en más de un periodo si ası́ lo ve necesario.
30 3 Diseño y creación de instrumentos de evaluación
Porcentaje a cada
Número de periodos Selección de los
momento de la
académicos desempeños a trabajar
evaluación
De las competencias
Selección entre dos y Auto-evaluación seleccionadas escoger
cuatro periodos los desempeños a
trabajar
Co-evaluación
Hetero-evaluación
La figura 3-2 presenta un resumen de los aspectos descritos y que serán tenidos en cuenta
como requerimientos del sistema automático a crear. Es posible observar aquellos aspectos
que se le permitirán al docente modificar, entre ellos el número de periodos académicos que
tiene su institución, también la posibilidad de establecer el nivel porcentual que tendrán
las diversas formas de evaluación y la selección de los diversos desempeños en un periodo
académico. Los aspectos descritos no serán los únicos a tener en cuenta como requerimientos
para automatizar el proceso evaluativo, se tienen otros requisitos que serán necesarios para
poder tener un instrumentos automático de evaluación por competencias.
En las secciones previas se describieron los momentos evaluativos, en los cuales se tiene un
diagnóstico, un proceso y una evaluación sumativa. Estos momentos serán parte del instru-
mento automático de evaluación, para ello es necesario establecer para cada momento el tipo
de herramienta evaluativa que se utilizará. En el caso de la evaluación de tipo diagnóstico
se seleccionó el diseño de una prueba que permita evidenciar los niveles de desempeños que
tienen los estudiantes. Para la fase de proceso se estableció el diseño de unos instrumentos
evaluativos denominados rúbricas, los cuales son matrices de evaluación que permiten a estu-
diantes y docentes identificar el nivel de logro alcanzado frente a una determinada habilidad,
esto gracias a una escala de valoración. Este tipo de instrumento da una re-alimentación
que permite al estudiante aclarar los aspectos que se hicieron bien y aquellos donde se tie-
ne dificultad, al docente le permite identificar aquellos aspectos donde el estudiante puede
mejorar para de esta manera orientar el proceso educativo [65], [14] y [29]. La evaluación
sumativa será aplicada con el mismo instrumento diagnóstico, esto con la idea fundamental
de observar si existió un mejora en los diversos desempeños trabajados en el año académico
y establecer con ello si los estudiantes mejoraron o no su nivel de logro [108].
Para poder diseñar cada una de estas herramientas es necesario establecer previamente los
objetivos de aprendizaje o competencias que se trabajarán, a partir de ellos obtener los
3.3 Definición de desempeños 31
Al revisar los desempeños propuestos por el MEN para estas dos componentes se encuentra
que algunos de ellos no coinciden con las recomendaciones dadas por [67], [88] y [134]. Dicha
recomendación establece que deben iniciar con un verbo medible, tener claridad y una marco
temporal, una finalidad y una condición de calidad. El verbo debe indicar un nivel cognitivo
representado a través de habilidades, las cuales deben aplicarse dentro de un contexto, ası́
mismo la unión de esas destrezas deben generar una finalidad, las cuales se espera permi-
ten establecer el alcance determinado. A partir de estas indicaciones se se analizaron los 10
desempeños de la componente de ‘apropiación y uso de la tecnologı́a’ y los 11 que pertenecen
a ‘solución de problemas con tecnologı́a’.
A partir de la revisión se hicieron las correcciones necesarias a cada uno de los desempeños
de la serie guı́a # 30 se presentaron a los docentes de tecnologı́a de las instituciones per-
32 3 Diseño y creación de instrumentos de evaluación
Para la construcción de los indicadores se analizó cada desempeño de las componentes me-
diante el uso de los niveles cognitivos planteados por Krathwohl. A partir de esta revisión
se identificó y determinó las cualidades de cada desempeño dentro de un nivel cognitivo en
la taxonomı́a de Bloom revisada [68]. Para ello se toma el verbo principal del desempeño,
se buscó el dominio cognitivo al que pertenece y se determina con claridad, el alcance de
aprendizaje, la cualidad que este desarrolla y la posible evidencia a obtener en el estudiante
[76]. El resto de partes que componen el desempeño brindan información que permite deter-
minar los alcances que el estudiante alcanzará. Con ello se logran establecer los indicadores o
guı́as de calidad [47] y con ellas tener evidencia de los aprendizajes que obtendrá el estudiante.
1
En este estudio trabajaron varios investigadores y docentes de escuelas
3.5 Diseño y validación de instrumentos evaluativos 33
nomia hace referencia a la aplicación de procedimientos en una situación, lo que quiere decir
que usa la información en un contexto determinado [68] y [77]. Este desempeño se puede
representar mediante las habilidades: organizar, usar y presentar. El resto de la información
del desempeño entrega el contexto donde es posible aplicarlo. Con la estrategia descrita fue
posible crear por cada componente indicadores de evaluación. Para el caso de la componente
de ‘apropiación y uso de la tecnologı́a se crearon veinte habilidades observables en el es-
tudiante. En el caso de la componente ‘solución de problemas’ se crearon quince destrezas
medibles.
Desempeño Indicadores
. Usa las funciones que brindan las herramien-
tas de las TIC para la búsqueda de informa-
Utilizo adecuadamente herramientas de
ción.
las TIC para la búsqueda, procesamiento
Organizo la información con la herramienta
y socialización de la información
TIC adecuada.
Presento la herramienta TIC adecuada para
publicar información.
de instrumentos de evaluación autores como [28] [54] y [58], proponen que una herramienta
para la evaluación debe ser diseñada teniendo en cuenta:
Proporcionar al estudiante los apoyos necesarios para que logre comprender y realizar
las actividades.
Brindar actividades claras que generen condiciones para establecer el avance del estu-
diante.
Generar espacios donde el estudiante pueda conocer los avances obtenidos y sus falen-
cias.
Esto permite determinar que los instrumentos que se diseñen deben permitir al estudiante
la posibilidad de juzgar su propio trabajo. Además debe brindarle información al docente
sobre las necesidades que requiere el estudiante para poder mejorar su desempeño [5]. Por
tanto, se requieren instrumentos que den información sobre las habilidades que se espera
sean evidenciadas en cada actividad. Es necesario que los instrumentos diseñados conten-
gan una escala de valoración donde el estudiante identifique el nivel en el que se encuentra
en una determinada habilidad. También es necesario que la escala de valoración brinde re-
alimentación acerca de los aspectos que se hicieron dentro de la actividad y aquellos donde
se presentó dificultad [5] [29] [54] y [58].
Un instrumento que cumple con estas condiciones son las denominadas rúbricas o matrices de
evaluación. Estas son una herramienta de tipo pedagógico cuya contribución a la educación
ha sido reconocida por los docentes en diversos lugares del mundo. Estos instrumentos permi-
ten establecer un mecanismo de medición que da cuenta del nivel de apropiación que tiene el
estudiante sobre un desempeño determinado y que, basados en una escala, permite a docen-
tes y estudiantes identificar los avances alcanzados y los logros que aún se deben mejorar [66].
mostrar que es competente en una determinada área, esto mediante el uso de sus saberes
principalmente para solucionar problemas [94].
Los instrumentos diseñados fueron validados con la idea fundamental de obtener información
acerca de la veracidad de los datos obtenidos [42]. La validación es un aspecto importante,
debido a que un instrumento con ı́ndices de validez bajos, probablemente puede reportar
información incorrecta sobre el desempeño del estudiante [112]. Experiencias como las de [9]
[67] y [42] evidencian la necesidad de validar los instrumentos evaluativos, ya que ello contri-
buye a mejorar en el proceso educativo. La validación brinda procesos de enseñanza efectivos
donde se tiene constante mejora y apunta a la calidad [5]. Por tanto tanto las rúbricas como
las pruebas diseñadas fueron validadas en diversos aspectos.
2 Establecer los niveles para cada habilidad además de determinar una ponderación para
cada criterio. Es común encontrar niveles como bajo, básico, medio y avanzado [46].
3 Generar un primer borrador completo de la rúbrica que involucre las habilidades, los
descriptores y los niveles.
Construcción de Rúbricas
Para la construcción de rúbricas de tipo analı́tica es necesario desarrollar cuatro fases des-
critas por [18]: obtener las habilidades a partir de los objetivos o desempeños de enseñanza,
generar el número de niveles de evaluación, construir los descriptores que representan cada
nivel y, finalmente, el proceso de validación. En la figura 3-3 se representa la secuencia de
actividades seguidas para construir y validar las rúbricas propuestas, ası́ como los insumos
requeridos durante cada una de las etapas del proceso.
Para cada uno de los niveles definidos y cada habilidad seleccionada, se define un descriptor
que permite juzgar y presentar al estudiante los logros alcanzados en una determinada ha-
bilidad. Se construyeron descripciones para cada nivel teniendo en cuenta el mejor resultado
esperado para la actividad en el mayor nivel de la escala, casos con un resultado no óptimo
para los niveles intermedios y casos con menor desempeño en la actividad para el nivel más
bajo. Estas descripciones le permiten al estudiante identificar sus fortalezas y debilidades
frente a las habilidades planteadas para cada desempeño. Este aspecto es fundamental para
el estudiante porque brinda la re-alimentación necesaria para corregir sus errores y le da la
opción de no repetirlos durante actividades futuras [47] . En el caso del desempeño: ‘Iden-
tifico las condiciones, especificaciones y restricciones de diseño, utilizadas para la solución
de un problema tecnológico” en la tabla 3-3 se presenta la rúbrica diseñada. Es importante
mencionar que cada uno de los descriptores evidencia, la medición de la habilidad ası́ como el
alcance que se espera obtener en el estudiante. Ası́ mismo cada matriz de evaluación creada
permite al docente tener información acerca del avance del estudiante ya que esto posibilita
la identificación de los aspectos que debe mejorar.
38 3 Diseño y creación de instrumentos de evaluación
Luego de la revisión del equipo de diseño de las rúbricas, se realizó un encuentro con los
docentes de las diez instituciones innovadoras a finales del 2014 en el colegio I.E.D Las Vi-
llas. En este encuentro se presentaron las rúbricas diseñadas para cada desempeño de los dos
componentes trabajados a los docentes para que las leyeran y analizaran. Posteriormente,
cada docente mediante un documento escrito, dio sus aportes, comentarios y mejoras a los
diferentes aspectos de las rúbricas. Luego de este encuentro se desarrollaron las correccio-
nes pertinentes en lo referente a las habilidades planteadas, los niveles de evaluación y los
descriptores. Para ello se desarrolló una matriz donde se agruparon por cada docente sus
comentarios alrededor de cada habilidad, se revisó la posible existencia de acuerdo entre los
docentes, en caso de existir se modificó la habilidad en el aspecto considerado. Cuando no
existe acuerdo entre los educadores, se revisa la argumentación dada por cada docente y
se pregunta nuevamente acerca de la habilidad, de tal forma que se busca un acuerdo para
poder aplicar las correcciones.
A partir de las mejoras desarrolladas se creó una nueva versión de las rúbricas, se presentaron
a los docentes para su trabajo en el aula con los estudiantes, en este ejercicio se observó que
los docentes tienen claridad teórica alrededor de lo que es una rúbrica, pero no se tiene esa
misma experticia al momento de usarlas en el aula. Por ello, se inició una etapa en donde se
trabajó con los docentes a través de una estrategia de uso de las rúbricas para comprender
cómo poder aplicar los instrumentos en el aula, lo cual permitió establecer que es necesaria
la creación de un instrumento que ofrezca al estudiante la posibilidad de auto-evaluarse y
co-evaluar a sus compañeros.
planteadas en una pregunta que el estudiante debe responder. Dicha pregunta invitan al
educando a analizar su proceso educativo y a reflexionar en torno a los resultados que él ha
evidenciado en su proceso. Posteriormente se convierten los descriptores de nivel en posibles
respuestas a las preguntas, de tal manera que el estudiante al marcar los resultados que
considera haber alcanzado, está dando información sobre lo que ha aprendido. Tomando
el desempeño trabajado previamente se presentan en las siguientes tablas 3-4 y 3-5 los
ejemplos de auto y co-evaluación diseñados.
Auto-evaluación
Pregunta Bajo Básico Medio Alto
Cuando bus- No Identifico Identifico ade- Identifico ade- Identifico ade-
co solucionar condiciones, cuadamente un cuadamente cuadamente la
problemas tec- especificaciones grupo reducido un grupo in- totalidad de
nológicos: y restricciones de condiciones, termedio de condiciones,
de diseño. especificaciones condiciones, especificaciones
y restricciones especificaciones y restricciones
de diseño. y restricciones de diseño
de diseño
Co-evaluación
Pregunta Bajo Básico Medio Alto
Cuando bus- No identifica Identifica ade- Identifica ade- Identifica ade-
ca solucionar condiciones, cuadamente un cuadamente cuadamente la
problemas especificaciones grupo reducido un grupo in- totalidad de
tecnológicos y restricciones de condiciones, termedio de condiciones,
su equipo de de diseño. especificaciones condiciones, especificaciones
trabajo: y restricciones especificaciones y restricciones
de diseño. y restricciones de diseño
de diseño
Etapa1:
Diseño de pruebas
Recolección de información
Fase 3 para análisis
Validación de contenidos
de dificultad, discriminación
y determinar confiabilidad
Etapa 2:
Validación de pruebas
escritas
Normas de aplicación,
Fase 4 Estandarización calificación
e interpretación de
resultados
La figura 3-4 presenta el modelo usado por [42] para el diseño de pruebas escritas. La figura
evidencia dos etapas principales, el diseño de pruebas y la validación de éstas. Dentro de
cada etapa se tiene una serie de fases que permiten al ser completadas obtener un insumo.
En el primer caso al terminar las fases de conceptualización y construcción de reactivos
se obtendrán las pruebas diagnósticas. En el segundo caso al finalizar las fases internas se
obtendrá la validación las pruebas. Cada etapa será descrita en las siguientes subsecciones, en
la primera de ellas se explica el diseño de las pruebas, a partir de los tipos de preguntas usados
42 3 Diseño y creación de instrumentos de evaluación
Para la construcción de las preguntas fue necesario establecer los tipos de preguntas po-
sibles, de acuerdo con las habilidades a revisar. Se exploró con preguntas de verdadero y
falso, de apareamiento, de completar, entre otras, pero muchas de ellas no satisfacı́an las
habilidades a medir. Por tanto, se estableció que las preguntas de tipo abierto y cerrado
con respuesta única y múltiple, podrı́an ser adecuadas para este caso. Estos tipos de pre-
gunta permiten determinar el nivel de competencia de un estudiante de forma adecuada [63].
Una pregunta puede tener varias respuestas: la pregunta debe evidenciar varias formas
de solución. Esto implica usar los conceptos de la posible respuesta de diversas maneras,
lo que genera formas de pensamiento distintas del problema para cada estudiante.
Contribuyendo a la argumentación, al analizar y “criticar” al momento de solucionar
un problema en un contexto.
Tener un modelo de calificación: cada pregunta a evaluar debe tener por lo menos
una matriz de valoración de dos puntos Sı́/No. Pero la idea de las preguntas abiertas
es generar la posibilidad de comunicar conocimientos en un contexto determinado.
Por tanto es necesario tener un sistema de respuestas basadas en las posibilidades
que se tienen. Para ello es necesario conocer que una buena pregunta, tiene asociada
una rúbrica, como indicativo del valor de la puntuación que se lleva. Esta puntuación
dependerá del escrito desarrollado, como argumentación por parte del estudiante. La
forma cómo utiliza sus conocimientos y cómo los enlaza, lo que construye la solución
del problema planteado.
En el caso de las preguntas cerradas se tuvo en cuenta la guı́a dada por Case y Swanson
[19], quienes brindan una serie de estrategias para la construcción de preguntas de opción
múltiple. Dentro de las caracterı́sticas que consideran más relevantes se tienen:
Los distractores no deben ser confusos, si bien son menos correctos no deben ser to-
talmente incorrectos. Esto podrı́a generar en el estudiante la selección de la respuesta
verdadera por descarte.
Para validar el contenido de las pruebas diseñadas se realizó la aplicación en un grupo piloto
de estudiantes de ciclo V, ya que de esta manera es posible hacer un seguimiento riguroso
a partir de los lineamientos tradicionales de la medición y evaluación [93]. Para hacer esta
validación se utilizó el ı́ndice de dificultad para establecer la proporción de estudiantes que
responden correctamente una pregunta de la prueba [36].
Ai
Pi = (3-2)
Ni
Donde:
Pi es el ı́ndice de dificultad de la pregunta.
Ai es el número de aciertos de la pregunta.
Ni es el total de estudiantes participantes
También se utilizó la validez por ı́ndice de discriminación, este indicador es usado para medir
habilidades y competencias. Gracias a que brinda información acerca de las posibilidades
esperadas en el estudiante que tuvo una puntuación alta en todo el test, partiendo de la
suposición que tendrá altas probabilidades de contestar correctamente una pregunta [42]. Lo
que permite identificar si la pregunta discrimina o no entre los estudiantes.
GAAciertos − GBAciertos
Di = (3-3)
Ngrupomayor
Donde:
Di es el ı́ndice de discriminación de la pregunta.
GAAciertos es el número de aciertos en la pregunta, por personas con altos puntajes.
GBAciertos es el número de aciertos en la pregunta, por personas de bajas puntuaciones
Ngrupomayor número total de personas en el grupo más numeroso.
La confiabilidad de una prueba hace referencia a la precisión con que el test mide lo que
debe medir, en una población determinada y en las condiciones normales de aplicación [1],
[5] y [17]. Esta medida permite corroborar que las pruebas al ser aplicadas en poblaciones
similares, producirá resultados consistentes y coherentes con lo que se quiere medir. Para el
caso de las pruebas diseñadas se hizo una medición de confiabilidad por consistencia interna,
ya que esta brinda la información necesaria a partir de una sola aplicación de las pruebas.
Se utilizó el Alfa de Cronbach, debido a que analiza la media ponderada de las correlaciones
entre las preguntas que forman parte de la escala de medición dada [130].
aplicación, ası́ como en la calificación e interpretación de los resultados obtenidos. Con estos
aspectos será posible determinar que la prueba realizada mide las competencias planeadas.
Lo que permitirá tanto al docente como al estudiante identificar las fortalezas y debilidades
que se tienen y ası́ desarrollar un proceso educativo mejor planeado [120].
Las preguntas 4 y 21 tienen ı́ndices de dificultad que están fuera del rango aceptable defi-
nido por Guilford. Puede darse esta situación por ser preguntas demasiado complejas o que
podrı́an no ser claras para el estudiante. En el caso del ı́ndice de discriminación las preguntas
4, 10, 17, 18 y 19, presentan ı́ndices de discriminación bajos. Quiere decir que sin importar
si pertenecen al grupo de estudiantes de alto o bajo desempeño (GA o GB en la ecuación 2),
los escolares pueden responderla de forma correcta o incorrecta. Por tanto la pregunta no
discrimina entre los estudiante de alto desempeño y los que tienen bajo nivel. Es por ello que
estas preguntas junto con la 4 y 21 son susceptibles de ser eliminadas, aunque es necesario
previamente analizar si afectan o no la confiabilidad de la prueba.
46 3 Diseño y creación de instrumentos de evaluación
Item 1 2 3 4 5 6 7 8 9 10 11
Dif. 0,3 0,58 0,61 0,11 0,27 0,32 0,63 0,22 0,57 0,37 0,58
Disc. 0,45, 0,65 0,71 -0,06 0,36 0,46 0,9 0,1 0,97 -0,10 0,9
Item 12 13 14 15 16 17 18 19 20 21 22
Dif. 0,64 0,63 0,78 0,22 0,61 0,27 0,37 0,37 0,89 0,02 0,85
Disci. 0,81 0,84 0,03 0,42 0,71 -0,35 -0,1 -0,32 1 0,97 0,45
La tabla 3-7 permite establecer que al eliminar algunas preguntas se genera una mejora en
el nivel de confiabilidad de la prueba. Por tanto se propone eliminar las preguntas 4, 10, 17,
18 y 19. Es necesario mencionar que al momento que se eliminan no afecta ningún desem-
peño. Al hacer la prueba nuevamente, la confiabilidad llega al 0,66 aumentando coherencia
y consistencia de la prueba.
Item 1 2 3 4 5 6 7 8 9 10 11
A.C 0,492 0,486 0,502 0,538 0,547 0,546 0,511 0,509 0,509 0,22 0,522
Item 12 13 14 15 16 17 18 19 20 21 22
A.C 0,491 0,514 0,472 0,53 0,517 0,606 0,559 0,553 0,51 0,512 0,521
Tabla 3-7.: Resultados de confiabilidad (Alfa de Cronbach A.C) por pregunta de la prueba
apropiación y uso de la tecnologı́a
Item 1 2 3 4 5 6 7 8 9
Dif. 0,26 0,4 0,34 0,23 0,62 0,62 0,34 0,76 0,56
Disc. 0,35 0,41 0,35 0,41 0,53 1 0,41 0,41 0,41
Item 10 11 12 13 14 15 16 17 18
Dif. 0,21 0,16 0,12 0,52 0,48 0,5 0,44 0,52 0,44
Disc. 0,41 0,24 0,29 0,47 0,29 0,47 0,12 0,35 0,3
Tabla 3-8.: Resultados del ı́ndice de dificultad (Dif.) y discriminación (Disc.) de la prueba
de solución de problemas con tecnologı́a
Item 1 2 3 4 5 6 7 8 9
A.C 0,782 0,762 0,786 0,779 0,762 0,76 0,798 0,76 0,75
Item 10 11 12 13 14 15 16 17 18
A.C 0,78 0,758 0,775 0,768 0,76 0,744 0,749 0,76 0,72
Tabla 3-9.: Resultados de confiabilidad (Alfa de Cronbach A.C) por pregunta de la prueba
de solución de problemas con tecnologı́a
El proceso de validación de las dos pruebas muestra que tienen ı́ndices de dificultad y discri-
minación suficientes en la mayorı́a de sus preguntas. También al observar la confiabilidad de
48 3 Diseño y creación de instrumentos de evaluación
cada una de las pruebas, evidencian que son lo suficiente coherentes y consistentes para ser
aplicadas. Por tanto son instrumentos que al ser utilizados es probable que brinden informa-
ción coherente y consistente sobre las competencias que evalúan. Las pruebas diagnósticas
validadas son una herramienta evaluativa que brindan a los docentes, información acerca
de los conceptos previos que tienen los estudiantes sobre los componentes de “apropiación
y uso de la tecnologı́a” y “solución de problemas en tecnologı́a”. Con esta información el
docente podrá hacer una planeación de sus actividades de enseñanza, enfocada en mejorar
aquellos desempeños donde se evidencia dificultad. En el caso del estudiante las pruebas le
permitirán ver su nivel en cada una de las componentes. Esto contribuye a mejorar sus pro-
cesos de aprendizaje, ya que brinda la posibilidad de potenciar aquellos desempeños donde
no demuestra mayor nivel de habilidad. Estos instrumentos y su aplicación adecuada, darán
la información necesaria para poder hacer un proceso de planeación de clases más coherente
con las necesidades del grupo. Lo que puede llegar a generar mejores ı́ndices de desempeño
y mayor motivación por parte del estudiante, frente a los conceptos que se presentan.
3.6. Resumen
En este capı́tulo se hizo una descripción más amplia sobre el problema que tienen los do-
centes con la evaluación por competencias para el área de tecnologı́a. De igual manera se
presentaron a partir de los problemas de esta área los posibles insumos para poder auto-
matizar el proceso evaluativo. A partir de los problemas explicados al inicio del capı́tulo
se seleccionaron los componentes y los desempeños que fueron la base fundamental para el
diseño de los instrumentos de evaluación. Se describió el proceso por el cual se tomaron los
desempeños y se convirtieron en habilidades medibles, las cuales fueron la base fundamental
para el diseño de las rúbricas y de las pruebas escritas. Se mostró el procedimiento usado
para la creación de estos insumos y su proceso de validación. En el próximo capı́tulo se
explicará la forma como cada uno de estos insumos evaluativos fueron transformados en un
instrumento automático de evaluación.
4. Automatización del proceso
evaluativo
En el capı́tulo anterior se hizo una descripción de las herramientas que se proponen para el
desarrollo del proceso evaluativo para el área de tecnologı́a en el ciclo V de formación básica
secundaria. En este capı́tulo se hará una explicación del método utilizado para automatizar
cada una de las herramientas evaluativas diseñadas. El presente capı́tulo inicia presentando
las herramientas educativas que fueron automatizadas, los perfiles de usuario necesarios para
la plataforma creada y el lenguaje de programación seleccionado para su desarrollo. Poste-
riormente se hace una explicación acerca de la forma total que tiene el sistema implementado
y las partes que lo componen. Se hará una descripción de los aspectos tomados en cuenta
al momento de automatizar el proceso. Adicionalmente se hará una explicación de cómo se
desarrolló la automatización para cada una de las fases evaluativas, las herramientas que la
conforman y los posibles tipos de informe que entrega al docente y estudiante.
La figura 4-1 evidencia por cada herramienta evaluativa utilizada, las diversas partes inter-
nas que la componen. En el caso de las pruebas diagnósticas, se puede apreciar que ellas
contienen preguntas de tipo abierto, de selección múltiple con única respuesta y de selección
múltiple con múltiples respuestas. Ası́ mismo, en el caso de las rúbricas se tienen los tipos
de evaluación que fueron automatizadas, se tiene la auto, co y hetero-evaluación. El último
aspecto tenido en cuenta dentro del proceso de automatización es la generación de informes
por parte del sistema. Estos informes darán información acerca del nivel de logro obtenido
por el estudiante, tanto en las pruebas como en las rúbricas.
Los informes automatizados permiten observar, mediante diversos tipos de figuras, el nivel
de logro alcanzado por un estudiante o por un grupo en una determinada habilidad, desem-
peño o competencia. El sistema automático implementado, entrega gráficos de barras para
el caso de una habilidad o un desempeño. Este tipo de gráfico da la posibilidad de observar
el nivel alcanzado por el educando o grupo de ellos, sobre el máximo posible de alcanzar.
En el caso del reporte de competencias se usan diagramas de red, este tipo de figura en sus
aristas muestra los desempeños trabajados. El nivel de logro alcanzado lo muestra en una
escala que va del centro a la parte externa del diagrama, entre más al centro se ubique el
educando menor es su nivel de logro.
4.2 Perfiles de usuario necesarios para la herramienta evaluativa 51
En el caso del perfil del docente se requiere hacer una configuración del curso previa, a partir
del cronograma escolar, este depende de cada institución. El primer paso es fijar los periodos
académicos, ası́ mismo el valor que se da a los diversos tipos de evaluación, como lo evidencia
la figura 4-2 . En caso que requiera modificar las fechas de cada actividad lo podrá hacer
cuántas veces sea necesario. También es tarea del docente anexar la lista de estudiantes, en
ella el correo electrónico de cada uno educando, el curso al que pertenecen y el grupo de
trabajo que tendrá. A partir de estos datos el sistema genera automáticamente los usuarios
y claves para cada educando, posteriormente envı́a a cada estudiante un correo electrónico,
donde entrega los datos para el ingreso al sistema.
52 4 Automatización del proceso evaluativo
Luego de hacer la configuración del curso, el docente debe seleccionar para cada periodo
académico los desempeños que considera trabajar, ası́ como las fechas tentativas de desarrollo
de cada uno, esto se aprecia en la figura 4-3. Posteriormente determinar para cada destreza el
tipo de evaluación que tendrá, ası́ como el valor porcentual que tendrá. También debe escoger
las fechas tentativas en que trabajará cada destreza, de esta manera podrá determinar los
momentos evaluativos que tendrá el curso. En la siguiente pantalla encontrará la información
sobre la selección hecha, podrá observar la actividad actual, el desempeño y la competencia
al que pertenece. Además le mostrará el tipo de evaluación que tiene la actividad, en el
caso de la hetero-evaluación le indicará la fecha máxima que tiene para desarrollarla. Esta
4.2 Perfiles de usuario necesarios para la herramienta evaluativa 53
Luego que el docente configura el curso y anexa la lista de estudiantes, estos reciben un
mensaje de correo electrónico, indicado su nombre de usuario y contraseña. Estos dos datos
les permiten ingresar a la plataforma, donde pueden observar las actividades actuales, el
desempeño al que pertenece y la competencia que lo conforma. También podrá conocer si la
actividad es de auto o co-evaluación, en caso que sea de alguna de las dos, le solicita hacer
54 4 Automatización del proceso evaluativo
la respectiva evaluación. También le indica cuáles son las actividades futuras el desempeño
al que pertenecen y el tipo de evaluación que tendrá. Además muestra el listado de los estu-
diantes que hacen parte del grupo de trabajo, en caso que se tenga un error brinda la opción
de informar del mismo mediante un mensaje al docente. Por último el sistema brinda la po-
sibilidad de solicitar y observar los informes tanto por indicador, desempeño y competencia.
La herramienta que se propone contará con una base de datos de cada estudiante, grupo
y curso, con ello poder analizar el desempeño obtenido por el educando y generar a partir
de ellos informes. Por ello se requiere el uso de un gestor de bases de datos que permita
crear, almacenar, modificar y extraer información. Los gestores de bases de datos también
proporcionan herramientas para agregar, borrar, modificar y analizar datos [71]. Dentro de
las bases de datos comúnmente usadas se encuentran Oracle R , SQL Server R y MySQL,
siendo esta última una de las más difundidas por ser de código abierto. MySQL ofrece diversas
caracterı́sticas, entre ellas se destacan: velocidad y robustez, multiproceso, puede trabajar
en distintas plataformas y sistemas operativos, también provee un sistema de contraseñas y
privilegios muy seguros y flexibles [75]. Por tanto esta base de datos fue la elegida para el
desarrollo de la herramienta software propuesta.
El segundo aspecto está relacionado con los tipos de pregunta que se trabajaron en las
pruebas, ya que dependiendo del tipo es necesario un algoritmo de análisis diferente. A con-
tinuación se presentan los requerimientos tenidos en cuenta para cada uno de los tipos de
preguntas usadas en las pruebas. Se iniciará con las preguntas abiertas, en ellas se hará una
descripción de los diversos aspectos tenidos en cuenta para hacerla automática. Posterior-
mente se describirán los requerimientos obtenidos para el caso de las preguntas cerradas con
única y múltiple respuesta.
Preguntas abiertas
Este tipo de pregunta tiene como caracterı́stica principal permitir al estudiante describir,
mediante un texto escrito lo que considera adecuado frente a un determinado interrogante
[57]. Uno de los métodos comúnmente usado es el análisis semántico, cuyo objetivo es iden-
tificar relaciones entre las diversas palabras dentro de un texto. Esto da lugar a estructuras
que reflejan varios niveles de interpretación semántica del texto [89], [99] y [115]. Para ana-
lizar sus resultados, se requiere hacer una organización sintáctica en la cual se establecen
palabras claves, ası́ como la relación que estas tienen con otras dentro de la oración, de esta
manera lograr establecer el sentido de una frase [115].
Para establecer los requerimientos que se deben tener en cuenta al momento de evaluar
preguntas abiertas y poder hacer un análisis semántico, se diseñó una prueba piloto con
estudiantes de grado once de la jornada mañana del colegio Julio Garavito Armero de la
localidad de Puente Aranda de Bogotá. La prueba consistió en tomar un grupo de 59 estu-
diantes del ciclo V, a quienes se les hicieron tres preguntas de diversos tipos, una de ellas
abierta. Tomando como base las respuestas de los estudiantes a la pregunta abierta, se ge-
neró una tabla. De ella, se obtuvo una serie de posibles respuestas, las cuales se compararon
con una solución obtenida a partir de una revisión bibliográfica a la pregunta. La respuesta
propuesta como verdadera, fue comparada con cada una de las soluciones planteadas por
los estudiantes participantes. Al comparar las respuestas, se obtuvieron los posibles sinóni-
mos de cada palabra, el sentido que el estudiante quizo dar a la respuesta y las partes que
conforman el concepto evaluado. A partir de estos elementos se valoró cada una de las res-
puestas mediante un puntaje. Este ejercicio se repitió con tres docentes diferentes del área
de tecnologı́a, quienes evaluaron las respuestas de los estudiantes a partir de la aplicación
del método de evaluación descrito. El resultado condujo a establecer:
Palabras claves dentro de la respuesta, a partir de ellas generar un diccionario con los
sinónimos comúnmente usados por los estudiantes. Dichas palabras claves tendrán un
valor más alto en la escala de calificación, entre mayor sea su relación con la respuesta
esperada.
Palabras que se espera estén en la respuesta, pero que no tendrán la misma incidencia
que las palabras claves. Estas obtendrán un valor menor que las palabras claves.
4.4 Automatización de evaluación diagnóstico 57
Se obtuvo una escala evaluativa de cuatro niveles, la cual fue un acuerdo obtenido
por los docentes participantes, a partir del seguimiento de la instrucción dada para la
calificación de cada respuesta.
Para las preguntas de las pruebas diseñadas de los dos componentes de tecnologı́a de la
media, se obtuvieron los requerimientos para automatizar las preguntas abiertas, estos son:
Determinar si la respuesta dada por el estudiante contiene las palabras claves esperadas.
De ser ası́ asignarles el valor X determinado para este tipo de palabras.
Sumar los valores de las palabras claves con los de las necesarias y con ello obtener la
calificación: Calif = X + Y
Preguntas cerradas
Una de las preguntas cuya calificación es comúnmente convertida en automática es la pre-
gunta cerrada, gracias a que es posible determinar la o las posibles respuestas que se tendrán
[118]. Para la obtención de requisitos para automatizar este tipo de pregunta solamente es
necesario tener por cada pregunta la respuesta adecuada. En el caso de la calificación de
preguntas con única respuesta, basta con otorgar el puntaje total, en caso de seleccionar la
respuesta adecuada. En las preguntas de respuesta múltiple es necesario que se le conceda
a cada posible respuesta, un valor sobre el total. De esta manera al sumar cada una de las
respuestas parciales será posible hacer una calificación automática.
Los requerimientos para las preguntas cerradas de única y múltiple respuesta son:
Pregunta abierta
número x
No Contiene palabras
claves?
Si
Valor X a la palabra
No
Contiene palabras
fundamentales?
Si
Valor Y a la
palabra
Calificación = X + Y
dar el valor máximo a la respuesta en caso que sea correcta. Si la respuesta no coincide con
la esperada se otorga un valor de 0 puntos.
Pregunta con
única
respuesta
No
¿La respuesta Otorgue el
marcada es mínimo valor
correcta? de la escala
Si
Otorgue el
máximo puntaje
Figura 4-5.: Algoritmo usado para automatizar preguntas cerradas de única respuestas
En el caso de las preguntas con múltiple respuesta, fue necesario establecer el número de
aciertos posibles que cada interrogante tiene. A partir de ese número de posibles aciertos, se
establece el número n, sobre el cual se divide el valor máximo de calificación de cada res-
puesta, 3. Tomando el valor obtenido para cada acierto, se establece el número de respuestas
marcadas de forma correcta en la pregunta por el estudiante. Dicho número de respuestas
correctas se multiplican por el valor máximo de calificación y con ello se logra la evaluación
de la pregunta. En caso que el estudiante marque opciones incorrectas al responder, el sis-
tema restará del valor total el número de soluciones equivocadas. La figura 4-6 presenta el
algoritmo explicado para hacer la calificación automática de este tipo de pregunta.
60 4 Automatización del proceso evaluativo
Pregunta
múltiple
respuesta
No Esta es un
Otorgue un
puntaje de 0 a la respuesta
respuesta A correcta?
Si
Otorgue un
puntaje 3/n a la
respuesta A
¿ Esta es un No Otorgue un
respuesta puntaje de 0 a la
correcta? respuesta A
Si
Otorgue un
puntaje 3/n a la
respuesta N
Figura 4-6.: Algoritmo usado para automatizar preguntas cerradas de múltiple respuestas
1
Di = (P1 + P2 + .........pn ) (4-1)
n
Es necesario aclarar que el valor obtenido en cada desempeño de cada competencia, estará
entre 0 y 3. Estos valores concuerdan con la escala cualitativa dada por el MEN en el decreto
1290 [79]. En el documento del MEN 2009 se presentan como escala de calificación los nive-
les: bajo, básico, alto y superior. Donde 0 corresponde al nivel ’Bajo’, 1 al nivel ’Básico’, 2
al ’Alto’ y 3 al ’Superior’. De esta manera la calificación obtenida por el estudiante en cada
desempeño, puede ser llevada a la escala definida en la rúbrica. La calificación obtenida por
cada estudiante en cada desempeño es almacenada en una base de datos. A partir de estos
4.4 Automatización de evaluación diagnóstico 61
datos es posible determinar el nivel de competencia del estudiante y del grupo al que este
pertenece.
Para cada nivel obtenido, es necesario indicar tanto al docente como al estudiante las posibles
causas que generaron ese resultado, de esta manera el educador podrá crear actividades que
permitan mejorar. Para ello se creó una base de datos donde se presentan las posibles causas
del valor obtenido en el desempeño. Las causas descritas acompañadas del diagrama de red
conforman el informe que se presenta tanto al educador como a los educandos. La tabla 4-1
presenta un ejemplo del tipo de re-alimentación brindada.
62 4 Automatización del proceso evaluativo
Con los indicadores y ejes temáticos claros, procede a buscar y preparar posibles ejemplos
alrededor del tema, posteriormente a organizar aquellas actividades que evaluarán la temáti-
ca trabajada. La gran dificultad en este proceso, es que no siempre el grupo de estudiantes
están en la misma disposición de trabajo o el tema puede tener mayor dificultad de la espe-
rada, por tanto el ritmo de aprendizaje puede variar [33]. Este aspecto genera la necesidad
de retoma de indicadores en otras sesiones. También por el tipo de actividad es posible que
sea necesario el trabajo con un mismo indicador en varias sesiones de clase. Lo que hace
que de una misma habilidad pueda tener varias calificaciones, incluso en diferentes periodos
académicos.
Otro aspecto que es necesario tener en cuenta para poder automatizar el proceso evaluativo
es lo establecido en el decreto 1290 del MEN, en cuánto a los tipos de evaluación (auto, co
4.5 Automatización proceso evaluativo: rúbricas 63
Permitir al docente seleccionar de cada desempeño los indicadores que desee evaluar.
Implantar para un determinado indicador el tipo o los tipos de evaluación que considere.
Tomando en cuenta los requerimientos mencionados se generaron una serie de bases de da-
tos, con el fin de almacenar los diversos datos obtenidos en el proceso evaluativo, para su
posterior tratamiento. En primer lugar es necesario guardar las competencias, con sus respec-
tivos desempeños y sus habilidades. Cada uno de ellos con las nomenclaturas establecidas,
las cuales permitirán identificarlas. Luego fue posible almacenar por fechas los indicadores
que el docente seleccionó. También fue posible almacenar según el tipo de evaluación los
indicadores sin perder el desempeño al que pertenecen.
Por ejemplo si el docente decide que la habilidad será auto-evaluada, el estudiante responderá
la pregunta que corresponda con el indicador, su resultado se almacena en la base de datos.
Ese mismo caso se da si la actividad es co-evaluada, donde un solo estudiante perteneciente al
grupo de trabajo responderá la pregunta, dicha calificación se almacena en la base de datos,
para todos los integrantes del grupo. En el caso que la actividad sea de hetero-evaluación
el docente será el encargado de calificar, a partir de la fila de la rúbrica correspondiente al
indicador. En cada uno de estos casos el valor de la evaluación fue almacenado y procesado,
teniendo en cuenta el nombre del estudiante, el curso y el grupo al que pertenece, el indicador
trabajado y la fecha en que se desarrolló.
1
AU 01H1 = (X1 + X2 + ..... + Xn ) (4-2)
n
Este mismo de método se usa cuando el docente decide trabajar con diversos tipos de eva-
luación, por ejemplo, el docente decide que el desempeño AU 02 que tiene 4 indicadores será
trabajada con diversos tipos de evaluación. El educador propone por ejemplo, que para los
dos primeros indicadores AU 02H1 y AU 02H2 los evaluará él, la habilidad AU 02H3 el estu-
diante y la destreza AU 02H4 el educando y él, con porcentajes iguales de calificación. Para
el cálculo de la destreza AU 02H4 se hace:
En la ecuación 4-3 el valor de 0, 5 corresponde al valor porcentual dado por el docente a cada
tipo de evaluación, en este caso 50 %. A1 corresponde a la calificación de la auto-evaluación
y H1 es el valor de la puntuación dada por el docente como hetero-evaluación. Con esto se
logra obtener el nivel que obtuvo cada estudiante en este indicador, adicionalmente se espera
que el docente haya evaluado las dos destrezas que correspondı́an a hetero-evaluación y el
estudiante elegido del grupo haya co-evaluado. Con ello se tendrán calificadas las 4 habili-
dades correspondiente a este desempeño.
Continuando con el ejemplo del desempeño AU 02, es posible generar por cada estudiante
un informe, donde se observa el nivel alcanzado en cada indicador. Para ello se utilizan
gráficos de barras, que permiten presentar varias variables de forma paralela en un mismo
gráfico. En la figura 4-8 es posible observar el valor obtenido en cada indicador, en el eje
de las ordenadas se encuentran organizadas cada una de las habilidades correspondientes al
desempeño. En el eje de las abscisas se tienen los valores entre 0 y 3 que como se mencionó
en la sección previa, indican niveles desde ‘Bajo’ hasta ‘Superior’. En la figura el color azul
indica el nivel obtenido por el estudiante, mientras el color rojo indica los niveles faltantes
para lograr el nivel máximo. Junto a esta figura se da una re-alimentación como la mostrada
en la tabla 4-1, lo que permite al estudiante y al docente identificar las dificultades que tiene
el educando, en cada desempeño.
4.5 Automatización proceso evaluativo: rúbricas 65
Este mismo tipo de gráfico es usado en el informe que corresponde al resultado del indicador
por grupo, el cual permite al docente poder visualizar las dificultades que la totalidad de es-
tudiantes de un curso, tiene en un determinado indicador. Este gráfico se acompaña con una
re-alimentación sobre el indicador como se ha explicado previamente. Para calcular el valor
que obtuvo el grupo en el indicador, basta con multiplicar el número de estudiantes k por la
sumatoria de las calificaciones del indicador obtenidas por cada educando. La ecuación 4-4
presenta el cálculo descrito previamente, donde k1 establece el número de estudiantes perte-
necientes al grupo, AU 0XHY Ei corresponde a la calificación obtenida por cada estudiante
en un determinado indicador.
k
1 X
AU 02H4 = ( AU 0XHY Ei ) (4-4)
k i=1
m
1 X
AU 0X = ( AU 0XHi ) (4-5)
m i=1
66 4 Automatización del proceso evaluativo
En el caso del informe por grupo para los desempeños de una competencia, se hace necesario
calcular el valor obtenido por la totalidad de estudiante del curso, en cada dimensión. Para
ello al igual que en el caso de los indicadores, se utiliza la suma ponderada. La ecuación 4-6
presenta la forma como se calcula el valor de cada desempeño. En este caso p representa la
totalidad de estudiantes del curso, AU 0XEi la calificación obtenida por cada estudiante en
el desempeño evaluado. Con esta ecuación es posible obtener todos los desempeños de una
competencia para todos los estudiantes de un curso.
p
1 X
AU 0X = ( AU 0XEi ) (4-6)
p i=1
evaluadas.
Cuando el docente establece para una determina habilidad la calificación a través de auto y/o
co-evaluación, el sistema notifica a los estudiantes mediante un mensaje de correo electróni-
co, solicitando hacer la evaluación. El educando ingresa a la plataforma, selecciona la opción
de evaluar la habilidad y el sistema le presenta la destreza acompañada de una pregunta.
También le brinda cuatro respuestas posibles al interrogante, el educando debe elegir una a
partir de los resultados de la actividad. La información recolectada se almacena en la base
de datos y se procesa, si el educador o el colegial desean ver los resultados, simplemente
ingresan al sistema de generación de informes y observan el nivel obtenido en la habilidad.
Cada uno de los aspectos sobre el uso de la plataforma por parte de los dos actores del
proceso educativo mencionados en esta sección, se aprecian en el anexo G. Dicho anexo
evidencia mediante diversas pantallas, la experiencia paso a paso tanto por el docente como
por el estudiante.
4.7. Resumen
En el presente capı́tulo se argumentó alrededor de las diferentes herramientas usadas que
permitieron la automatización del proceso evaluativo. Se inició el capı́tulo con una breve
descripción de las herramientas evaluativas automatizadas. Posteriormente se explican los
diferentes algoritmos usados para automatizar las pruebas diagnóstico creadas y los diferentes
tipos de pregunta usados. El modelo de calificación usado el cual permitió obtener a partir
de las pruebas, el nivel de cada habilidad, desempeño y competencia. También se presentó
el modelo de automatización usado para las rúbricas como parte del proceso educativo.
Se describió la manera en la cual, haciendo uso de ellas y usando el mismo modelo que
en las pruebas, es posible que el docente reciba diversos tipos de informe, ası́ como re-
alimentación del proceso desarrollado por cada estudiante y el grupo al que pertenece. Ası́
mismo el estudiante puede tener una herramienta la cual al ser automática, le da información
oportuna sobre su proceso y las mejoras que puede hacer para obtener un mejor rendimiento
académico.
5. Resultados
En este capı́tulo se presentarán los resultados obtenidos al aplicar las pruebas automáticas
creadas, ası́ como la opinión recogida de un grupo de docentes acerca de la plataforma
de evaluación del proceso educativo basado en rúbricas. En cada uno de los casos se hará
una descripción de la metodologı́a con la cual fue posible la obtención de los resultados.
Para las pruebas diagnósticas se hace una comparación de la calificación de los diversos
tipos de pregunta de forma manual, frente al modelo de calificación diseñado en la versión
automática. También se analizan los resultados obtenidos al aplicar una encuesta a cinco
docentes de colegios distritales de la ciudad de Bogotá, quienes analizan las caracterı́sticas
de la plataforma de las rúbricas, su facilidad de uso, la utilidad de las herramientas de auto
y co-evaluación y los diversos tipos de informe que presenta.
debido a la disponibilidad de tiempo de cada uno de ellos. A cada educador se le entregó una
prueba piloto desarrollada por 56 estudiantes de ciclo V del ‘I.E.D Julio Garavito Armero’
con tres tipos de pregunta, una abierta, una de única respuesta y una de múltiple respuesta.
Las preguntas dadas a los educadores son tomadas de las pruebas diagnósticas diseñadas. La
idea fundamental en este ejercicio fue medir el tiempo que tardan los docentes calificando
cada tipo de pregunta.
Tabla 5-1.: Tiempos promedios de evaluación de cada grupo por cada educador, tiempo en
segundos
Un aspecto que se presentó con los docentes dentro del ejercicio de revisión y calificación de
las pruebas, tuvo que ver con el poco seguimiento de algunas de las instrucciones dadas. A
los educadores se les dio de forma previa la respuesta adecuada a la pregunta abierta, junto
con el modelo de calificación, lo mismo que el mecanismo para la asignación de puntuación.
Pero algunos de los educadores consideraron necesario hacer una interpretación de la res-
puesta dada, ası́ mismo a pesar que se indicó no revisar ortografı́a, algunos de los docentes
lo hicieron y lo tuvieron en cuenta para la calificación. Hacer la corrección de ortografı́a no
es inadecuado, pero distrae al profesor del objetivo primordial que es la evaluación de com-
petencias. Los docentes que tuvieron en cuenta el aspecto ortográfico, justifican este hecho
70 5 Resultados
como pieza necesaria al momento de evaluar, además sugerı́an que esto hace parte de la for-
mación integral del estudiante, tomada a partir de métodos tradicionales de evaluación [116].
Los aspectos descritos sugieren que algunos docentes, en algunas oportunidades no son obje-
tivos al momento de evaluar una habilidad en el estudiante y tiene en cuenta habilidades que
no tienen que ver con lo que se quiere revisar. Frente a este aspecto el sistema creado presenta
una ventaja, el algoritmo desarrollado e implementado no tiene en cuenta la ortografı́a, ni
hace interpretaciones de la respuesta, simplemente evalúa lo que el estudiante escribe. Por
tanto la herramienta brinda una evaluación más clara para el estudiante, ya que frente a un
indicador le indica el nivel que tiene.
Posterior a la revisión de las preguntas abiertas, se solicitó al grupo de docentes evaluar las
preguntas de tipo cerrado con única respuesta. Para ello se desarrollo la misma metodologı́a
que en el caso anterior, se dio a cada docente la respuesta adecuada junto con los paquetes de
soluciones planteadas por los estudiante, divididos en grupos de 28. De igual manera luego
de revisar y calificar un paquete se daba un breve receso para posteriormente revisar el otro
grupo. Se encontró que en este caso los docentes tardan menos tiempo en la revisión de cada
respuesta, gracias a que solo buscan la opción adecuada a la pregunta. La tabla 5-2 evidencia
en sus columnas el promedio que tarda cada uno de los docentes en hacer la calificación de
una pregunta que tiene una sola respuesta. Se demuestra a partir del resultado que los
educadores en este tipo de preguntas tienen gran habilidad en su proceso de calificación, el
tiempo usado para la revisión es bajo, aunque no es comparable con el del sistema automático
descrito previamente. Esto debido a que el sistema revisa un mayor número de preguntas en
un tiempo que es el doble del que tarda el docente.
Tabla 5-2.: Resultado de evaluación de preguntas con única respuesta, tiempo en segundos
Luego de la revisión de las preguntas con única respuesta, se presentó a los docentes una
pregunta en la cual el estudiante debı́a seleccionar cuatro posibles respuestas y organizarlas.
Al igual que en el caso anterior se les diieron las respuestas adecuadas organizadas, dos
paquetes de soluciones desarrolladas por los estudiantes, ası́ como el mecanismo con el cual
asignar la calificación. Los resultados promedio obtenidos por los educadores se presentan en
las columnas de la tabla 5-3, en ella es posible observar que los tiempos promedios son más
altos al ser comparados con el valor promedio que tarda el sistema en generar un informe para
ese mismo número de pruebas. Es importante destacar que tanto en este tipo de preguntas
5.1 Resultados pruebas diagnóstico y sumativa 71
ası́ como en las de única respuesta, los docentes que colaboraron con el ejercicio, no suelen
tener inconvenientes, por tanto el nivel de precisión de la calificación es bueno y adecuado.
En las pruebas automáticas diseñadas son evidentes algunos aspectos donde son más eficien-
te, frente al caso de la comprobación y puntuación desarrollada por los docentes. Por ejemplo
hace la revisión de las respuestas en menor tiempo y sin errores independiente del tipo de
pregunta que se tenga. Ası́ mismo no presenta interpretaciones en el caso de las respuestas
72 5 Resultados
Los docentes frente al caso de los informes indican que comúnmente lo que hacen es tomar
las notas de cada estudiante, de acuerdo a si son de trabajo en clase, auto o co-evaluación.
A partir de esas calificaciones establecer el resultado obtenido por el estudiante como un
valor numérico. A partir de la nota dan una re-alimentación pero en muchos ocasiones solo
a los estudiantes que pierden o solicitan conocer el porqué de su calificación. En el resto de
casos simplemente se da el valor sin mayor re-alimentación. Frente al tema de generar un
informe por curso, los docentes manifiestan que es complejo y que los espacios que tienen en
la institución libres, los dedican a actividades de preparación de clase, por tanto simplemente
con conocer el número de educandos con dificultades es suficiente.
Por tanto la herramienta creada para las pruebas brinda información más adecuada, frente a
la obtenida por el docente, ya que el sistema tiene la posibilidad de procesar los datos de una
manera más eficiente. Por esta razón es un apoyo al docente ya que le permitirá establecer
por cada estudiante y por cada grupo los desempeños donde se tiene mayor dificultad. Con
ello identificar actividades que puede desarrollar y que potenciarı́an la mejora en en los
procesos educativos del estudiante. Para el educando la herramienta le permite identificar
sus fortalezas y le sugiere, en el caso de las debilidades, alternativas que le permiten mejorar.
5.1 Resultados pruebas diagnóstico y sumativa 73
Para la aplicación de cada prueba a cada estudiante se le asignó un computador con co-
nexión a Internet y se le solicitó abrir el navegador de su preferencia, posteriormente se le
indicó la dirección electrónica donde se encontraban las pruebas y se dio la orden de iniciar
a responderlas. También antes de iniciar a responder los test, se recomendó seguir las indi-
caciones que cada prueba pudiese tener en cada una de sus preguntas. Adicionalmente se
aclaro que no se debı́a usar ningún tipo de ayuda para la solución de los exámenes, además
se mencionó que no tendrı́a calificación que simplemente era un diagnóstico que se querı́a
establecer. Los estudiantes de las instituciones desarrollaron cada una de las pruebas en su
totalidad, a partir de ellas fue posible obtener por cada educando y grupo resultados. Con
las respuestas obtenidas en cada test, se construyeron los informes para cada grupo evaluado
en cada componente, a continuación se hará la descripción de los hallazgos obtenidos.
La figura y la tabla evidencian que los desempeños AU08 y AU05 tienen un nivel de logro
alto por parte de los educandos. Esto indica que los estudiantes que pertenecen al grupo
evaluado son capaces de identificar y explicar, cómo conocimiento y conceptos de otras áreas
están presentes en un artefacto. Ası́ mismo tienen habilidad para interpretar, utilizar ma-
nuales, seguir instrucciones, diagramas y esquemas, con los cuales pueden hacer el montaje
de artefactos, dispositivos y sistemas tecnológicos. Por tanto para estos desempeños se reco-
mendarı́a reforzar un poco más en este desempeño pero no es una actividad que tenga alta
prioritario.
Por otro lado el grupo obtuvo niveles básicos en los desempeños AU01, AU02, AU03, AU04
y AU07. Los educandos tienen dificultad para reconocer la importancia del mantenimiento de
artefactos tecnológicos utilizados en la vida cotidiana. También para consultar y documen-
tar información sobre algunos procesos de producción y manufactura de productos. Además
tienen dificultades para utilizar adecuadamente herramientas de las TIC para la búsqueda,
procesamiento y socialización de la información. Frente a el uso de elementos de protección
en ambientes de trabajo y de producción teniendo en cuenta las normas de seguridad indus-
trial, también presentan inconvenientes. Ası́ mismo en utilizar herramientas y equipos en la
construcción de modelos, maquetas o prototipos, teniendo en cuenta normas de seguridad.
Ası́ mismo al trabajar en equipo como estrategia para realizar proyectos tecnológicos. Se
recomienda que se desarrollen actividades que permitan al estudiante potenciar sus aprendi-
zajes en cada uno de estos desempeños. Esto contribuirı́a a la mejora tanto conceptual, ası́
5.1 Resultados pruebas diagnóstico y sumativa 75
La tabla 5-5 y la figura 5-2 presentan los resultados obtenidos por los veintiséis estudiantes
de grado décimo del colegio ‘I.E.D Julio Garavito Armero’ que completaron la prueba del
componente de ‘Apropiación y Uso de la Tecnologı́a’. Es posible observar que el grupo tiene
un nivel alto en el desempeño AU08, lo que indica que los educandos que pertenecen a este
grupo son capaces de identificar y explicar, cómo conocimiento y conceptos de otras áreas
están presentes en un artefacto. Contrario a este resultado tienen dificultades en el desempeño
AU02, ya que obtuvieron un nivel ‘Bajo’ en él. Esto indica que tienen dificultades para
consultar y documentar información sobre algunos procesos de producción y manufactura de
productos. Por tanto es necesario que se trabaje en actividades que permitan al estudiante
consultar información de un proceso de producción y manufactura de productos. También es
necesario que se mejore en la habilidad de describir los pasos de producción y/o manufactura
de un producto determinado. Ası́ mismo se requiere incrementar en el indicador donde el
educando presenta información organizada sobre procesos de producción y/o manufactura
para obtener productos.
En los desempeños SP01 y SP04 el grupo de educandos está en el nivel más bajo de la
escala. La prueba permitió determinar que no identifican condiciones, restricciones y especi-
ficaciones alrededor de un problema. Asimismo no diseñan, ni construyen o prueba artefactos
tecnológicos teniendo en cuenta condiciones, restricciones y especificaciones de diseño.
Tabla 5-6.: Tabla de Resultados I.E.D Clemencia Holguı́n de Urdaneta, prueba de la com-
ponente ‘Solución de Problemas con Tecnologı́a’
5.1 Resultados pruebas diagnóstico y sumativa 77
Figura 5-3.: Resultados I.E.D Clemencia Holguı́n de Urdaneta, prueba ‘Solución de Pro-
blemas con Tecnologı́a’
En el caso del colegio ‘I.E.D Julio Garavito Armero’ se aplicó la prueba de la componente
de ‘Solución de Problemas con Tecnologı́a’ a diecinueve estudiantes de grado décimo. Los
resultados obtenidos se observan en la tabla 5-7 y en la figura 5-4, se observa que los
resultados son similares a los obtenidos en el colegio Clemencia. Su única diferencia radica
que en el desempeño SP04, tienen un nivel ‘Básico’ comparado con el ‘Bajo’ obtenido por la
institución Holguı́n de Urdaneta. Por tanto se podrı́a dar un informe de resultados similar
al generado previamente.
Tabla 5-7.: Tabla de Resultados I.E.D Julio Garavito Armero, prueba de la componente
‘Solución de Problemas con Tecnologı́a’
78 5 Resultados
Figura 5-4.: Resultados I.E.D Julio Garavito Armero, prueba ‘Solución de Problemas con
Tecnologı́a’
Tomando como base los hallazgos obtenidos en ambas instituciones se recomienda trabajar
en actividades que involucren la solución de un problema del entorno usando tecnologı́a.
Es importante desarrollar un proceso educativo donde los estudiantes evidencien los pasos
necesarios para solucionar el problema, ası́ como comprender que se deben explorar diver-
sas soluciones y con ellas determinar la que mejor se ajuste a los parámetros del problema.
Además es necesario que puedan representar esas ideas en insumos tales como: planos, dia-
gramas, maquetas entre otros. Ası́ mismo deben trabajar en la selección de una solución
argumentando el porqué la hace. Con cada una de estas habilidades de pensamiento el
estudiante logrará mejorar su competencia en la componente ‘Solución de Problemas con
Tecnologı́a’.
El presente proyecto de tesis trabajó en conjunto con otros dos proyectos pertenecientes al
proyecto CIER, uno de ellos encaminado al análisis de una metodologı́a para la enseñanza
del área de ‘Tecnologı́a e Informática’ en el ciclo V de secundaria. Los resultados obtenidos
en las pruebas, permitieron al proyecto de metodologı́a establecer el nivel de cada desempeño
5.2 Resultados juicio de expertos sobre el diseño de la plataforma para rúbricas 79
de cada componente. Con estos resultados se generó la planeación de las clases y las posibles
actividades que permitirı́an al educando mejorar sus procesos de aprendizaje. Ası́ mismo al
finalizar el proceso educativo, se aplicó la misma prueba y permitió identificar si existı́a o
no mejora en los desarrollos académicos aplicados.
Los educadores fueron entrenados en el uso de la plataforma, se presentaron a cada uno las
diversas partes que conforman la plataforma automática de evaluación, también se evidenció
el contexto en que se sugiere utilizarla y se les brindó un espacio donde cada docente pudiese
interactuar con el sistema. Posterior a este paso a cada experto se le envió un test basado en
la escala de Likert, en el cual cada educador entrega su opinión alrededor de cada uno de los
aspectos solicitados. Se valoró en cada pregunta propuesta, el nivel de acuerdo que tiene el
grupo de expertos en cada cuestionamiento planteado. A partir de las respuestas dadas por
80 5 Resultados
los educadores encuestados, fue posible establecer los resultados de cada uno de los aspectos
requeridos [126]. Se dividieron los hallazgos en tres partes, la primera relacionada con las
caracterı́sticas del usuario y configuración inicial del sistema de evaluación automático, la
segunda acerca de la usabilidad de la plataforma y la tercera relacionada con la utilidad del
software creado.
El segundo interrogante, se relaciona con la configuración básica del curso, donde el docente
selecciona el número de cortes que tendrá durante el año, las fechas de inicio y finalización
de cada uno y los desempeños que considera trabajar en cada periodo de tiempo. También el
valor porcentual de la auto, la co y la hetero-evaluación y el listado de estudiantes. En este
aspecto la figura 5-5 muestra en la fila P.2, muestra acuerdo entre los docentes encuestados,
por tanto los datos solicitados en la herramienta software creada son necesarios y suficientes.
De otro lado se tienen un par de expertos que ni están en desacuerdo ni en acuerdo. Al
revisar el espacio de observaciones no se encuentra ningún tipo de recomendación por parte
de ninguno de los docentes.
5.2 Resultados juicio de expertos sobre el diseño de la plataforma para rúbricas 81
La tercer pregunta (P.3) se enfoca en analizar la opinión de los expertos acerca de la confi-
guración de las diversas actividades presentes para cada componente. Ası́ mismo, la forma
como el docente desea trabajar cada una de las habilidades de cada desempeño, sus posibles
fechas de entrega y el tipo de evaluación que desea realizar. Frente a este aspectos los docen-
tes están en acuerdo que son suficientes y que la información solicitada por la herramienta
software, es necesaria para la planeación de sus clases. Esta misma opinión se da frente a
la pregunta número cuatro del juicio de expertos. Dicho cuestionamiento se relaciona con la
información brindada al educador, sobre las actividades actuales, su tipo de evaluación y su
fecha de finalización. También sobre las actividades futuras, la forma como serán evaluadas
y el tipo de evaluación que se aplicará.
La última pregunta (P.5) está encaminada a indagar acerca de la suficiencia de los infor-
mes presentados por la plataforma de evaluación basada en rúbricas, para cada habilidad,
desempeño y componente. La figura 5-5 en la fila P.5 indica que los expertos consideran los
informes suficientes y aptos como apoyo al proceso educativo. Los educadores encuestados
están de acuerdo en que es una herramienta que contribuye a establecer el nivel que puede
llegar a tener un estudiante o un grupo, frente algún indicador, desempeño o competencia.
Mencionan algunos educadores que la herramienta les brinda información para planear acti-
vidades de mejora y a su vez planear sus clases. Otros expertos sostienen que la plataforma
software automática de evaluación, les permite valorar las actividades planteadas y a su vez
su propio desempeño en las sesiones de clase.
Los hallazgos obtenidos a las tres primeras preguntas se muestran en la sub-figura (a), estos
interrogantes indagan sobre la facilidad de uso, la claridad y consistencia al presentar infor-
mación dada por la herramienta software desarrollada. Ası́ mismo cuestiona la coherencia y
claridad de la organización de la plataforma. Los expertos coinciden en que la herramienta
automática de evaluación, es fácil de utilizar, ası́ mismo consideran que la organización que
tiene el software de evaluación es coherente y es clara.
Los expertos se muestran en acuerdo frente a que es aceptable la velocidad de carga de las
diversas pantallas que contiene la plataforma. También muestran acuerdo sobre la facilidad
de usar el sistema para programar las actividades educativas, planteado en la herramienta
software. Los resultados mencionados se presentan en la sub-figura (b) preguntas 4 y 5
mostrados en la figura 5-6. Por último se indaga acerca del nivel de agrado al usar la
herramienta (P.6), la mayorı́a de docentes están en acuerdo en que la experiencia de uso
de la plataforma fue positiva. Para algunos docentes ni fue positiva ni tampoco negativa,
pero manifiestan en el espacio de observaciones que es una herramienta útil y que esperarı́an
utilizarla en el aula.
Figura 5-7.: Resultados juicio de expertos sobre utilidad de la plataforma de evaluación con
rúbricas
Los resultados son presentados en la figura 5-7, se puede apreciar en el gráfico acuerdo entre
los diferentes expertos encuestados, esto gracias que todos evalúan los diversos interrogantes
en el mismo nivel. Por tanto, a partir del resultados dado por los educadores encuestados,
se determina que la herramienta automática de evaluación, basada en rúbricas, puede ser
sugerida para su uso en el aula, ası́ mismo los recursos presentes en ella, le resultan útiles al
educador y le permiten mejorar su proceso de enseñanza.
Luego de analizar cada una de las preguntas, ası́ como las diversas secciones generadas en el
juicio de expertos, se puede establecer que la plataforma de evaluación automática, basada en
rúbricas puede ser una herramienta útil en el aula. También los diversos recursos propuestos
en el software de evaluación, como su configuración, acompañamiento de las sesiones de
clase, gestión de actividades, método de evaluación y los diversos informes que entrega, dan
información relevante para el docente y el estudiante. Además es una herramienta que puede
ser usada regularmente en el aula de clase, evaluando de forma efectiva las habilidades
pertenecientes a los componentes propuestos en el documento de tesis. Para los expertos
encuestados la plataforma de evaluación automática debe ser usada en el aula y tiene el
potencial de permitir al educador evaluar competencias.
5.3. Resumen
En este capı́tulo se presentaron los resultados obtenidos luego de aplicar las pruebas au-
tomáticas creadas, con los test diseñados fue posible establecer el nivel de competencia que
tienen los estudiantes en los componentes ‘Apropiación y Uso de la Tecnologı́a’ y ‘Solución de
Problemas con Tecnologı́a’, en las instituciones donde fueron aplicados. También las pruebas
diagnósticos permitieron hacer una comparación de su efectividad, al comparar el modelo
de calificación que brindan frente a la calificación tradicional desarrollada por los docentes.
Se analizaron los resultados obtenidos en un juicio de expertos al aplicar un test de Likert
84 5 Resultados
6.1. Resumen
El presente documento de tesis presenta las diversas fases utilizadas para obtener la automa-
tización de los procesos educativos y evaluativos basados en modelos de diseño instruccional
(D.I). La revisión bibliográfica permitió identificar el D.I como un modelo de proceso, el
cual da las herramientas necesarias para hacer seguimiento constante y sistemático al estu-
diante, con el fin de identificar sus habilidades, debilidades y fortalezas frente a una meta
de aprendizaje. Este trabajo de tesis se realizó debido a las dificultades que tienen los do-
centes para hacer un seguimiento adecuado al educando. Ası́ mismo debido a la carencia de
re-alimentación oportuna al escolar, no tiene claridad acerca de las fortalezas y debilidades
que tiene frente a una competencia, por tanto no identifica los aspectos que debe mejorar en
su proceso de aprendizaje.
En la parte inicial del documento, se incluyeron los referentes teóricos necesarios para de-
terminar y seleccionar las herramientas educativas susceptibles de ser automatizadas. En el
segundo capı́tulo se presentó un panorama general acerca de la automatización del proceso
educativo y evaluativo, ası́ como del diseño instruccional, con el cual es posible la creación
de diversos tipos de herramientas educativas y evaluativas. Posteriormente se hizo la des-
cripción de la forma como han sido automatizadas las pruebas escritas de tipo diagnóstico y
las rúbricas o matrices de evaluación. Ası́ mismo se presentó un panorama de la educación
tecnológica y como su enseñanza permite la formación de ciudadanos que puedan ser par-
ticipes en la sociedad. Al final del capı́tulo se hace una descripción acerca de la formación
tecnológica en Colombia y las falencias que está área tiene en sus procesos educativo y eva-
luativo.
hacer la medición del nivel que tiene cada estudiante en los diversos desempeños plantea-
dos en cada una de las componentes a evaluar. Con este insumo fue posible el diseño de
las rúbricas de evaluación, instrumentos que luego de creados fueron validados y mejorados
para posteriormente ser automatizados. El capı́tulo finaliza con el diseño y desarrollo de las
pruebas escritas, las cuales permiten hacer el diagnóstico de los estudiantes en las compo-
nentes tecnológicas seleccionadas. Para el diseño de los test, se analizaron los objetivos de las
pruebas PISA y se determinó, que las pruebas tuviesen como eje central solucionar diversas
situaciones en contexto. Ası́ mismo, luego del proceso de diseño y construcción de los test,
estos fueron validados mediante la aplicación de una prueba piloto a estudiantes de ciclo V
pertenecientes a dos instituciones educativas públicas del distrito capital
Al inicio del capı́tulo de resultados, se presenta la metodologı́a aplicada para validar la eficien-
cia de las pruebas automáticas creadas, en cuánto al modelo de calificación implementado.
La validación consistió en la medición de tiempo que puede tardar un docente al calificar los
diversos tipos de pregunta presentes en las pruebas. Esta información fue confrontada contra
el tiempo que el sistema automático de evaluación creado, tarda en hacer la calificación de
los mismos tipos de pregunta. Se corroboró la eficiencia del sistema automático diseñado, ya
que obtuvo mejores resultados que los obtenidos por el modelo de calificación desarrollado a
mano por los docentes. Posterior al proceso de validación de las pruebas automáticas, estás
fueron aplicadas a dos grupos de estudiantes pertenecientes a dos instituciones educativas
públicas del distrito capital. Los resultados obtenidos permitieron establecer el nivel de com-
6.2 Conclusiones 87
petencia que tienen los educandos y los grupos a los que pertenecen, en las dos componentes
evaluadas. Finalmente, se valida mediante juicio de expertos la plataforma de evaluación
automática, basada en rúbricas diseñadas. Se examinaron los resultados obtenidos en tres
aspectos fundamentales: caracterı́sticas de usuario y configuración inicial, usabilidad y uti-
lidad de la plataforma. Se estableció que es una herramienta que los docentes utilizarı́an en
el aula y que contiene las caracterı́sticas y herramientas necesarias para el seguimiento y
sistematización de los procesos educativo y evaluativo.
6.2. Conclusiones
A continuación se presentan todas las conclusiones obtenidas tras el desarrollo de este trabajo
de investigación:
Los instrumentos evaluativos creados fueron diseñados teniendo en cuenta las normas
dadas desde los diversos decretos del MEN y la SED Bogotá. Por tanto, los resultados
que las herramientas entregan están ajustados a los diferentes lineamientos que la ley
en Colombia exige. Ası́ mismo, desde el punto de vista pedagógico cada uno de los
instrumentos fue desarrollado cumpliendo con los procesos de diseño propuestos por
diversos autores. Por tanto son herramientas que brindan resultados fiables y adecuados
para las competencias que evalúan. Esto se obtuvo a partir de la aplicación de las
pruebas diagnósticas a grupos de estudiantes de dos colegios distritales, ası́ como a
los resultados obtenidas en los procesos de validación de cada herramienta evaluativa
creada.
Las rúbricas de evaluación creadas son herramientas que brindan tanto al docente como
al educando la posibilidad de identificar para un determinado desempeño las fortalezas
y debilidades. Su diseño implica el seguimiento sistemático y metódico de una serie de
pasos, los cuales dan como resultado un instrumento que da a estudiantes y docentes,
información suficiente sobre el proceso educativo.
educativas públicas del distrito. Es por ello que dentro de sus requerimientos de automa-
tización se implementó la posibilidad de seleccionar el número de periodos académicos,
también tener un cronograma de fechas en el cual el docente seleccione los momentos
donde trabajará cada habilidad y darle la posibilidad al educador de seleccionar el
tipo de evaluación que considere para cada habilidad. Estas opciones dan al docente la
libertad de preparar sus clases como desee, ası́ mismo determinar que tipo de actividad
hacer y calificarlas con el tipo de evaluación que considere adecuado.
[3] Andrade, Heidi G.: Using rubrics to promote thinking and learning. En: Educational
Leadership 57 (2000), Nr. 5, p. 13–19
[4] Andrade, Heidi G.: Teaching with rubrics: The good, the bad, and the ugly. En:
College teaching 53 (2005), Nr. 1, p. 27–31
[5] Arends, Richard ; Beth, Mejia (Ed.): Learning to Tech. Mc Graw Hill, 2011
[6] Arias Ortiz, Elena ; Cristia, Julian P.: El BID y la tecnologı́a para mejorar el
aprendizaje:¿ Cómo promover programas efectivos? En: IDB Technical Note (Social
Sector. Education Division); IDB-TN-670 (2014)
[8] Baird, Davis: Thing knowledge: A philosophy of scientific instruments. Univ of Cali-
fornia Press, 2004
[10] Balfe, Nora ; Sharples, Sarah ; Wilson, John R.: Impact of automation: Mea-
surement of performance, workload and behaviour in a complex control environment.
En: Applied Ergonomics 47 (2015), p. 52 – 64. – ISSN 0003–6870
[11] Bayrak, Gokay ; Cebeci, Mehmet: An Automation Platform Designs for Electrical
and Electronics Students: An Application Study. En: Procedia - Social and Behavioral
Sciences 47 (2012), p. 950 – 955. – Cyprus International Conference on Educational
Research (CY-ICER-2012)North Cyprus, US08-10 February, 2012. – ISSN 1877–0428
Bibliografı́a 99
[15] Bo, Huang ; Qing, Fan ; Yi, Zhang ; Yi, Zhang: Situational Creation of Simulated
Teaching in Electrical-Mechanics Major. (2010), p. 359–362
[16] Burke, Patricia M.: A simulation case study from an instructional design framework.
En: Teaching and Learning in Nursing 5 (2010), Nr. 2, p. 73 – 77. – ISSN 1557–3087
[17] Cabero-Almenara, Julio ; Osuna, Julio B.: La utilización del juicio de experto
para la evaluación de TIC: el coeficiente de competencia experta. En: Bordón. Revista
de pedagogı́a 65 (2013), Nr. 2, p. 25–38
[18] Carrasco, Miguel Ángel L.: Guı́a Básica para la elaboración de rúbricas. En: Puebla:
Universidade Iberoamericana Puebla (2007)
[19] Case, D: Cómo elaborar preguntas para evaluaciones escritas en el área de ciencias
básicas y clı́nicas. National Board of Medical Examiners, 2006
[21] Cohen Louis, Manion L. ; Keith, Morrison: Research methods in education. The Hig-
her Education Academy Innovation Way, York Science Park, Heslington, York YO10
5BR, 2007 ( 10)
[24] Compartir, Fundación ; Colombia, Telefónica (Ed.): Cómo enseñan los maestros
en Colombia en el área de tecnologı́a ? Análisis de las propuestas del premio compartir
al maestro. Telefónica Colombia, 2014
[28] Diaz Barriga, Frida ; del Bosque Alayon, Ricardo (Ed.): Enseñanza situada:
Vı́nculo entre la escuela y la vida. Mc Graw Hill, 2006
[30] Diaz-Barriga, Frida ; Lule, Maria: Metodologia de diseño curricular para educación
superior. En: México, Editorial Trillas (1998)
[31] Distrital, Universidad ; Greece (Ed.): Colegios públicos de excelencia para Bogotá:
orientaciones curriculares para el campo de la ciencia y la tecnologı́a. Alcaldia Mayor
de Bogotá, 2007
[34] Educación, Min.: Serie 30: Ser Competente en Tecnologı́a: Una necesidad para el
desarrollo. En: Serie 30 1 (2008)
[36] Escudero, Eduardo B. ; Reyna, Norma L. ; Morales, Martı́n Rosas: The level
of difficulty and discrimination power of the Basic Knowledge and Skills Examination
(EXHCOBA). En: Revista Electrónica de Investigación Educativa 2 (2000), Nr. 1, p. 2
[39] Fidler, Penny: The Impact of Class Size Reduction on Student Achievement. (2001)
[41] Francesca Bertacchini, Pietro Pantano Assunta T.: Motivating the learning of
science topics in secondary school: A constructivist edutainment setting for studying
Chaos. En: Computers & Education 59 (2012), p. 1377–1387
[44] Gagne, Robert M.: Educational technology and the learning process. En: Educational
Researcher 3 (1974), Nr. 1, p. 3–8
[46] Garcı́a Garcı́a, Marı́a José ; Terrón López, Ma ; Blanco Archilla, Yolanda:
Desarrollo de recursos docentes para la evaluación de competencias genéricas. En:
ReVisión 3 (2010), Nr. 2
[47] Gatica-Lara, Fiorina ; Uribarren-Berrueta, Teresita del Niñ. J.: ¿ Cómo ela-
borar una rúbrica? En: Investigación en educación médica 2 (2013), Nr. 5, p. 61–65
102 Bibliografı́a
[49] Giraldo, Eliana Patricia L.: El Diseño Instruccional en la Educación Virtual: Más
Allá de la Presentación de Contenidos. En: Revista educación y desarrollo social 5
(2011), p. 112 –127
[50] Giraldo, M.P. ; Acuna, A.M.: Instructional design oriented towards the development
of competences. En: Information Technology Based Higher Education and Training,
2005. ITHET 2005. 6th International Conference on, 2005, p. F2B/20–F2B/25
[51] Gordon, Brown ; AZ (Ed.): The genesis of the system thinking program at the orange
grove middle school. Tucson Arizona, 1990
[52] GREECE ; Olarte, Henry F. (Ed.): Colegios públicos de excelencia para Bogotá:
Orientaciones curriculares para el campo de la ciencia y Tecnologı́a:. Secretaria de
Educació Distrital, 2007
[53] Guilford, JP: Varieties of creative giftedness, their measurement and development.
En: Gifted Child Quarterly (1975)
[57] Husain, Hafizah ; Bais, Badariah ; Hussain, Aini ; Samad, Salina A.: How to
Construct Open Ended Questions. En: Procedia - Social and Behavioral Sciences
60 (2012), p. 456 – 462. – Universiti Kebangsaan Malaysia Teaching and Learning
Congress 2011, Volume II, December 17 – 20 2011, Pulau Pinang {MALAYSIA}. –
ISSN 1877–0428
[61] John, Williams ; editor, Series (Ed.): Technology education for teachers. Sense
Publishers, 2012
[63] Kastner, Margit ; Stangla, Barbara: Multiple Choice and Constructed Response
Tests: Do Test Format and Scoring Matter? En: Procedia - Social and Behavioral
Sciences 12 (2011), p. 263 – 273. – {INTERNATIONAL} {CONFERENCE} {ON}
{EDUCATION} {AND} {EDUCATIONAL} {PSYCHOLOGY} 2010. – ISSN 1877–
0428
[64] Kimbell, Richard: Understanding Assessment its Importance; its Dangers; its Poten-
tial. En: Technology education for teachers. Springer, 2012, p. 137–165
[65] Kocakülah, Mustafa S.: Development and application of a rubric for evaluating
students’ performance on Newton’s laws of motion. En: Journal of Science Education
and Technology 19 (2010), Nr. 2, p. 146–164
[68] Krathwohl, David R.: A revision of Bloom’s taxonomy: An overview. En: Theory
into practice 41 (2002), Nr. 4, p. 212–218
[71] Li, Xiping: Web-based medical imaging simulation system for education and research,
UNIVERSITY OF MIAMI, Tesis de Grado, 2011
[72] Liu, Min ; Reed, W.Michael: The relationship between the learning strategies and
learning styles in a hypermedia environment. En: Computers in Human Behavior 10
(1994), Nr. 4, p. 419 – 434. – ISSN 0747–5632
[74] Marı́a, Sánchez Colorado M.: Ambientes de Aprendizaje con Robótica Pedagógi-
ca. En: Memorias del Simposiio Internacional: Las Computadoras en la Educación.
SOMECE-SEP (June 2003)
[75] Mariño, Sonia I. ; Godoy Guglielmone, Marı́a V. ; Busso, Lorena E.: Sistema
de gestión de evaluaciones basado en software libre. En: XI Congreso Argentino de
Ciencias de la Computación, 2005
[76] Martı́nez, Maria ; Amante, Beatriz ; Cadenato, Ana ; Gallego, Isabel: As-
sessment Tasks Center of the Learning Process. En: Procedia Social and Behavioral
Sciences 46 (2012), p. 624 – 628. – 4th WORLD CONFERENCE ON EDUCATIONAL
SCIENCES (WCES-2012) 02-05 February 2012 Barcelona, Spain. – ISSN 1877–0428
[80] Mendoza, M. Rojas T.: Modelo sistémico para estimar la calidad de los sistemas
de software. En: (MOSCA).ASOVAC. Acta Cientı́fica Venezolana. Universidad Simón
Bolı́var (2001), p. 1 –11
[81] Mertler, Craig A.: Designing scoring rubrics for your classroom. En: Practical
Assessment, Research & Evaluation 7 (2001), Nr. 25, p. 1–10
Bibliografı́a 105
[83] Mon, Francesc E. ; Cervera, Mercè G.: Competencia digital en la educación superior:
instrumentos de evaluación y nuevos entornos. En: Enl@ce 10 (2013), Nr. 3
[84] Mónica Blanco, Marta G.: MOODLE QUIZZES FOR ASSESSING STATISTICAL
TOPICS IN ENGINERING STUDIES. En: Joint International IGIP-SEFI Annual
Conference 2010 (2010), p. 1
[85] Monks, James ; Schmidt, Robert M.: The impact of class size on outcomes in higher
education. En: The BE Journal of Economic Analysis & Policy 11 (2011), Nr. 1
[87] Moraes, L.A.M. ; Gomes, F.J.: Digital environment for simulation of electronic
processes focused on an educational approach. En: Industrial Electronics, 2003. ISIE
03. 2003 IEEE International Symposium on Vol. 2, 2003, p. 1118–1122 vol. 2
[88] Morduchowicz, Alejandro: Los indicadores educativos y las dimensiones que los
integran. En: Instituto Internacional de Planeamiento de la Educación-Organización
de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO). (2006)
[89] Moreda, P ; del Lenguage Natural, Grupo de P.: Los Roles Semánticos en la
Tecnologıa del Lenguaje Humano: Anotación y Aplicación. En: Marı́a Teresa Vicente-
Dı́ez, Paloma Martı́nez, Ángel Martı́nez-González 42 (2009), p. 125–126
[90] Murray, R.M. ; Astrom, K.J. ; Boyd, S.P. ; Brockett, R.W. ; Stein, G.: Future
directions in control in an information-rich world. En: Control Systems, IEEE 23
(2003), Apr, Nr. 2, p. 20–33. – ISSN 1066–033X
[91] Myers, Jefferson: No logro captar que un profesor con 45 alumnos pueda ofrecer la
misma calidad de educación que uno con 25”. En: Hacı́a un movimiento pedagógico
nacional 1 (2015), p. 14 –19
[92] Norman, Donald A.: La psicologı́a de los objetos cotidianos. Vol. 6. Editorial Nerea,
1998
[93] Obando, Patricia L.: Construcción y validación de una prueba para medir conoci-
mientos matemáticos. En: REVISTA HORIZONTES PEDAGÓGICOS 11 (2009), Nr.
1
[95] O’Shea, Peter: A systems view of learning in education. En: International Journal
of Educational Development 27 (2007), p. 637–647
[97] Pasik Duncan, Bozenna ; Verleger, Matthew: Education and Qualification for
Control and Automation. En: Nof, Shimon Y. (Ed.): Springer Handbook of Automa-
tion. Springer Berlin Heidelberg, 2009. – ISBN 978–3–540–78830–0, p. 767–778
[98] Pereyra, Miguel A. ; Kotthoff, Hans-Georg ; Cowen, Robert: PISA under exa-
mination. Springer, 2011
[99] Pérez Marı́n, Diana ; Alfonseca Cubero, Enrique ; Rodrı́guez Marı́n, Pilar:
¿ Pueden los ordenadores evaluar automáticamente preguntas abiertas? En: Novática
(2006)
[101] Pressman, Roger: Ingenierı́a de software: un enfoque práctico. Mac Graw Hill, 2002
[102] Prieto, Victor: Gestión integral de recursos para el aprendizaje. En: Recursos digitales
para el aprendizaje 1 (2009), p. 27 –33
[103] Pudlowski, Z.J. ; Messerle, H.K.: Technological education for schools in Australia.
(1989), p. 28–34
[105] Randolph G, Bias ; Mayhew, Deborah J.: Cost-justifying usability: An update for
an internet age. Morgan Kaufman Publishers, 2005
[106] Rasinen, Aki: An analysis of the technology education curriculum of six countries.
En: Journal of techonology education 15 (2003), p. 31– 46
[107] Reeves, Stacy ; Stanford, Barbara [u. a.]: Rubrics for the classroom: Assessments
for students and teachers. En: The Delta Kappa Gamma Bulletin Fall (2009), p. 24–27
Bibliografı́a 107
[108] Reeves, Thomas C.: Evaluation of the design and development of IT tools in educa-
tion. En: International handbook of information technology in primary and secondary
education. Springer, 2008, p. 1037–1051
[109] Requena, Stefany Raquel H.: El modelo constructivista con las nuevas tecnologı́as,
aplicado en el proceso de aprendizaje. En: RUSC. Universities and Knowledge Society
Journal 5 (2008), Nr. 2, p. 6
[110] Richard, Kimbell: Understanding assesment its importance; its danger; its potential.
En: Technology education for teachers (2012), p. 137 –166
[111] Rico, Luis: Marco teórico de evaluación en PISA sobre matemáticas y resolución de
problemas. En: Colección Digital Eudoxus (2009), Nr. 22
[112] Ritzhaupt, Albert D. ; Martin, Florence: Development and validation of the edu-
cational technologist multimedia competency survey. En: Educational Technology Re-
search and Development 62 (2014), Nr. 1, p. 13–33
[113] Riveros, H. G.: Nota: La prueba PISA de la OCDE. En: Lat. Am. J. Phys. Education
2 (2008), p. 351–353
[114] Rodrı́guez, David E.: Tecnologı́a, diseño y cultura material. En: Comunicación y
Ciudadanı́a 3 (Enero - Junio 2010), p. 30 –39
[117] Sánchez, Pilar F. ; Garnacho, Ángel S. ; Trabado, Antonio ; Pérez, Enrique M.:
SIAPE Sistema Integrado para el Aprendizaje de la Electrónica para Técnicos e Inge-
nieros. En: IEEE RITA 6 (2011), Nr. 1, p. 58 a 63
[120] Saxton, Emily ; Burns, Robin ; Holveck, Susan ; Kelley, Sybil ; Prince, Daniel
; Rigelman, Nicole ; Skinner, Ellen A.: A Common Measurement System for K-12
{STEM} education: Adopting an educational evaluation methodology that elevates
theoretical foundations and systems thinking. En: Studies in Educational Evaluation
40 (2014), p. 18 – 35. – ISSN 0191–491X
[121] Scalese, Ross J. ; Hatala, Rose: Competency assessment. En: The Comprehensive
Textbook of Healthcare Simulation. Springer, 2013, p. 135–160
[122] Scardamalia, Marlene ; Bransford, John ; Kozma, Bob ; Quellmalz, Edys: New
assessments and environments for knowledge building. En: Assessment and teaching
of 21st century skills. Springer, 2012, p. 231–300
[124] SEP ; de educació pública, Secretaria (Ed.): Las estrategias y los instruentos de
evaluación desde el enfoque formativo. SEP, 2013
[125] Siozos, Panagiotis: Computer based testing using, based assessment application for
secondary education. En: Computers & Education 52 (2009), p. 811 – 819
[126] Skjong, Rolf ; Wentworth, Benedikte H. [u. a.]: Expert judgment and risk per-
ception. En: The Eleventh International Offshore and Polar Engineering Conference
International Society of Offshore and Polar Engineers, 2001
[128] Smith, Pa. ; R, Tillman ; Wiley, Jhon (Ed.): Instructional Design. 1999
[131] Suzuki, K.: The Instructional design for e-learning practice. En: J. Educ. Technol 3
(2005), p. 197 – 205
Bibliografı́a 109
[133] Tillema, Harm ; Leenknecht, Martijn ; Segers, Mien: Assessing assessment qua-
lity: Criteria for quality assurance in design of (peer) assessment for learning–a review
of research studies. En: Studies in Educational Evaluation 37 (2011), Nr. 1, p. 25–34
[137] de Vries, Marc: Philosophy of techonology. En: Technology education for teachers
(2012), p. 15 – 34
[138] Wahl, Michael J. Dyrenfurth. Kati Langer. D.: Technology education guide. Unesco,
2003
[139] Yifei, Zhang: Web CT-based platform design for interactive college English teaching.
En: Mechatronic Science, Electric Engineering and Computer (MEC), 2011 Interna-
tional Conference on, 2011, p. 1298–1301