Estudo Comparativo entre Modelos que Estimam a Habilidade dos Estudantes em Ambientes Virtuais de Programação

Authors

  • Fabiana Zaffalon Universidade Federal do Rio Grande
  • André Prisco Universidade Federal do Rio Grande
  • Ricardo Souza Universidade Federal do Rio Grande
  • Jean Luca Bez Universidade Regional do Alto Uruguai e das Missões
  • Neilor Tonin Universidade Regional do Alto Uruguai e das Missões
  • Rafael Penna Universidade Federal do Rio Grande
  • Silvia Botelho Universidade Federal do Rio Grande

DOI:

https://doi.org/10.5753/rbie.2020.28.0.776

Keywords:

Habilidade, TRI, Elo, M-ERS

Abstract

É crescente o número de plataformas online que disponibilizam exercícios de programação, onde os estudantes submetem a resolução destes exercícios e recebem um feedback automático do sistema, sem intervenção humana. Esses ambientes permitem o registro de muitos aspectos das submissões e, dessa forma, os modelos de avaliação educacional podem ser utilizados para inferir as habilidades trabalhadas em cada solução. Neste trabalho apresentamos uma análise comparativa de três modelos que estimam a habilidade dos estudantes: Elo, Teoria de Resposta ao Item (TRI) e M-ERS (Multidimensional Extension of the ERS). O Elo foi desenvolvido para classificar jogadores de xadrez, através do histórico de jogo, mas foi adaptado para estimar a habilidade dos estudantes através do histórico de submissões dos problemas. A TRI estima a habilidade através de um conjunto de respostas dadas a um conjunto de itens, existem alguns modelos de TRI que variam de acordo com o tipo de resposta. M-ERS é uma adaptação do Elo e TRI que combina os dois modelos e rastreia as múltiplas habilidades dos estudantes. Os modelos Elo, TRI de 2 parâmetros, TRI de resposta gradual e o M-ERS foram aplicados em uma base de dados disponibilizada por uma plataforma Online Judge. Os resultados obtidos apontam diferenças entre os modelos em relação às habilidades estimadas, diferenças que acredita-se estar relacionadas à forma com que cada modelo estima os parâmetros.

Downloads

Não há dados estatísticos.

Referências

Andrade, D., & Justino, G. (2007). Software para avaliação de aprendizagem utilizando a teoria da resposta ao item. In XIII Workshop sobre Informática na Escola. Rio de Janeiro–RJ. [DOI:10.5753/cbie.wie.2007] [GS Search]

Andrade, D., Tavares, H. R., & Cunha, V. R. (2000). Teoria da resposta ao item: conceitos e aplicações. São Paulo: ABE - Associação Brasileira de Estatística. [GS Search]

Araujo, E., Andrade, D., & Bortolotti, S. (2009). Teoria da resposta ao item. Revista da Escola de Enfermagem da USP, 43, 1000-1008. [DOI: 10.1590/S0080-62342009000500003] [GS Search]

Baker, F. (2001). The basics of item response theory (2nd ed.). Washington: ERIC. [GS Search]

Bez, J. L., Tonin, N. A., & Rodegher, P. R. (2011). URI Online Judge. Retrieved from https://www.urionlinejudge.com.br/ [GS Search]

Bez, J. L., Tonin, N. A., & Rodegheri, P. R. (2014). URI Online Judge Academic: A tool for algorithms and programming classes. In 9th international conference on computer science education (p. 149-152). [DOI: 10.5753/wei.2015.10235] [GS Search]

Braga, B. (2015). Teoria da resposta ao item: o uso do modelo de Samejima como proposta de correção para itens discursivos. UnB, Brasília. [GS Search]

Chalmers, R. (2012). mirt: A multidimensional item response theory package for the R environment. Journal of Statistical Software, 48, 1-29. [DOI: 10.18637/jss.v048.i06] [GS Search]

Elo, A. (1978). The rating of chessplayers, past and present. London: Batsford. [GS Search]

França, L. (2020). Competências e habilidades no ensino: o que são e como aplicá-las? Retrieved from https://www.somospar.com.br/competencias-e-habilidades/ [GS Search]

Moreira, G. L., Holanda, W., Coutinho, J. C., & Chagas, F. (2018). Desafios na aprendizagem de programação introdutória em cursos de TI da UFERSA, campus Pau dos Ferros: um estudo exploratório. Anais do Encontro de Computação do Oeste Potiguar ECOP/UFERSA(2). [GS Search]

Moreira Junior, F. (2010). Aplicações da teoria da resposta ao item (TRI) no Brasil. Revista Brasileira de Biometria, 28(4), 137–70. [GS Search]

Nojosa, R. T. (2002). Teoria da Resposta ao Item (TRI): modelos multidimensionais. Estudos em Avaliação Educacional(25), 123–166. [DOI: 10.18222/eae02520022193] [GS Search]

Oliveira, L. (2017). O desempenho em matemática do enem de 2012 em Luis Eduardo Magalhães (BA), na teoria de resposta ao item. UFT, Arraias. [GS Search]

Park, J., Cornillie, F., Van der Maas, H., & Van Den, N. (2019). A multidimensional IRT approach for dynamically monitoring ability growth in computerized practice environments. Frontiers in psychology, 10. [DOI: 10.3389/fpsyg.2019.00620] [GS Search]

Pasquali, L. (2018). Tri–teoria de resposta ao item: Teoria, procedimentos e aplicações. Curitiba: Appris. [GS Search]

Pelánek, R. (2016). Applications of the elo rating system in adaptive educational systems. Computers Education, 98, 169-179. [DOI: 10.1016/j.compedu.2016.03.017] [GS Search]

Perrenoud, P., & Magne, B. (1999). Construir as competências desde a escola. Porto Alegre:Artmed.[GS Search]

Prisco, A., Santos, R., Botelho, S., Tonin, N., & Bez, J. (2018). A multidimensional Elo model for matching learning objects. In 2018 IEEE Frontiers in Education Conference (FIE). [GS Search]

Reckase, M. D. (2006). Multidimensional item response theory. Handbook of statistics, 26, 607–642. [DOI: 10.1016/S0169-7161(06)26018-8] [GS Search]

Robins, A. (2010). Learning edge momentum: A new account of outcomes in CS1. Computer Science Education, 20(1), 37–71. [DOI: 10.1080/08993401003612167] [GS Search]

Soares, T. M., Souza, R. C., & Pereira, V. R. (2004). Métodos alternativos no critério Brasil para construção de indicadores sócio-econômicos: Teoria da resposta ao item. XXXVI Simpósio Brasileiro de Pesquisa Operacional, 35. [GS Search]

Tavares, C. (2014). A teoria de resposta ao item na avaliação em larga escala: Um estudo sobre o exame nacional de acesso ao mestrado profissional em matemática em rede nacional-profmat. IMPA, Rio de Janeiro. [GS Search]

Wasik, S., Antczak, M., Badura, J., Laskowski, A., & Sternal, T. (2018). A survey on online judge systems and their applications. ACM Computing Surveys (CSUR), 51(1), 1–34. [DOI: 10.1145/3143560] [GS Search]

Arquivos adicionais

Published

2020-10-17

Como Citar

ZAFFALON, F.; PRISCO, A.; SOUZA, R.; BEZ, J. L.; TONIN, N.; PENNA, R.; BOTELHO, S. Estudo Comparativo entre Modelos que Estimam a Habilidade dos Estudantes em Ambientes Virtuais de Programação. Revista Brasileira de Informática na Educação, [S. l.], v. 28, p. 776–795, 2020. DOI: 10.5753/rbie.2020.28.0.776. Disponível em: https://journals-sol.sbc.org.br/index.php/rbie/article/view/3961. Acesso em: 3 dez. 2024.

Issue

Section

Artigos