Skip navigation
Use este identificador para citar ou linkar para este item: http://repositorio2.unb.br/jspui/handle/10482/45461
Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
2022_LaísSilveiraAntonietto.pdf2,18 MBAdobe PDFVisualizar/Abrir
Registro completo de metadados
Campo DCValorIdioma
dc.contributor.advisorGriboski, Claudia Maffini-
dc.contributor.authorAntonietto, Laís Silveira-
dc.date.accessioned2023-01-09T21:58:27Z-
dc.date.available2023-01-09T21:58:27Z-
dc.date.issued2023-01-09-
dc.date.submitted2022-09-22-
dc.identifier.citationANTONIETTO, Laís Silveira. O erro como ferramenta para compreender o desempenho de estudantes em avaliações em larga escala. 2022. xii, 104 f., il. Dissertação (Mestrado Profissional em Educação) — Universidade de Brasília, Brasília, 2022.pt_BR
dc.identifier.urihttps://repositorio.unb.br/handle/10482/45461-
dc.descriptionDissertação (Mestrado Profissional em Educação) — Universidade de Brasília, Faculdade de Educação, Programa de Pós-Graduação em Educação, Brasília, 2022.pt_BR
dc.description.abstractEsta dissertação tem por objetivo analisar os erros cometidos por estudantes em um teste cognitivo de avaliação em larga escala e, a partir dessa análise, gerar evidências pedagógicas para compreender o desempenho deles nessas avaliações. Neste trabalho, parte-se do pressuposto de que o desenvolvimento de uma habilidade é um processo contínuo, cujos estágios são evidenciados pelos erros que os estudantes cometem. Aplicando esse conceito ao universo das avaliações em larga escala e considerando que as opções erradas de um item refletem esses estágios, entende-se que estudantes em estágios diferentes de desenvolvimento de uma habilidade cometem erros também diferentes. Sendo assim, este estudo utilizou uma metodologia de análise estatística para analisar as probabilidades de marcação das opções erradas e associá-las ao nível de proficiência desses estudantes, criando uma escala interpretada que leva em consideração os erros dos estudantes ao invés dos acertos. A questão central que norteou essa investigação foi: é possível utilizar as marcações dos estudantes nas opções erradas para gerar evidências sobre o seu desempenho em avaliações em larga escala? Para responder a esse questionamento, a presente dissertação justifica o estudo com base em uma abordagem quali-quantitativa, sendo organizada na forma de artigo, com introdução, dois estudos analíticos, um produto técnico, que traz uma escala interpretada com o objetivo de oferecer à comunidade escolar e à sociedade uma devolutiva a respeito do desempenho dos estudantes em avaliações em larga escala e as considerações finais. Os resultados permitem propor a referida escala, delimitando para cada um dos grupos de estudantes estabelecidos um perfil dos erros geralmente cometidos. Cabe destacar que essa pesquisa tem caráter exploratório, tendo em vista seu ineditismo no cenário das análises que se fazem dos dados extraídos em avaliações em larga escala. Admite-se, portanto, suas limitações no que se refere aos modelos estatísticos empregados, cabendo análises mais robustas para consolidar os procedimentos adotados. Por outro lado, destaca-se como grande contribuição deste trabalho uma análise que complementa as escalas de proficiência tradicionais e se soma aos resultados das avaliações em larga escala, oferecendo uma nova perspectiva sobre o desempenho dos estudantes.pt_BR
dc.language.isoPortuguêspt_BR
dc.rightsAcesso Abertopt_BR
dc.titleO erro como ferramenta para compreender o desempenho de estudantes em avaliações em larga escalapt_BR
dc.typeDissertaçãopt_BR
dc.subject.keywordTestes cognitivospt_BR
dc.subject.keywordAvaliação em larga escala (SAEB)pt_BR
dc.subject.keywordProficiênciapt_BR
dc.subject.keywordAnálise do erropt_BR
dc.subject.keywordErros na aprendizagempt_BR
dc.rights.licenseA concessão da licença deste item refere-se ao termo de autorização impresso assinado pelo autor com as seguintes condições: Na qualidade de titular dos direitos de autor da publicação, autorizo a Universidade de Brasília e o IBICT a disponibilizar por meio dos sites www.bce.unb.br, www.ibict.br, http://hercules.vtls.com/cgi-bin/ndltd/chameleon?lng=pt&skin=ndltd sem ressarcimento dos direitos autorais, de acordo com a Lei nº 9610/98, o texto integral da obra disponibilizada, conforme permissões assinaladas, para fins de leitura, impressão e/ou download, a título de divulgação da produção científica brasileira, a partir desta data.pt_BR
dc.description.abstract1This dissertation aims to analyze the errors made by students in a large-scale cognitive assessment test and, from this analysis, generate pedagogical evidence to understand their performance in these assessments. In this work, it is assumed that the development of a skill is a continuous process, which stages are evidenced by the mistakes students make. Applying this concept to the universe of large-scale assessments and considering that the wrong choices of an item reflect these stages, it is understood that students at different stages of development of a skill also make different mistakes. Therefore, this study used a statistical analysis methodology to analyze the probabilities of marking the wrong options and associate them with the proficiency level of these students, creating an interpreted scale that considers the students' mistakes instead of correct markings. The central question that guided this investigation was: is it possible to use students' marks in the wrong options to generate evidence about their performance in large-scale assessments? To answer this question, the present dissertation justifies the study based on a quali-quantitative approach, being organized in the form of an article, with an introduction, two analytical studies, a technical product, which brings an interpreted scale with the objective of offering the school community and society feedback on student performance in large-scale assessments and final considerations. The results allow us to propose this scale, delimiting for each of the groups of students a profile of the errors generally made. It is worth noting that this research has an exploratory character, given its novelty in the scenario of analyzes performed on data extracted in large-scale evaluations. Therefore, its limitations regarding the statistical models used are admitted, requiring more robust analyzes to consolidate the adopted procedures. On the other hand, an analysis that complements traditional proficiency scales and adds to the results of large-scale assessments stands out as a major contribution of this work, offering a new perspective on student performance.pt_BR
dc.contributor.emailmailto:lantonietto@gmail.compt_BR
dc.description.unidadeFaculdade de Educação (FE)pt_BR
dc.description.ppgPrograma de Pós-Graduação em Educação, Mestrado Profissionalpt_BR
Aparece nas coleções:Teses, dissertações e produtos pós-doutorado

Mostrar registro simples do item Visualizar estatísticas



Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.