Élément Dublin Core | Valeur | Langue |
dc.contributor.advisor | Faleiros, Thiago de Paulo | - |
dc.contributor.author | Silva Júnior, Paulo Célio Soares da | - |
dc.date.accessioned | 2025-04-14T12:39:35Z | - |
dc.date.available | 2025-04-14T12:39:35Z | - |
dc.date.issued | 2025-04-14 | - |
dc.date.submitted | 2024-12-20 | - |
dc.identifier.citation | SILVA JÚNIOR, Paulo Célio Soares da. Classificação de petições iniciais no Conselho Nacional do Ministério Público. 2024. 98 f., il. Dissertação (Mestrado Profissional em Computação Aplicada) — Universidade de Brasília, Brasília, 2024. | pt_BR |
dc.identifier.uri | http://repositorio.unb.br/handle/10482/52049 | - |
dc.description | Dissertação (Mestrado Profissional em Computação Aplicada) — Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, Brasília, 2024. | pt_BR |
dc.description.abstract | Este trabalho propõe a aplicação de técnicas de Processamento de Linguagem Natural, utilizando modelos de linguagem baseados em BERT, para melhorar a classificação
de petições iniciais do Conselho Nacional do Ministério Público (CNMP). Os modelos BERTimbau e Albertina PT-BR demonstraram desempenho superior aos algoritmos
tradicionais de aprendizado de máquina, evidenciando a eficácia do ajuste fino desses modelos para a tarefa de classificação conforme as classes processuais definidas no artigo 37
do Regimento Interno do CNMP. A pesquisa integrou estratégias de pré-processamento,
como digitalização e limpeza textual, além de técnicas de sumarização abstrativa com
RAG e LLM, que contribuíram significativamente para o desempenho dos classificadores.
Também foi explorada a técnica de Data Augmentation para balanceamento de dados,
a qual mostrou impacto positivo nos classificadores tradicionais, especialmente no SVM
combinado com vetorização por embeddings, e aprimorou o desempenho do modelo Albertina PT-BR. Os resultados indicam que o ajuste fino de modelos BERT é uma alternativa eficaz para a classificação de petições iniciais, superando abordagens tradicionais
de aprendizado de máquina. A pesquisa demonstrou eficácia e inovação na classificação
de textos no contexto do Ministério Público brasileiro. | pt_BR |
dc.language.iso | por | pt_BR |
dc.rights | Acesso Aberto | pt_BR |
dc.title | Classificação de petições iniciais no Conselho Nacional do Ministério Público | pt_BR |
dc.type | Dissertação | pt_BR |
dc.subject.keyword | Processamento de linguagem natural (Computação) | pt_BR |
dc.subject.keyword | Ministério Público | pt_BR |
dc.subject.keyword | Aprendizado profundo | pt_BR |
dc.rights.license | A concessão da licença deste item refere-se ao termo de autorização impresso assinado pelo autor com as seguintes condições: Na qualidade de titular dos direitos de autor da publicação, autorizo a Universidade de Brasília e o IBICT a disponibilizar por meio dos sites www.bce.unb.br, www.ibict.br, http://hercules.vtls.com/cgi-bin/ndltd/chameleon?lng=pt&skin=ndltd sem ressarcimento dos direitos autorais, de acordo com a Lei nº 9610/98, o texto integral da obra disponibilizada, conforme permissões assinaladas, para fins de leitura, impressão e/ou download, a título de divulgação da produção científica brasileira, a partir desta data. | pt_BR |
dc.description.abstract1 | This work proposes the application of Natural Language Processing techniques, using
BERT-based language models, to improve the classification of initial petitions by the National Council of the Public Ministry (CNMP). The BERTimbau and Albertina-PTBR
models demonstrated superior performance compared to traditional machine learning algorithms, highlighting the effectiveness of fine-tuning these models for the classification
task according to the procedural classes defined in Article 37 of the CNMP’s Internal
Regulations. The research integrated preprocessing strategies, such as digitization and
text cleaning, as well as abstractive summarization techniques with RAG and LLM, which
significantly contributed to the classifiers’ performance. The Data Augmentation technique for data balancing was also explored, showing a positive impact on traditional
classifiers, especially SVM combined with embeddings vectorization, and improved the
performance of the Albertina PT-BR model. The results indicate that fine-tuning BERT
models is an effective alternative for classifying initial petitions, surpassing traditional
machine learning approaches. The research demonstrated effectiveness and innovation in
text classification within the context of the Brazilian Public Ministry. | pt_BR |
dc.description.unidade | Instituto de Ciências Exatas (IE) | pt_BR |
dc.description.unidade | Departamento de Ciência da Computação (IE CIC) | pt_BR |
dc.description.ppg | Programa de Pós-Graduação em Computação Aplicada, Mestrado Profissional | pt_BR |
Collection(s) : | Teses, dissertações e produtos pós-doutorado
|