Campo DC | Valor | Idioma |
dc.contributor.advisor | Rodrigues, Guilherme Souza | pt_BR |
dc.contributor.author | Bonifácio, Stella Mendes Meireles | pt_BR |
dc.date.accessioned | 2024-11-19T16:12:55Z | - |
dc.date.available | 2024-11-19T16:12:55Z | - |
dc.date.issued | 2024-11-18 | - |
dc.date.submitted | 2024-06-17 | - |
dc.identifier.citation | BONIFÁCIO, Stella Mendes Meireles. Explainable AI : a case study on a Citizen’s Complaint Text Classification Model. 2024. 52 f., il. Dissertação (Mestrado Profissional em Computação Aplicada) — Universidade de Brasília, Brasília, 2024. | pt_BR |
dc.identifier.uri | http://repositorio.unb.br/handle/10482/50962 | - |
dc.description | Dissertação (mestrado) — Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2024. | pt_BR |
dc.description.abstract | A sociedade atual é muito influenciada por sistemas de Inteligência Artificial (IA) em
diversos contextos e, embora ela tenha proporcionado diversas contribuições, é importante
construir uma abordagem transparente e responsável para os modelos de IA, de modo que
as pessoas possam se beneficiar de suas vantagens porém sem deixar de prevenir eventuais
danos que o uso dessa nova tecnologia possa causar à sociedade.
No âmbito da Controladoria-Geral da União, o benefício da IA pode ser observado
pelo uso da ferramenta FARO que, além de outras funcionalidades, incorpora um modelo
de classificação de textos em denúncias aptas e não-aptas, de modo a auxiliar os auditores
na tarefa de tratamento das denúncias feitas pelos cidadãos.
Esse modelo recebe como entrada a denúncia de cidadãos sobre situações de corrupção,
comportamentos inadequados de servidores públicos, assédio moral etc. A análise dos
textos é feita e o modelo gera uma nota que varia entre 0 e 1 sobre a aptidão da denúncia
analisada. Para que uma denúncia seja considerada apta, é preciso que ela colecione
certos elementos como por exemplo estar relacionada a uma entidade que tenha vínculo
com recursos públicos de origem federal, descrever uma irregularidade que reflita dano ao
patrimônio público e que contenha uma justificativa mínima para viabilizar investigação
da situação relatada.
No decorrer do processo de avaliação da denúncia em apta ou não-apta, outras informações relevantes são levantadas e podem ser utilizadas tanto pelo modelo de classificação
textual, que faz parte do escopo deste estudo, quando por outras etapas da própria ferramenta FARO.
Atualmente, os auditores tem acesso ao resultado gerado pelo modelo mas sem mecanismos de explicabilidade que poderiam aumentar a transparência do processo, aumentar o entendimento do resultado gerado e melhorar o processo decisório da classificação de
denúncias.
Apesar de não existir uma metodologia ou estrutura ideal para interpretar ou explicar
modelos de aprendizado de máquina, é possível encontrar estudos sobre os diferentes métodos de explicabilidade, inclusive sobre as suas limitações na tarefa de explicar totalmente
o modelo.
Estudos recentes apontam que integrar ferramentas de explicabilidade ao uso de modelos de inteligência artificial traz benefícios ao processo de tomada de decisão e monitoramento do comportamento do modelo, tendo em vista a prevenção de vieses. Entretanto,
ainda são poucos os estudos de casos concretos na área de Explainable Ai (XAI), especialmente no que se refere a Natural Processing Language (NLP). O presente estudo tem
como objetivo apresentar um sistema de explicabilidade do modelo textual, integrado à
própria ferramenta FARO [1] e específica para as necessidades dos auditores, de forma a
subsidiar a monitoração do modelo e de seus resultados pelos auditores.
O sistema de explicabilidade é baseado na ferramenta LIME (Local Interpretable
Model-Agnostic Explanations) devido às suas características, entre outras, de ser agnóstica ao modelo utilizado, à sua implementação intuitiva e compatibilidade com os demais
sistemas que já encontram-se em ambiente de produção.
Além disso, o LIME apresenta visualizações interessantes que auxiliam os auditores,
inclusive aqueles que tenham um menor contato com a área de tecnologia, no entendimento
dos resultados gerados pelo modelo de classificação. Desse modo, este trabalho contribui
para a monitoração e melhoria do modelo de classificação textual e pode servir como um
modelo para trabalhos futuros que investiguem outras etapas utilizadas na ferramenta
FARO, como por exemplo o tratamento de dados estruturados. | pt_BR |
dc.language.iso | Português | pt_BR |
dc.rights | Acesso Aberto | pt_BR |
dc.title | Explainable AI : a case study on a Citizen’s Complaint Text Classification Model | pt_BR |
dc.title.alternative | IA explicável : um estudo de caso sobre um Modelo de Classificação de Textos de Denúncias de Cidadãos | pt_BR |
dc.type | Dissertação | pt_BR |
dc.subject.keyword | Aprendizagem de máquina | pt_BR |
dc.subject.keyword | Inteligência Artificial Explicável (XAI) | pt_BR |
dc.subject.keyword | Inovação em serviços públicos | pt_BR |
dc.subject.keyword | Classificação de texto | pt_BR |
dc.rights.license | A concessão da licença deste item refere-se ao termo de autorização impresso assinado pelo autor com as seguintes condições: Na qualidade de titular dos direitos de autor da publicação, autorizo a Universidade de Brasília e o IBICT a disponibilizar por meio dos sites www.unb.br, www.ibict.br, www.ndltd.org sem ressarcimento dos direitos autorais, de acordo com a Lei nº 9610/98, o texto integral da obra supracitada, conforme permissões assinaladas, para fins de leitura, impressão e/ou download, a título de divulgação da produção científica brasileira, a partir desta data. | pt_BR |
dc.description.abstract1 | Present-day society is highly influenced by Artificial Intelligence (AI) systems in various
contexts. Although AI has provided numerous contributions, it is important to build a
transparent and responsible approach to AI models, so that people can benefit from their
advantages while also preventing potential harm that the use of this new technology might
cause to society.
Within the scope of the Office of the Comptroller General, the benefit of AI can
be observed through the use of the FARO tool [1], which, among other functionalities,
incorporates a text classification model for classifying complaints. This helps auditors in
handling complaints submitted by citizens. However, currently, auditors have access to
the results generated by the model but lack explainability mechanisms that could enhance
the transparency of the process, increase the understanding of the generated results, and
improve the decision-making process for classifying complaints.
The present study aims to introduce an explainability system for the text model,
integrated into the FARO tool itself and tailored to the needs of the auditors, in order to
support the monitoring of the model and its results by the auditors. | pt_BR |
dc.description.unidade | Instituto de Ciências Exatas (IE) | pt_BR |
dc.description.unidade | Departamento de Ciência da Computação (IE CIC) | pt_BR |
dc.description.ppg | Programa de Pós-Graduação em Computação Aplicada, Mestrado Profissional | pt_BR |
Aparece nas coleções: | Teses, dissertações e produtos pós-doutorado
|