| Campo DC | Valor | Idioma |
| dc.contributor.advisor | Ribeiro Júnior, Luiz Antônio | - |
| dc.contributor.author | Oliveira, Alexandre Mundim de | - |
| dc.date.accessioned | 2025-10-09T13:00:35Z | - |
| dc.date.available | 2025-10-09T13:00:35Z | - |
| dc.date.issued | 2025-10-09 | - |
| dc.date.submitted | 2025-04-14 | - |
| dc.identifier.citation | OLIVEIRA, Alexandre Mundim de. Influência do viés racial no uso de reconhecimento facial aplicado para controle de acesso. 2025. 59 f., il. Dissertação (Mestrado Profissional em Engenharia Elétrica) — Universidade de Brasília, Brasília, 2025. | pt_BR |
| dc.identifier.uri | http://repositorio.unb.br/handle/10482/52573 | - |
| dc.description | Dissertação (mestrado) — Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, Programa de Pós-Graduação em Engenharia Elétrica, 2025. | pt_BR |
| dc.description.abstract | O viés racial em tecnologias de reconhecimento facial, especialmente em aplicações de controle de acesso,
é uma questão persistente. Este estudo analisa a adoção dessas tecnologias no contexto do aprendizado de
máquina e sua integração com segurança da informação, cibersegurança e privacidade de dados. Essas soluções, apesar de amplamente utilizadas, frequentemente refletem desigualdades estruturais devido a conjuntos de dados e algoritmos enviesados, afetando desproporcionalmente grupos raciais sub-representados.
A pesquisa combina revisão bibliográfica sistemática com simulações laboratoriais para avaliar como a
composição dos conjuntos de dados afeta o desempenho de modelos de aprendizado de máquina em tarefas
de reconhecimento facial. Os modelos foram treinados com bases de dados balanceadas e desbalanceadas,
e os resultados confirmam que o uso de dados mais representativos pode reduzir o viés significativamente.
Com base nessas evidências, foram formuladas 14 recomendações para mitigar o viés racial em sistemas de
reconhecimento facial, incluindo a diversificação dos conjuntos de dados, o aumento da transparência dos
algoritmos e a participação de equipes multidisciplinares nas decisões técnicas e éticas. Essas propostas
estão alinhadas com os princípios do NIST AI Risk Management Framework (NIST AI 600), que orienta o
desenvolvimento e uso responsável de sistemas de inteligência artificial, com foco em confiabilidade, equidade, explicabilidade e rastreabilidade. A adoção dessas medidas pode aprimorar a precisão e a equidade
dos sistemas, promovendo maior confiança pública, especialmente em contextos sensíveis como o controle
de acesso, e fornecer um roteiro para avançar a justiça algorítmica e a governança ética em IA. | pt_BR |
| dc.language.iso | por | pt_BR |
| dc.rights | Acesso Aberto | pt_BR |
| dc.title | Influência do viés racial no uso de reconhecimento facial aplicado para controle de acesso | pt_BR |
| dc.type | Dissertação | pt_BR |
| dc.subject.keyword | Aprendizado de máquina | pt_BR |
| dc.subject.keyword | Cibersegurança | pt_BR |
| dc.subject.keyword | Reconhecimento facial | pt_BR |
| dc.subject.keyword | Racismo | pt_BR |
| dc.subject.keyword | Inteligência artificial | pt_BR |
| dc.rights.license | A concessão da licença deste item refere-se ao termo de autorização impresso assinado pelo autor com as seguintes condições: Na qualidade de titular dos direitos de autor da publicação, autorizo a Universidade de Brasília e o IBICT a disponibilizar por meio dos sites www.unb.br, www.ibict.br, www.ndltd.org sem ressarcimento dos direitos autorais, de acordo com a Lei nº 9610/98, o texto integral da obra supracitada, conforme permissões assinaladas, para fins de leitura, impressão e/ou download, a título de divulgação da produção científica brasileira, a partir desta data. | pt_BR |
| dc.description.abstract1 | Racial bias in facial recognition technologies, especially in access control applications, is a persistent issue.
This study analyzes the adoption of these technologies in the context of machine learning and their integration with information security, cybersecurity, and data privacy. These solutions, despite being widely
used, often reflect structural inequalities due to biased datasets and algorithms, disproportionately affecting underrepresented racial groups. The research combines a systematic literature review with laboratory
simulations to assess how the composition of datasets affects the performance of machine learning models
in facial recognition tasks. The models were trained with balanced and unbalanced databases, and the results confirm that the use of more representative data can significantly reduce bias. Based on this evidence,
14 recommendations were formulated to mitigate racial bias in facial recognition systems, including diversifying datasets, increasing the transparency of algorithms, and the participation of multidisciplinary
teams in technical and ethical decisions. These proposals align with the principles of the NIST AI Risk
Management Framework (NIST AI 600), which guides the responsible development and use of artificial
intelligence systems, with a focus on reliability, equity, explainability, and traceability. The adoption of
these measures can improve the accuracy and fairness of the systems, promoting greater public trust, especially in sensitive contexts such as access control, and provide a roadmap to advance algorithmic justice
and ethical governance in AI. | pt_BR |
| dc.description.unidade | Faculdade de Tecnologia (FT) | pt_BR |
| dc.description.unidade | Departamento de Engenharia Elétrica (FT ENE) | pt_BR |
| dc.description.ppg | Programa de Pós-Graduação em Engenharia Elétrica, Mestrado Profissional | pt_BR |
| Aparece nas coleções: | Teses, dissertações e produtos pós-doutorado
|