http://repositorio.unb.br/handle/10482/52573| Arquivo | Descrição | Tamanho | Formato | |
|---|---|---|---|---|
| 2025_AlexandreMundimDeOliveira_DISSERT.pdf | 3,26 MB | Adobe PDF | Visualizar/Abrir |
| Título: | Influência do viés racial no uso de reconhecimento facial aplicado para controle de acesso |
| Autor(es): | Oliveira, Alexandre Mundim de |
| Orientador(es): | Ribeiro Júnior, Luiz Antônio |
| Assunto: | Aprendizado de máquina Cibersegurança Reconhecimento facial Racismo Inteligência artificial |
| Data de publicação: | 9-out-2025 |
| Data de defesa: | 14-abr-2025 |
| Referência: | OLIVEIRA, Alexandre Mundim de. Influência do viés racial no uso de reconhecimento facial aplicado para controle de acesso. 2025. 59 f., il. Dissertação (Mestrado Profissional em Engenharia Elétrica) — Universidade de Brasília, Brasília, 2025. |
| Resumo: | O viés racial em tecnologias de reconhecimento facial, especialmente em aplicações de controle de acesso, é uma questão persistente. Este estudo analisa a adoção dessas tecnologias no contexto do aprendizado de máquina e sua integração com segurança da informação, cibersegurança e privacidade de dados. Essas soluções, apesar de amplamente utilizadas, frequentemente refletem desigualdades estruturais devido a conjuntos de dados e algoritmos enviesados, afetando desproporcionalmente grupos raciais sub-representados. A pesquisa combina revisão bibliográfica sistemática com simulações laboratoriais para avaliar como a composição dos conjuntos de dados afeta o desempenho de modelos de aprendizado de máquina em tarefas de reconhecimento facial. Os modelos foram treinados com bases de dados balanceadas e desbalanceadas, e os resultados confirmam que o uso de dados mais representativos pode reduzir o viés significativamente. Com base nessas evidências, foram formuladas 14 recomendações para mitigar o viés racial em sistemas de reconhecimento facial, incluindo a diversificação dos conjuntos de dados, o aumento da transparência dos algoritmos e a participação de equipes multidisciplinares nas decisões técnicas e éticas. Essas propostas estão alinhadas com os princípios do NIST AI Risk Management Framework (NIST AI 600), que orienta o desenvolvimento e uso responsável de sistemas de inteligência artificial, com foco em confiabilidade, equidade, explicabilidade e rastreabilidade. A adoção dessas medidas pode aprimorar a precisão e a equidade dos sistemas, promovendo maior confiança pública, especialmente em contextos sensíveis como o controle de acesso, e fornecer um roteiro para avançar a justiça algorítmica e a governança ética em IA. |
| Abstract: | Racial bias in facial recognition technologies, especially in access control applications, is a persistent issue. This study analyzes the adoption of these technologies in the context of machine learning and their integration with information security, cybersecurity, and data privacy. These solutions, despite being widely used, often reflect structural inequalities due to biased datasets and algorithms, disproportionately affecting underrepresented racial groups. The research combines a systematic literature review with laboratory simulations to assess how the composition of datasets affects the performance of machine learning models in facial recognition tasks. The models were trained with balanced and unbalanced databases, and the results confirm that the use of more representative data can significantly reduce bias. Based on this evidence, 14 recommendations were formulated to mitigate racial bias in facial recognition systems, including diversifying datasets, increasing the transparency of algorithms, and the participation of multidisciplinary teams in technical and ethical decisions. These proposals align with the principles of the NIST AI Risk Management Framework (NIST AI 600), which guides the responsible development and use of artificial intelligence systems, with a focus on reliability, equity, explainability, and traceability. The adoption of these measures can improve the accuracy and fairness of the systems, promoting greater public trust, especially in sensitive contexts such as access control, and provide a roadmap to advance algorithmic justice and ethical governance in AI. |
| Unidade Acadêmica: | Faculdade de Tecnologia (FT) Departamento de Engenharia Elétrica (FT ENE) |
| Informações adicionais: | Dissertação (mestrado) — Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, Programa de Pós-Graduação em Engenharia Elétrica, 2025. |
| Programa de pós-graduação: | Programa de Pós-Graduação em Engenharia Elétrica, Mestrado Profissional |
| Licença: | A concessão da licença deste item refere-se ao termo de autorização impresso assinado pelo autor com as seguintes condições: Na qualidade de titular dos direitos de autor da publicação, autorizo a Universidade de Brasília e o IBICT a disponibilizar por meio dos sites www.unb.br, www.ibict.br, www.ndltd.org sem ressarcimento dos direitos autorais, de acordo com a Lei nº 9610/98, o texto integral da obra supracitada, conforme permissões assinaladas, para fins de leitura, impressão e/ou download, a título de divulgação da produção científica brasileira, a partir desta data. |
| Aparece nas coleções: | Teses, dissertações e produtos pós-doutorado |
Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.