Skip navigation
Use este identificador para citar ou linkar para este item: http://repositorio.unb.br/handle/10482/52573
Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
2025_AlexandreMundimDeOliveira_DISSERT.pdf3,26 MBAdobe PDFVisualizar/Abrir
Registro completo de metadados
Campo DCValorIdioma
dc.contributor.advisorRibeiro Júnior, Luiz Antônio-
dc.contributor.authorOliveira, Alexandre Mundim de-
dc.date.accessioned2025-10-09T13:00:35Z-
dc.date.available2025-10-09T13:00:35Z-
dc.date.issued2025-10-09-
dc.date.submitted2025-04-14-
dc.identifier.citationOLIVEIRA, Alexandre Mundim de. Influência do viés racial no uso de reconhecimento facial aplicado para controle de acesso. 2025. 59 f., il. Dissertação (Mestrado Profissional em Engenharia Elétrica) — Universidade de Brasília, Brasília, 2025.pt_BR
dc.identifier.urihttp://repositorio.unb.br/handle/10482/52573-
dc.descriptionDissertação (mestrado) — Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, Programa de Pós-Graduação em Engenharia Elétrica, 2025.pt_BR
dc.description.abstractO viés racial em tecnologias de reconhecimento facial, especialmente em aplicações de controle de acesso, é uma questão persistente. Este estudo analisa a adoção dessas tecnologias no contexto do aprendizado de máquina e sua integração com segurança da informação, cibersegurança e privacidade de dados. Essas soluções, apesar de amplamente utilizadas, frequentemente refletem desigualdades estruturais devido a conjuntos de dados e algoritmos enviesados, afetando desproporcionalmente grupos raciais sub-representados. A pesquisa combina revisão bibliográfica sistemática com simulações laboratoriais para avaliar como a composição dos conjuntos de dados afeta o desempenho de modelos de aprendizado de máquina em tarefas de reconhecimento facial. Os modelos foram treinados com bases de dados balanceadas e desbalanceadas, e os resultados confirmam que o uso de dados mais representativos pode reduzir o viés significativamente. Com base nessas evidências, foram formuladas 14 recomendações para mitigar o viés racial em sistemas de reconhecimento facial, incluindo a diversificação dos conjuntos de dados, o aumento da transparência dos algoritmos e a participação de equipes multidisciplinares nas decisões técnicas e éticas. Essas propostas estão alinhadas com os princípios do NIST AI Risk Management Framework (NIST AI 600), que orienta o desenvolvimento e uso responsável de sistemas de inteligência artificial, com foco em confiabilidade, equidade, explicabilidade e rastreabilidade. A adoção dessas medidas pode aprimorar a precisão e a equidade dos sistemas, promovendo maior confiança pública, especialmente em contextos sensíveis como o controle de acesso, e fornecer um roteiro para avançar a justiça algorítmica e a governança ética em IA.pt_BR
dc.language.isoporpt_BR
dc.rightsAcesso Abertopt_BR
dc.titleInfluência do viés racial no uso de reconhecimento facial aplicado para controle de acessopt_BR
dc.typeDissertaçãopt_BR
dc.subject.keywordAprendizado de máquinapt_BR
dc.subject.keywordCibersegurançapt_BR
dc.subject.keywordReconhecimento facialpt_BR
dc.subject.keywordRacismopt_BR
dc.subject.keywordInteligência artificialpt_BR
dc.rights.licenseA concessão da licença deste item refere-se ao termo de autorização impresso assinado pelo autor com as seguintes condições: Na qualidade de titular dos direitos de autor da publicação, autorizo a Universidade de Brasília e o IBICT a disponibilizar por meio dos sites www.unb.br, www.ibict.br, www.ndltd.org sem ressarcimento dos direitos autorais, de acordo com a Lei nº 9610/98, o texto integral da obra supracitada, conforme permissões assinaladas, para fins de leitura, impressão e/ou download, a título de divulgação da produção científica brasileira, a partir desta data.pt_BR
dc.description.abstract1Racial bias in facial recognition technologies, especially in access control applications, is a persistent issue. This study analyzes the adoption of these technologies in the context of machine learning and their integration with information security, cybersecurity, and data privacy. These solutions, despite being widely used, often reflect structural inequalities due to biased datasets and algorithms, disproportionately affecting underrepresented racial groups. The research combines a systematic literature review with laboratory simulations to assess how the composition of datasets affects the performance of machine learning models in facial recognition tasks. The models were trained with balanced and unbalanced databases, and the results confirm that the use of more representative data can significantly reduce bias. Based on this evidence, 14 recommendations were formulated to mitigate racial bias in facial recognition systems, including diversifying datasets, increasing the transparency of algorithms, and the participation of multidisciplinary teams in technical and ethical decisions. These proposals align with the principles of the NIST AI Risk Management Framework (NIST AI 600), which guides the responsible development and use of artificial intelligence systems, with a focus on reliability, equity, explainability, and traceability. The adoption of these measures can improve the accuracy and fairness of the systems, promoting greater public trust, especially in sensitive contexts such as access control, and provide a roadmap to advance algorithmic justice and ethical governance in AI.pt_BR
dc.description.unidadeFaculdade de Tecnologia (FT)pt_BR
dc.description.unidadeDepartamento de Engenharia Elétrica (FT ENE)pt_BR
dc.description.ppgPrograma de Pós-Graduação em Engenharia Elétrica, Mestrado Profissionalpt_BR
Aparece nas coleções:Teses, dissertações e produtos pós-doutorado

Mostrar registro simples do item Visualizar estatísticas



Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.