Skip navigation
Veuillez utiliser cette adresse pour citer ce document : http://repositorio.unb.br/handle/10482/51811
Fichier(s) constituant ce document :
Fichier TailleFormat 
EstevaoSergioZeco_DISSERT.pdf837,01 kBAdobe PDFVoir/Ouvrir
Affichage complet
Élément Dublin CoreValeurLangue
dc.contributor.advisorRodrigues, Thais Carvalho Valadarespt_BR
dc.contributor.authorZeco, Estevão Sérgiopt_BR
dc.date.accessioned2025-03-12T17:34:13Z-
dc.date.available2025-03-12T17:34:13Z-
dc.date.issued2025-03-12-
dc.date.submitted2024-09-26-
dc.identifier.citationZECO, Estevão Sérgio. Regressão Quantílica Multitarefa via Redes Neurais Profundas. 2024. 72 f. Dissertação (Mestrado em Estatística) — Universidade de Brasília, Brasília, 2024.pt_BR
dc.identifier.urihttp://repositorio.unb.br/handle/10482/51811-
dc.description.abstractA regressão quantílica via redes neurais tem se consolidado como uma abordagem poderosa para modelar relações não lineares entre variáveis, permitindo a estimação individual de quantis condicionais. No entanto, essa técnica enfrenta desafios quando é necessário estimar múltiplos quantis simultaneamente. Neste trabalho, propomos uma nova arquitetura para Regressão Quantílica Multitarefa via Redes Neurais Profundas, visando aprimorar tanto a precisão quanto a eficiência computacional na estimação de quantis. Baseada na arquitetura de Kuleshov e Deshpande (2022), essa nova arquitetura, denominada RQRN1E, inova ao unificar dois estágios da arquitetura original em um único estágio e ao introduzir o logito do τ diretamente na penúltima camada intermediária da rede. Nos três conjuntos de dados avaliados, os resultados evidenciaram que o modelo RQRN1E superou os modelos concorrentes, apresentando consistentemente a menor perda quantílica e a melhor cobertura para os quantis, o que reflete uma melhor precisão e calibração na estimativa dos quantis. Além disso, o RQRN1E destacou-se pela eficiência computacional, com menor tempo de processamento e rápida convergência, sem comprometer a qualidade das previsões.pt_BR
dc.language.isoporpt_BR
dc.rightsAcesso Abertopt_BR
dc.titleRegressão quantílica multitarefa via redes neurais profundaspt_BR
dc.typeDissertaçãopt_BR
dc.subject.keywordCalibraçãopt_BR
dc.subject.keywordMultitarefaspt_BR
dc.subject.keywordRedes neuraispt_BR
dc.subject.keywordRegressão gaussianapt_BR
dc.subject.keywordRegressão quantílicapt_BR
dc.subject.keywordPerda quantílicapt_BR
dc.rights.licenseA concessão da licença deste item refere-se ao termo de autorização impresso assinado pelo autor com as seguintes condições: Na qualidade de titular dos direitos de autor da publicação, autorizo a Universidade de Brasília e o IBICT a disponibilizar por meio dos sites www.unb.br, www.ibict.br, www.ndltd.org sem ressarcimento dos direitos autorais, de acordo com a Lei nº 9610/98, o texto integral da obra supracitada, conforme permissões assinaladas, para fins de leitura, impressão e/ou download, a título de divulgação da produção científica brasileira, a partir desta data.pt_BR
dc.description.abstract1Quantile regression via neural networks has emerged as a powerful approach for modeling nonlinear relationships between variables, allowing for the individual estimation of conditional quantiles. However, this technique faces challenges when estimating multiple quantiles simultaneously. In this work, we propose a new architecture for Multitask Quantile Regression via Deep Neural Networks, aiming to improve both accuracy and computational efficiency in quantile estimation. Based on the architecture of Kuleshov e Deshpande (2022), this new architecture, called RQRN1E, introduces innovations by unifying the two stages of the original architecture into a single stage and incorporating the logit of τ directly into the penultimate intermediate layer of the network. In the three datasets evaluated, the results showed that the RQRN1E model outperformed competing models, consistently achieving the lowest quantile loss and the best coverage for the quantiles, reflecting better accuracy and calibration in quantile estimation. Furthermore, RQRN1E excelled in computational efficiency, with reduced processing time and faster convergence, without compromising prediction quality.pt_BR
dc.description.unidadeInstituto de Ciências Exatas (IE)pt_BR
dc.description.unidadeDepartamento de Estatística (IE EST)pt_BR
dc.description.ppgPrograma de Pós-Graduação em Estatísticapt_BR
Collection(s) :Teses, dissertações e produtos pós-doutorado

Affichage abbrégé " class="statisticsLink btn btn-primary" href="/handle/10482/51811/statistics">



Tous les documents dans DSpace sont protégés par copyright, avec tous droits réservés.