http://repositorio.unb.br/handle/10482/15176
Arquivo | Descrição | Tamanho | Formato | |
---|---|---|---|---|
2013_JuanJesusCruzCartajena.pdf | 6 MB | Adobe PDF | Visualizar/Abrir |
Título: | Codificação de vídeo utilizando modelos de texturas |
Autor(es): | Cruz Cartajena, Juan Jesus |
Orientador(es): | Queiroz, Ricardo Lopes de |
Coorientador(es): | Espinoza, Bruno Luiggi Macchiavello |
Assunto: | Compactação de vídeo Processamento de imagens |
Data de publicação: | 14-Fev-2014 |
Data de defesa: | 15-Ago-2013 |
Referência: | CRUZ CARTAJENA, Juan Jesus. Codificação de vídeo utilizando modelos de texturas, 2013. x, 57 f., il. Dissertação (Mestrado em Informática)—Universidade de Brasília, Brasília, 2013. |
Resumo: | O esquema de codificação de vídeo proposto nesta tese é baseado em warping e síntese
de texturas. Em vez de utilizar técnicas de codificação de imagens inteiras ou resíduos
da predição depois da estimação de movimento, são utilizados modelos de movimento
para reconstruir texturas que sejam classificadas como estáticas e síntese de textura para criar texturas dinâmicas. As regiões texturizadas são segmentadas pelo método de water-shed e logo classificadas por métodos simples com base em suas características espectrais mediante a transformada DCT e simples diferenças entre quadros vizinhos. As regiões reconstruídas por warping e síntese são avaliadas para seu uso mediante simples métodos estatísticos. O esquema proposto trabalha em conjunto com o padrão de vídeo H.264/AVC, onde só são codificados os blocos que não sejam processados pelos modelos de textura,
mostrando um potencial para diminuir o custo computacional da codificação dos blocos
remanescentes. Os resultados mostram que a qualidade foi mantida com pontuações subjetivas em comparação ao padrão H.264/AVC enquanto resultados com métricas objetivas
mostram pequenas perdas. ______________________________________________________________________________ ABSTRACT The video coding scheme proposed in this thesis is based on texture warping and synthesis. Instead of using techniques such as whole-image coding or prediction residues after motion estimation, motion models are used to reconstruct static textures and tex- ture synthesis is used to create dynamic textures. Textured regions are segmented by the watershed method and then classi ed with simple methods based on their spectral char- acteristics by DCT transform and simple di erences between neighboring frames. Regions reconstructed by warping and synthesis are evaluated for their use by simple statistical methods. The proposed scheme works together with the standard of video H.264/AVC, which only codes blocks that are not processed by models of texture, showing a potential to decrease computational cost of coding of blocks that remain. The results show that the quality was maintained with subjective scores compared to standard H.264/AVC, while objective results show small losses. |
Unidade Acadêmica: | Instituto de Ciências Exatas (IE) Departamento de Ciência da Computação (IE CIC) |
Informações adicionais: | Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2013. |
Programa de pós-graduação: | Programa de Pós-Graduação em Informática |
Licença: | A concessão da licença deste item refere-se ao termo de autorização impresso assinado pelo autor com as seguintes condições: Na qualidade de titular dos direitos de autor da publicação, autorizo a Universidade de Brasília e o IBICT a disponibilizar por meio dos sites www.bce.unb.br, www.ibict.br, http://hercules.vtls.com/cgi-bin/ndltd/chameleon?lng=pt&skin=ndltd sem ressarcimento dos direitos autorais, de acordo com a Lei nº 9610/98, o texto integral da obra disponibilizada, conforme permissões assinaladas, para fins de leitura, impressão e/ou download, a título de divulgação da produção científica brasileira, a partir desta data. |
Aparece nas coleções: | Teses, dissertações e produtos pós-doutorado |
Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.