Skip navigation
Please use this identifier to cite or link to this item: http://repositorio.unb.br/handle/10482/15176
Files in This Item:
File Description SizeFormat 
2013_JuanJesusCruzCartajena.pdf6 MBAdobe PDFView/Open
Title: Codificação de vídeo utilizando modelos de texturas
Authors: Cruz Cartajena, Juan Jesus
Orientador(es):: Queiroz, Ricardo Lopes de
Coorientador(es):: Espinoza, Bruno Luiggi Macchiavello
Assunto:: Compactação de vídeo
Processamento de imagens
Issue Date: 14-Feb-2014
Citation: CRUZ CARTAJENA, Juan Jesus. Codificação de vídeo utilizando modelos de texturas, 2013. x, 57 f., il. Dissertação (Mestrado em Informática)—Universidade de Brasília, Brasília, 2013.
Abstract: O esquema de codificação de vídeo proposto nesta tese é baseado em warping e síntese de texturas. Em vez de utilizar técnicas de codificação de imagens inteiras ou resíduos da predição depois da estimação de movimento, são utilizados modelos de movimento para reconstruir texturas que sejam classificadas como estáticas e síntese de textura para criar texturas dinâmicas. As regiões texturizadas são segmentadas pelo método de water-shed e logo classificadas por métodos simples com base em suas características espectrais mediante a transformada DCT e simples diferenças entre quadros vizinhos. As regiões reconstruídas por warping e síntese são avaliadas para seu uso mediante simples métodos estatísticos. O esquema proposto trabalha em conjunto com o padrão de vídeo H.264/AVC, onde só são codificados os blocos que não sejam processados pelos modelos de textura, mostrando um potencial para diminuir o custo computacional da codificação dos blocos remanescentes. Os resultados mostram que a qualidade foi mantida com pontuações subjetivas em comparação ao padrão H.264/AVC enquanto resultados com métricas objetivas mostram pequenas perdas. ______________________________________________________________________________ ABSTRACT
The video coding scheme proposed in this thesis is based on texture warping and synthesis. Instead of using techniques such as whole-image coding or prediction residues after motion estimation, motion models are used to reconstruct static textures and tex- ture synthesis is used to create dynamic textures. Textured regions are segmented by the watershed method and then classi ed with simple methods based on their spectral char- acteristics by DCT transform and simple di erences between neighboring frames. Regions reconstructed by warping and synthesis are evaluated for their use by simple statistical methods. The proposed scheme works together with the standard of video H.264/AVC, which only codes blocks that are not processed by models of texture, showing a potential to decrease computational cost of coding of blocks that remain. The results show that the quality was maintained with subjective scores compared to standard H.264/AVC, while objective results show small losses.
metadata.dc.description.unidade: Instituto de Ciências Exatas (IE)
Departamento de Ciência da Computação (IE CIC)
Description: Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2013.
metadata.dc.description.ppg: Programa de Pós-Graduação em Informática
Licença:: A concessão da licença deste item refere-se ao termo de autorização impresso assinado pelo autor com as seguintes condições: Na qualidade de titular dos direitos de autor da publicação, autorizo a Universidade de Brasília e o IBICT a disponibilizar por meio dos sites www.bce.unb.br, www.ibict.br, http://hercules.vtls.com/cgi-bin/ndltd/chameleon?lng=pt&skin=ndltd sem ressarcimento dos direitos autorais, de acordo com a Lei nº 9610/98, o texto integral da obra disponibilizada, conforme permissões assinaladas, para fins de leitura, impressão e/ou download, a título de divulgação da produção científica brasileira, a partir desta data.
Appears in Collections:Teses, dissertações e produtos pós-doutorado

Show full item record " class="statisticsLink btn btn-primary" href="/jspui/handle/10482/15176/statistics">



Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.