面向三维视频系统的深度图压缩方法研究

第22卷第3期宁波大学学报(理工版)V ol.22  No.3 2009年9月JOURNAL OF NINGBO UNIVERSITY ( NSEE ) Sept. 2009
文章编号:1001-5132(2009)03-0317-05
面向三维视频系统的深度图压缩方法研究
朱波1, 彭宗举1,2, 张云1, 邵枫1
(1.宁波大学信息科学与工程学院, 浙江宁波 315211; 2浙江省综合信息网技术重点实验室, 浙江杭州 310027)摘要:理论分析了基于Mesh、JPEG、模式函数等静态深度图压缩算法, 然后比较了基于H.264深度视频独立压缩算法、彩和深度视频运动矢量共享的深度视频压缩算法, 给出2种深度视频压缩算法的实验对比, 并对深度图压缩算法发展做了相关的预测和展望.
关键词: 三维视频系统; 深度图压缩; 视频压缩标准; 3D-mesh
中图分类号: TP391.41 文献标识码: A
三维(Three-Dimensional, 3D)视频和自由视点视频是当前先进的视觉媒体模式, 含有传统二维视频所没有的视听功能, 3D视频能够反映出场景的深度信息, 其自由视点视频也能满足用户从任意角度选择和操作视
听对象[1-3]. 联合视频专家组(Joint Video Team, JVT)组织并提出了Multi-view Video plus Depth(MVD)结构[1]. 在MVD的结构中, 每幅彩图像都含有相对应的深度图, 此举极大地增加了传输的数据量[4-6]. 因此, 需要研究有效的深度图压缩算法以缓解带宽压力, 而其中的深度图压缩是三维视频系统中的核心技术.
深度图所代表的是场景到摄像机成像平面的距离信息, 它将实际深度值量化到[0, 255]以获得代表深度信息的灰度图[7-8], 通过深度图以及其对应的彩图可以用来绘制相邻虚拟视点图像[9]. 由于遮挡、暴露等原因, 虚拟视点的质量将会随着基线距离的增大而降低. 而在MVD的结构下, 是通过相邻的2个视点来绘制中间的视点, 此法可以有效地避免此问题[1].
深度图的表示方法主要有2种: (1) 3D-mesh表示深度图; (2)将深度图认为是2D图像. 基于3D- mesh的压缩主要是静态压缩[9], 2D图像压缩既有JPEG、JPEG-2000等静态压缩标准, 又有MPEG- 2、MPEG-4、H.264等动态压缩标准. 在现有的压缩算法中, H.264则体现出良好的压缩性能. 因此, 深度图压缩正逐步转向基于H.264视频编码标准的压缩[1, 10-12].
1静态深度图的压缩方法
静态深度图的压缩仅利用空间相关性来进行, 没有利用深度图时间上的相关性. JPEG2000编码器使用基于小波变换的算法来进行深度图的压缩, 但它的缺点是会在边缘像素位置上产生环形的效果[13]. 深
度图最终目的是用来合成中间图像, 深度图边缘的失真是一种几何失真, 对于绘制结果产生的影响比较大. 因此, Krishnamurthy做了些改进, 提出了基于感兴趣区域的编码[14]. 通过边缘检测,
收稿日期:2008-06-27.  宁波大学学报(理工版)网址: 3xb.nbu.edu
基金项目:浙江省教育厅科研计划项目(20070954); 浙江省综合信息网技术重点实验室开放课题(200812).
第一作者:朱波(1984-), 男, 浙江杭州人, 在读硕士研究生, 主要研究方向: 多媒体通信. E-mail: zb1208@126
318 宁波大学学报(理工版) 2009
求取深度边界作为感兴趣区域对其做特殊的处理, 即采用无失真、压缩的方式保证边缘深度的准确性. 另外, 在深度图的编码中, 小深度失真的影响大于大深度失真, 这是因为小深度往往是前景区域, 是人们比较关注的区域, 所以需要特别的保护. 因此, 该文献中也提出了重塑深度的动态范围以反映不同深度的不同重要性.
Morvan通过分析深度图, 发现平滑区域很多, 仅仅对象边界会产生突变的深度信息, 基于此特征, 采用模式函数来近似深度图的内容[13]. 在其框架中主要使用分段常函数和分段线性函数这2类模式函数. 对
于固定深度区域用常函数表示, 而对于渐进深度变化区域则用线性函数来表示. 该算法比JPEG2000的编码效率有所提高, 但由于只考虑了深度图的空间冗余, 没有考虑时间冗余, 所以其压缩效率还是不够高.
3D-mesh的编码方案在MPEG-4 GMC就有涉及, 如文献[15-17]对其进行了改进. 但一般mesh 方案并没有考虑到深度图的特殊性. 为保证深度边界的准确性, 将深度图转换为3D-mesh的思想应是基于非等距、内容自适应的采样过程[18-19], 即在平坦区域采样点数比较少, 而在对象边界需要更多的采样点. 为重建采样点之间的区域信息, 需要采用线性插值的方式. 所以需要对采样后的图像构建成三角形网格, 然后通过像素与三角形3个顶点之间的线性关系插值三角形内部的像素.
当把深度图转换成三维网格之后, 网格信息需要被传输编码. 编码主要有几何编码和拓扑编码2个部分, 几何信息指顶点的位置坐标, 拓扑信息指多边形网格顶点之间的连接信息. Morvan在对象边界处的每个点都分配2个深度值, 并且保证网格边界沿着对象的轮廓, 防止同个三角形网格中既含有前景, 又有背景部分, 而影响绘制效果[13].这种传统的建立三角形网格很难寻其规律, 所以需要进行拓扑编码. 而Kim提出采用栅格方式来建立三角形网格, 这样就无需传输拓扑信息, 并且采用分层方式以保证对象边缘深度的准确性[5].
为减少时间上的冗余度, Grewatsch在相邻两帧匹
配搜索得到结点的运动矢量, 仅仅编码两帧中变
化的部分以减小码率[19]. Grewatsch还分别运用
H.264和mesh压缩深度图, 结果显示mesh的压缩
方式和H.264帧内编码的效率相近, 但低于H.264
帧间的结果.
2深度图序列的压缩方法
采用H.264/avc对深度图序列进行压缩, 体现
出良好的压缩性能. 为进一步减小深度图压缩后
的码率, 对深度图进行下采样[11], 通过H.264压缩
编码后的上采样, 这样会大大减少码流. 但是由于
采样影响了深度图边界的准确性, 对绘制的结果
产生影响, 增加了后处理的难度. 文献也提出先对
深度图进行7×7均值滤波, 再经H.264压缩, 与原
始的相比, 码率减少了很多, 并且绘制效果没有明
显的不同. 虽然H.264编码器有良好的压缩性能,
但是其编码复杂度很高, Oh提出用彩图像的编
码信息来辅助深度图的编码[12], 并采用一种彩高高太子山
世纪文学视频和深度视频运动矢量共享的编码结构, 既减
少了编码时间, 同时又提高了压缩效率.
深度图序列和彩图像序列之间具有很强的
相关性. 深度图序列经H.264编码后, 序列中主要
包含有超过40%运动参差信息. 彩图序列和深
度图序列含有相似的特征—–对象边界的一致性,
对象运动方向的一致性公式如下:
11
frame,,
00
1
||||
M N
i j i j
i j
dist t d
M N
−−
==
=−
×
∑∑, (1) 其中, t为彩图像4×4块的运动矢量; d为深度
图像4×4块的运动矢量. M N
×表示图像中总共
的4×4块数目. 统计INTERVIEW、Breakdancers、
Ballet序列运动矢量的平均差额分别为0.59, 0.78,
0.96个像素. 可见, 深度序列和彩序列的运动矢
燃烧海洋上的海盗
量存在很强的相关性, 所以我们可以用彩图像
第3期 朱  波, 等: 面向三维视频系统的深度图压缩方法研究 319
的运动信息来辅助深度图序列的编码. 具体的编码框图如图1所示, 它是在H.264编码器的基础上改变了运动矢量的获取方式和获得最佳模式的率失真代价函数, 以获取深度图最佳模式, 主要包含3部分: 彩图像模式和运动矢量的解码、深度图候选模式以及运动矢量的获取.
彩图像模式和运动矢量的解码: 在深度图编码的过程中并不进行运动估计的过程, 而是利用彩图的运动矢量, 所以首先需要利用H.264解码器得到彩图像的运动矢量和模式. 在获得彩图的运动矢量
之后, 再对运动矢量做进一步的处理. 彩图像中当前宏块的编码模式为帧内, 则通过相邻块计算运动矢量. SKIP 模式的运动矢量应该与其预测运动矢量相同, 所以直接输出预测运动矢量, 相应公式如下:
(,)(,,)x y p p MEDIAN A B C =, (2) 其中, ,,A B C 分别表示为当前宏块左边块、上边块和右边块的运动矢量; MEDIAN 表示取均值. 得到彩图像编码的最优模式后, 需要经过合并、拷贝和分裂等操作来产生深度图压缩的候选模式和相对应的运动矢量, 如图2所示.
图2中, 当候选模式与彩图像的最佳模式相同时, 直接拷贝运动矢量. 合并后的块或宏块的运动矢量为平均运动矢量, 分裂块的运动矢量为彩图像中当前分裂块以及其左边和上边块的平均运动矢量. 此处, 最优模式通过(3)式的率失真代价函数在帧间候选模式、SKIP 模式和帧内模式间
图2  候选模式
选取.
*arg min (,|)(,|)I D S I R S I λλλ=+, (3)
其中, *I 为最优模式; S 为需要编码的块; R 为码率; λ为拉格朗日乘子.
由于深度图编码省略了运动估计时间, 且传输的码流中没有运动矢量参差, 因此可以减小码
流. 同时, 深度图编码模式中含有更多的INTRA 模式, 可以阻断错误的运动信息所带来的误差传播问题.
3 实验和分析
实验采用H.264标准参考平台JM9.7进行编码实验, 测试序列采用微软研究院的交互视觉媒体组提供的序列. 图3和图4分别表示了由相机捕获的“Breakdancers”序列和“Ballet”序列的第一时刻参考图像及其对应的深度图像.
深度图编码时间数
图1  编码框图
Model 1 16×16合并Model 2
16×8
Model 2 16×8拷贝
Model 8 8×8分裂
彩序列 深度序列
320 宁波大学学报(理工版) 2009
据见表1. 实验结果对比如图5所示
.
图3  测试序列“Breakdancers”及其深度图
图4  测试序列“Ballet”及其深度图
表1  深度图编码时间
测试序列
原始/s
文献方案/s 比率/%
Breakdancers 3 876.54 668.03 5.80
Ballet 3 821.26 665.43
5.83
图5  实验结果对比
图5中实线表示深度图在QP 分别为41、45、49时H.264的编码结果, 虚线、单点虚线及双点虚线分别表示利用彩图像QP 在28、40、36编码所得的MV 来编码深度图的结果. 可以发现当QP 增大时, 深度图的编码效果降低, 尤其是在高比特
率时, 在Ballet 中出现相同码率下PSNR 小于原始的方案. 主要原因当QP 增大时, 彩图像的运动矢量不精确, 使得编码参差的增加大于减小的运动矢量参差. 该方案只在低比特率情况下可行, 但这样就不能保证其绘制的质量, 一般利用H.264来
编码深度图时, 40QP <;已保证深度图的准确性.
syn4 结论和展望
深度图压缩是当前视频压缩的研究热点,基于
上述分析讨论,进一步可从以下方面开展研究:
(1) 深度图压缩正逐步转向基于视频编码标准的压缩,现有的基于H.264的压缩算法以及一些改进算法都有其缺陷, 需要进一步研究.
(2) 分析深度图不同区域对绘制的影响, 彩图和深度图之间的相关性, 深度图各个视点之间
的相关性, 是进一步的研究方向.
(3) 由于深度图的特殊性, 需要有一种客观的质量评价算法来评价压缩算法的优劣.  参考文献:
[1] Smolic A, Mueller K, Merkle P, et al. Multi-view video
plus depth (MVD) format for advanced 3D video
systems[C]//23rd Meeting: ISO/IEC JTC1/SC29/WG11 and ITU-T SG16 Q.6, JVT-W100, USA: San Jose, 2007. [2] Tanimoto M, Fujii T. FTV-free viewpoint television[C]//
MPEG-M8595, Kaernten: Klagenfurt, 2002.
[3] Tanimoto M. Overview of free viewpoint television[J].
聚合医刊网Signal Processing Image Communication, 2006, 21(6): 454-461.
[4] Kauff P, Atzpadin N. Depth map creation and image
based rendering for advanced 3DTV services providing interoperability and scalability[J]. Signal Processing Image Communication, Special Issue on 3D Video and TV , 2007, 22(2):217-234.
[5] Kim S Y, Ho Y S. Three-dimensional natural video system
based on layered representation of depth maps [J]. IEEE Trans on Consumer Electronics, 2006, 52:
1035-1024. [6] Fehn C, Atzpadin N. An advanced 3DTV concept provid-
第3期朱波, 等: 面向三维视频系统的深度图压缩方法研究 321
ing interoperability and scalability for a wide range of multi-baseline geometries[C]//Proceedings of International Conference on Image Processing. GA: Atlanta, 2006: 2961-2964.
[7]Tanimoto M, Fujii T, Suzuki K, et al. Multi-view depth
map of Rena and Akko & Kayo[C]//ISO/IEC JTC1/SC29/ WG11, MPEG-M14888, China: Shenzhen, 2007.
[8]Tanimoto M, Fujii T, Suzuki K, et al. Experiment of view
synthesis using multi-view depth[C]//ISO/IEC JTC1/SC29/ WG11, MPEG-M14889, China: Shenzhen, 2007
[9]Fehn C. Depth-image-based rendering, compression and
coding strategies for compression of depth map sequences
[C]//49th SPIE’s Annual Meeting, 2004.
[10]Grewatsch S, Muller E. Evaluation of motion compensa-
tion and coding strategies for compression of depth map sequences[J]. Proceedings of SPIE, 2004, 5561:117-124.
[11]Ho Y S, Lee C. Depth map generation and virtual view
synthesis[C]//JVT-Y065 25th Meeting: China: Shenzhen, 2007.
[12]Oh H, Ho Y S H. 264-based depth map sequence coding
using motion information of corresponding texture Video [J]. Lecture Notes in Computer Science, 2006, 4319:898- 907.
[13]Morvan Y, Farin D. Depth-image compression based on
an R-D optimized quadtree decomposition for the trans- mitssion of multiview images[J]. IEEE Int, 2007, 105-108.
[14]Krishnamurthy R, Tao H. Compression and transmission
of depth maps for image-based rendering[C]//Image Processing Proceedings, 2001.
[15]Lee S W, Kim D. Quantization-based compact represent-
tation of 3D mesh[C]//MPEG-M15392, FR: Archamps, 2008.
[16]Mamou K, Zaharia T. A low complexity approach for
static 3D mesh compression[C]//MPEG-M15438 FR: Archamps, 2008.
董书民[17]Kim B J, Kim D Y. Fast 3D mesh compression[C]//
MPEG-M15376, FR: Archamps, 2008.
[18]Chai B B, Sehuraman S, Hatrack P. Mesh-based depth
map compression and transmission for real-time view- based rendering[C]//Proc of International Conference on Image Processing, 2001.
[19]Grewatsch S, Muller E. Fast mesh-based coding of depth
map sequences for efficient 3D-video reproduction using openGl[C]//Proc of International Conference on Visuali- zation, Imaging and Image Processing, 2005:66-71. [20]Zitnick L, Kang S B. High-quality video view interpola-
tion using a layered representation[J]. ACM Trans Graph, 2004, 23(3):598-606.
Depth Map Compression Algorithm in 3D Video System
ZHU Bo1, PENG Zong-ju1,2, ZHANG Yun1, SHAO Feng1
( 1.Faculty of Information Science and Technology, Ningbo University, Ningbo 315211, China;
2.Zhejiang Provincial Key Laboratory of Information Network Technology, Hangzhou 310027, China ) Abstract: This paper starts with analysis on the static depth map algorithms based on the Mesh, JPEG, mode function, followed by investigating the independent depth sequence coding and depth sequence coding based on motion vector in combination with color sequence. The experimental comparison result of the two depth video sequence coding algorithms is presented, and the paper concludes by discussing on the development trend of the depth map compression techniques.
Key words: three dimensional video system; depth map compression; video compression standards;
3D-mesh CLC number: TP391.41 Document code: A
(责任编辑 章践立)

本文发布于:2024-09-25 10:30:40,感谢您对本站的认可!

本文链接:https://www.17tex.com/xueshu/90884.html

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。

标签:运动   深度   矢量   编码   视频   压缩
留言与评论(共有 0 条评论)
   
验证码:
Copyright ©2019-2024 Comsenz Inc.Powered by © 易纺专利技术学习网 豫ICP备2022007602号 豫公网安备41160202000603 站长QQ:729038198 关于我们 投诉建议