从Kinect相机压缩RGB-D视频

我需要通过网络从Kinect摄像头发送视频.我正在从以下两个Kinect源中捕获视频:

> 2D彩色视频(RGB).每像素32位. 640×480,30fps.
>深度数据(D).每像素16位表示距离最近对象的距离,单位为mm. 640×480,30fps.

这相当于带宽至少约为53 MB / s.
这就是为什么我需要在原点编码(压缩)两个视频源然后在目标处解码. RGB-D数据将由目标处的对象跟踪算法处理.

到目前为止,我发现很多论文都在讨论算法来完成这项任务,例如,这个:
RGB and depth intra-frame Cross-Compression for low bandwidth 3D video

问题是这些论文中描述的算法没有公共访问实现.我知道,我可以自己实现它们,但是它们使用了许多其他复杂的图像处理算法,我对它没有足够的了解(边缘检测,轮廓表征……).

我实际上还发现了一些基于离散中值滤波器,delta(避免发送冗余数据)和LZ4压缩的C库:
http://thebytekitchen.com/2014/03/24/data-compression-for-the-kinect/

我的问题是:是否有更简单和/或更有效的方法来压缩来自Kinect源的RGB-D数据?

PS:我用C编码.

最佳答案 在最近对该问题的搜索中,我发现了一篇描述使用h264视频编解码器压缩深度图像的论文.作者还提供了基本软件:

>论文:http://www2.informatik.uni-freiburg.de/~stachnis/pdf/nenci14iros.pdf
>软件:http://www.ipb.uni-bonn.de/data-software/depth-streaming-using-h-264/

问题是h264可能会引入压缩失真.为了最小化编解码器引入的误差,将深度图像分成表示不同距离范围的多个通道.

点赞