NeurIPS 2019 Spotlight | 超清还不够,商汤插帧算法让视频顺滑如丝
摄影爱好者无疑想要拍出更高画质、更清晰的视频,因而要求相机能够提供更高的分辨率和帧率。但是利用相机的硬件更迭来提升帧率似乎满足不了人们的需求,这就需要算法来加持了。商汤移动智能研究总监孙文秀团队提出了一种新的视频插帧算法,其可以感知到视频中的运动加速度,从而拍出顺滑如丝的高画质视频。
自相机被发明以来,人们对更高画质视频的追求就没有停止过。
分辨率从 480p,720p,再到 1080p,现在有了 2K、4K;帧率也从 25FPS 到 60FPS,再到 240FPS,960FPS 甚至更高……
如果仅靠相机的硬件迭代来提升帧率,存在局限性,因为相机传感器在单位时间内捕捉到的光有局限。而且相机硬件迭代的周期长,成本高。
最近,商汤移动智能研究总监孙文秀的团队 提出了一种可以 感知视频中运动加速度的视频插帧算法(Quadratic Video Interpolation),打破了之前插帧方法的线性模型,将二次方光流预测和深度卷积网络进行融合,让你的视频顺滑如丝。
这种方法有多厉害?来看一个对比:
如果把视频放慢就能明显感觉到,未经过插帧的慢放视频(左)会明显卡顿,而经过商汤 Quadratic(二次方)视频插帧方法处理的视频(右)播放流畅。
这个方法的论文被 NeurIPS 2019 接收为 Spotlight 论文,该方法还在 ICCV AIM 2019 VideoTemporal Super-Resolution Challenge 比赛中获得了冠军。
之前的视频插帧方法(包括 Phase[1]、DVF[2]、SepConv[3] 和 SuperSloMo[4] 等)是假设相邻帧之间的运动是匀速的,即沿直线以恒定速度移动。然而,真实场景中的运动通常是复杂的、非线性的,传统线性模型会导致插帧的结果不准确。
以抛橄榄球的运动视频为例(如下图 1),真实运动中的轨迹是一条抛物线,如果在第 0 帧和第 1 帧之间进行插帧,线性模型方法模拟出来轨迹是线性轨迹(右二),与真实运动轨迹(右三)相差较大。
图 1 传统线性模型与商汤二次方视频插帧结果对比
但通过商汤二次方视频插帧模型模拟出来的运动轨迹是抛物线形(图 1 右一),更逼近真实轨迹。也就是说, 它能够更准确地估计视频相邻帧之间的运动并合成中间帧,从而获得更精准的插帧结果 。
二次方插帧是怎样「炼」成的?
商汤研究团队构建了一个可以感知视频运动加速度的网络模型。与传统线性插帧模型利用两帧输入不同,它利用了相邻四帧图像来预测输入帧到中间帧的光流,简易的流程图如下:
图 2 二次方插帧模型的流程
、 、 和 是输入视频连续的四帧。给定任意时刻 t(0<t<1),该模型将最终生成 t 时刻的中间帧。而要得到,就需要更深入了解其中的两个关键技术: 二次方光流预测和光流逆转 。
其中,二次方光流预测,就是中学物里面常讲到的求匀变速运动位移的过程:假设在 [-1, 1] 时刻的运动是匀加速运动,那么可以利用位移推测出 0 时刻的速度和区间内的加速度,即可以计算出 0 时刻到任意 t 时刻的位移:
图 3:视频中物体运动的示意图。 _, ,, 分别表示物体, , 和 中的位置。_
通过以上方法,对称地我们可以计算出。此时,我们得到了含有加速度信息和。
为了生成高质量的中间帧,我们需要得到反向光流和。
为此商汤研究团队提出一个可微分的「光流逆转层」来预测和。通过以下转换公式可以高效的将 和转化为和,但是可能会造成逆转的光流在运动边界处出现强烈的振铃效应(见图 4)。
为了消除这些强烈震荡的部分,商汤研究团队提出了一种基于 深度神经网络的、能够对逆转后光流进行自适应采样的滤波器(Adaptive Flow Filter)。
实验证明,自适应滤波器(ada.)能够明显削弱光流逆转造成的振铃效应,从而改善最终合成帧的质量。
图 4 自适应滤波器能够改善逆转的光流和合成的中间帧的质量
实验结果
商汤研究团队在 GOPRO、Adobe240、UCF101 和 DAVIS 四个知名视频数据集上对提出的方法进行测评,并与业界前沿的插帧方法 Phase、DVF、SepConv 和 SuperSloMo 进行比较。在每个数据集上,商汤二次视频插针方法都大幅超过现有的方法 (见表 1、表 2)。
表 1 商汤提出的方法和业界前沿方法在 GOPRO 和 Adobe240 数据集上的比较
表 2 商汤提出的方法和业界前沿方法在 UCF101 和 DAVIS 数据集上的比较
除此之外,商汤研究团队还对各种方法生成中间帧进行了关键点跟踪并进行可视化,从图 5 中两个案例的视频运动轨迹可以看出,用真实慢动作相机采集的中间帧(GT)的运动轨迹是曲线的。线性模型(SepConv、SuperSloMo、Oursw/o qua)生成的中间帧的运动轨迹都是直线,相反,商汤的模型 (Ours) 能够更精准的预测出非线性轨迹,获得更好的插帧结果。
图 5 对不同方法的插帧结果进行可视化。 第一行和第三行是每种方法的插帧结果和真实图像中间帧 (GT) 的平均。 第二行和第四行对每种方法的插帧结果进行关键点跟踪。
综上,商汤提出的能够感知视频中运动加速度的插帧方法相比已有的线性插帧算法,能够过更好地预测中间帧。
[1] S.Meyer, O.Wang, H. Zimmer, M. Grosse, and A. Sorkine-Hornung. Phase- based frameinterpolation forvideo.In CVPR, 2015
[2]Z. Liu,R. Yeh, X. Tang, Y. Liu, and A. Agarwala. Video frame synthesis using deepvoxel flow. In ICCV,2017.
[3] S. Niklaus, L. Mai, and F. Liu. Video frame interpolationvia adaptive separable convolution. In ICCV,2017
[4] H.Jiang, D. Sun, V. Jampani, M. Yang, E. G. Learned-Miller, and J. Kautz. Superslomo: High quality estimationof multiple intermediate frames for video interpolation. In CVPR, 2018.
作者暂无likerid, 赞赏暂由本网站代持,当作者有likerid后会全部转账给作者(我们会尽力而为)。Tips: Until now, everytime you want to store your article, we will help you store it in Filecoin network. In the future, you can store it in Filecoin network using your own filecoin.
Support author:
Author's Filecoin address:
Or you can use Likecoin to support author: