本技术公开了一种基于神经网络的视频压缩方法及系统,包括:对视频数据进行关键帧提取,其包括:先将通过差分法检测到的运动目标关键视数据段通过子段分割分为若干子段,然后计算子段间互信息量,再根据互信息进行聚类,根据聚类结果提取关键帧;对提取的关键帧进行关键帧压缩;根据提取的关键帧数据进行帧间预测,其包括:利用当前帧、参考帧和前期预测帧进行运动估计和预测,然后将运动向量进行压缩编码;经运动补偿帧重建后得到预测的图像帧,将预测帧与当前帧比较计算出估计残差;使用残差自编码器网络来编码原始帧和预测帧之间的残差;利用重建残差对预测帧进行补偿得到码帧,并缓存于解码帧缓存器中以备下一步运动预测使用。
背景技术
视频数据存在数据量大,为节约传输带宽和存储空间,传输和存储前需要进行压缩。现有视频压缩标准如H.26x系列均为有损压缩,压缩率虽然高但是存在画质损失。
快速检测出视频中的关键视频段,捕捉视频数据的关键帧可以降低视频冗余数据:视频压缩中关键帧也是预测其他帧的参考数据,所以需要无损或者几乎无损。因此,关键数据帧提取,关键帧无损/近无损压缩和基于关键帧的帧间预测是需要解决的技术问题。
实现思路