[发明专利]一种实时视频通信的质量评价方法有效
| 申请号: | 201811277982.3 | 申请日: | 2018-10-30 |
| 公开(公告)号: | CN109120924B | 公开(公告)日: | 2020-06-02 |
| 发明(设计)人: | 钱晓炯 | 申请(专利权)人: | 宁波菊风系统软件有限公司 |
| 主分类号: | H04N17/00 | 分类号: | H04N17/00 |
| 代理公司: | 宁波诚源专利事务所有限公司 33102 | 代理人: | 刘凤钦;邓青玲 |
| 地址: | 315040 浙江省宁波*** | 国省代码: | 浙江;33 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 实时 视频 通信 质量 评价 方法 | ||
本发明涉及一种实时视频通信的质量评价方法,其特征在于:首先建立一个质量模型,该质量模型的输出参数为质量评价值,MOS=TMOSa*SMOSb,a和b为预设权重系数;在实时视频通话过程中,在实时视频通信的接收端计算时间质量值TMOS;在实时视频通信的发送端计算SMOS;将得到的时间质量值TMOS和空间质量值SMOS输入质量模型中,计算得到实时视频通话过程中的质量评价值MOS。与现有技术相比,本发明的优点在于:提供了一个整合在实时视频通话过程的实时计算流程,实现对实时视频通话的质量的准确评价,需要额外的计算量和网络资源非常少,相比视频通话的计算和网络资源增加不到1%。
技术领域
本发明涉及一种实时视频通信的质量评价方法。
背景技术
随着科学技术的高速发展,视频作为视觉信息的主要载体已经深入到人们生活的方方面面。再加上近年来通信领域的高速发展,人们在进行通信时不再停留于语言信号的传输,而是希望能够通过视频通信来获取更多的信息。在实时视频通信中,由于网络的带宽是有限的,因此目前没有一种靠谱的评价视频通话质量的自动化方法,能做到实时监控视频通话的端到端质量。
现有技术中,PSNR、SSIM等方法是针对图片的质量评价,而且需要原始图像做对照,不适合实时视频通话,实时视频通话将本地原始视频传给对端代价太大,失去实时通话的意义。
发明内容
本发明所要解决的技术问题是针对上述现有技术提供一种能够准确的计算视频通话的质量的实时视频通信的质量评价方法,需要额外的计算量和网络资源均非常少。
本发明解决上述技术问题所采用的技术方案为:一种实时视频通信的质量评价方法,其特征在于:首先建立一个质量模型,该质量模型的输出参数为质量评价值,记为MOS,输入参数包括时间质量值和空间质量值,时间质量值记为TMOS,空间质量值记SMOS,质量模型的输出参数与输入参数之间的对应关系为:MOS=TMOSa*SMOSb,a和b为预设权重系数;
在实时视频通话过程中,在实时视频通信的接收端,将实时视频通信中与时间相关的第一类参数输入到预先训练好的第一机器学习模型中,输出时间质量值TMOS;在实时视频通信的发送端,将实时视频通信中与空间相关的第二类参数输入到预先训练好的第二机器学习模型中,输出空间质量值SMOS;将得到的时间质量值TMOS和空间质量值SMOS输入质量模型中,计算得到实时视频通话过程中的质量评价值MOS。
作为改进,所述第一类参数包括以下参数中的一种或任意组合:接收视频图像的往返延迟RTT,渲染时间戳Timestamp,渲染帧率FPS和渲染卡顿率Stuck Rate;
所述第二类参数包括以下参数中的一种或任意组合:发送端实时视频图像的SSIM值,发送端实时视频图像的PSNR值,发送端实时视频图像的目标分辨率,发送端实时视频图像的当前编码分辨率,以及发送端编码量化参数QP。
再改进,第一机器学习模型为SVM机器学习模型或Fitting机器学习模型;第二机器学习模型为SVM机器学习模型或Fitting机器学习模型。
再改进,通过模拟网络的丢包、延迟、抖动,实时视频通信的接收端录制一定数量的视频,通过多人的主观质量打分,获取机器学习的第一监督数据;然后将第一类参数和第一监督数据输入到第一机器学习模型中进行训练,得到第一机器学习模型的模型参数。
再改进,在实时视频通信的发送端,选定不同时间和空间复杂度的视频源后,通过编码器编码输出不同码率和不同分辨率的视频保存起来;然后通过多人对这些视频进行主观打分,以生成第二监督数据;然后将第二类参数和第二监督数据输入到第二机器学习模型中进行训练,得到第二机器学习模型的模型参数。
再改进,a和b的默认取值0.6,a和b根据不同应用场景(流畅度优先或清晰度优先)可调节获得更高的主观质量评价的相关度。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于宁波菊风系统软件有限公司,未经宁波菊风系统软件有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201811277982.3/2.html,转载请声明来源钻瓜专利网。





