[发明专利]一种基于单目摄像头的深度学习坐姿测量检测方法在审
| 申请号: | 202310598869.X | 申请日: | 2023-05-23 |
| 公开(公告)号: | CN116469174A | 公开(公告)日: | 2023-07-21 |
| 发明(设计)人: | 薛昭;郭玉石;周晓军 | 申请(专利权)人: | 南京星辰微视光电技术有限公司 |
| 主分类号: | G06V40/20 | 分类号: | G06V40/20;G06V40/16;G06V10/22;G06V10/40;G06V10/75;G06V10/764;G06V10/82;G06N3/0464;G06N3/084 |
| 代理公司: | 江苏长德知识产权代理有限公司 32478 | 代理人: | 代呈 |
| 地址: | 210008 江苏省南京市中国(江苏)自由贸*** | 国省代码: | 江苏;32 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 基于 摄像头 深度 学习 坐姿 测量 检测 方法 | ||
本发明公开了一种基于单目摄像头的深度学习坐姿测量检测方法,涉及坐姿检测技术领域,其技术方案要点包括以下步骤:通过单目摄像头获取被测量者全身的坐姿体态RGB图像;将坐姿体态RGB图像转换为坐姿体态深度图像,提取坐姿体态深度图像中关键点的位置信息,所述关键点的位置信息包括人体位置信息和人脸位置信息;将人体位置信息和人脸位置信息构建形成待匹配点云数据集,将待匹配点云数据集与参考点云数据集进行匹配计算被测量者的姿态差异,效果是根据实际姿态信息在评估模型中对被测量者的坐姿进行评估,并且针对错误姿势将提供实时反馈,并根据错误坐姿的分类向被测量者发出警报。
技术领域
本发明涉及坐姿检测技术领域,更具体地说,它涉及一种基于单目摄像头的深度学习坐姿测量检测方法。
背景技术
现在由于学习和工作坐立的时间越来越长。据统计,当今人们平均每天坐立的时间超过8小时,在长时间的坐立情况下,由于人们很难一直保持良好的坐立姿态,而不良的坐姿会严重影响人体的身体健康,比如视力衰减、脊柱发育以及颈椎疾病等等。因此,为了促使人们纠正不良坐姿、养成良好的坐姿习惯、降低患近视以及颈椎疾病等疾病的概率,进行坐姿检测是非常有必要的。
然而现有基于单目摄像头的深度学习坐姿测量检测方法只是对被测量者的坐姿姿态进行测量,并不能根据被测量者的坐姿姿态进行评估,从而不能很好的提醒被测量者的坐姿姿态是否正确。
发明内容
针对现有技术存在的不足,本发明的目的在于提供一种基于单目摄像头的深度学习坐姿测量检测方法。
为实现上述目的,本发明提供了如下技术方案:
一种基于单目摄像头的深度学习坐姿测量检测方法,该方法包括以下步骤:
通过单目摄像头获取被测量者全身的坐姿体态RGB图像。
将坐姿体态RGB图像转换为坐姿体态深度图像,提取坐姿体态深度图像中关键点的位置信息,所述关键点的位置信息包括人体位置信息和人脸位置信息。
将人体位置信息和人脸位置信息构建形成待匹配点云数据集,将待匹配点云数据集与参考点云数据集进行匹配计算被测量者的姿态差异,得到实际姿态信息;所述实际姿态信息包括人体实际姿态信息和人脸实际姿态信息。
根据实际姿态信息在评估模型中对被测量者的坐姿进行评估。
优选地,被测量者的坐姿体态RGB图像包括被测量者的头部、肩部、胸部、腹部、膝部和脚部。
本发明通过摄像头完整地看到被测量者的头部、肩部、胸部、腹部、膝部和脚部。在实际应用中,摄像头以640x480的分辨率拍摄被测量者全身的坐姿体态RGB图像,将坐姿体态RGB图像转换为坐姿体态深度图像。本发明使用基于单目深度估计技术的方法,从单个RGB图像中预测出深度信息(即距离摄像头的距离)。具体而言,本发明使用ResNet-50网络对坐姿体态RGB图像进行训练,从而预测出每个像素点的深度值,该深度值用于对人体姿态进行准确的测量。本发明使用了NYUv2数据集进行训练,该数据集包括超过14万个深度图像和与之对应的RGB图像,从而提高了深度估计的准确性。
优选地,所述人脸位置信息包括眼睛位置信息、鼻子位置信息和嘴巴位置信息。
本发明使用基于OpenPose的姿态估计算法能够提取出25个人体关键点的位置信息。在训练阶段,本发明使用了COCO数据集进行训练,该数据集包括超过20万个人体姿态的图像,从而提高了姿态估计的准确性。具体而言,本发明使用堆叠式Hourglass网络进行姿态估计,网络包含8个hourglass模块,能够快速而准确地提取出人体的各个关键点。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京星辰微视光电技术有限公司,未经南京星辰微视光电技术有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202310598869.X/2.html,转载请声明来源钻瓜专利网。





