[发明专利]基于人腿检测的行人识别方法有效
申请号: | 202010568501.5 | 申请日: | 2020-06-19 |
公开(公告)号: | CN111783580B | 公开(公告)日: | 2022-11-15 |
发明(设计)人: | 于兴虎;李湛;张东升;孙敬颋;高会军 | 申请(专利权)人: | 宁波智能装备研究院有限公司 |
主分类号: | G06V40/10 | 分类号: | G06V40/10 |
代理公司: | 哈尔滨市松花江专利商标事务所 23109 | 代理人: | 于歌 |
地址: | 315000 浙江省*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 检测 行人 识别 方法 | ||
基于人腿检测的行人识别方法,涉及视觉识别技术领域。本发明是为了解决现有对于行人的腿部识别方法使用环境受限、操作繁琐、干扰因素较多,最终导致识别结果误差大的问题。本发明所述的基于人腿检测的行人识别方法采集并分离当前视野下的RGBD图像,分别对彩色图像进行灰度处理和边缘提取,将深度图像、灰度图像和轮廓图像共同作为一个三维度的图像输入到检测网络中、并获得检测结果,将检测网络获得的检测结果、深度图像和图像采集参数结合,对点云数据进行采样,将采样后的点云数据输入到PointNet分割网络中,获得点云数据的标签,根据点云数据的标签筛选出人腿点云数据,完成行人的识别。
技术领域
本发明属于视觉识别技术领域,尤其涉及行人识别技术。
背景技术
利用计算机视觉的先进技术对目标对象进行实时检测的相关研究变得越来越热门。对目标进行实时地检测在智慧交通、安防、军事、手术医疗等众多领域有着广泛的应用。自主移动机器人能够通过装配传感器获取环境信息,对相应的环境状况做出决策和策略。在室内移动无人车平台中,移动机器人的环境感知能力是尤为重要的。利用深度相机可以较高频率的获取RGBD信息,移动机器人可以利用获得的数据进行周围环境的感知。由于可以获取D通道数据,也就是深度信息,所以移动机器人可以进行三维环境感知。目前已经有很多相关的技术方案实现对环境中的行人识别,一般是基于行人轮廓、脸部、或者肢体等结合的方式进行识别。基于行人脸部的识别一般采用基于Harr特征的人脸识别,或者是通过深度学习的方式完成。但是在行人背对移动机器人的时候,人脸识别就会失效,无法达到行人识别的目的,这极大限制了移动机器人的使用范围。
对于自身搭载深度相机的低地面移动机器人来讲,在更多情况下,无法获取完整的室内环境信息,它只能够获取较低高度的环境信息。所以对于很多通过获取完整环境信息来进行行人识别的方法将不再适用在这样的移动机器人平台。但是,低地面移动机器人能够较完整的获取到距离地面较近的环境信息,这些信息更多的会包含行人的腿部数据。因此,现有技术中常用RGBD数据实现对行人的识别及定位功能,其过程如下:
RGBD数据处理:将RGB(彩色)数据和D(深度)数据结合,合成点云数据,对点云数据使用体素滤波器,减少点云的数量。
地面检测:设置初始地平面系数,并且使用基于RANSAC的最小二乘法检测点云中的地平面。然后更新地平面系数,其被认为是下一帧处的地平面估计的初始条件。
点云聚类:将分析限制在地平面上方130厘米内的点云并且应用基于欧几里德距离的聚类。
HOGSVM:给定获得的3D聚类,聚类的边界框被投影到RGB图像。基于所获得的图像块,计算其HOG描述符。然后将得到的描述符发送到预先训练的SVM分类器,返回集群的HOG信心。当计算的Hog置信度大于阈值时,群集被分类为行人,否则它被分类为非行人。
上述方法的识别过程是先将深度图转换为点云数据;对点云数据进行滤波,分割,聚类操作,再将聚类结果的轮廓映射回二维图像中,对二维图像轮廓中的图像提取HOG特征描述子,最后将描述子放到SVM里面进行分类,得到行人点云。但是,这种方法存在以下缺陷:
1、需要二维和三维图像的两次转换操作,过程麻烦;
2、对于过聚类或子聚类问题的解决方式不够具有普遍性;
3、需要假定行人的裤子是纯色的,对使用场景具有限制;
4、需要进行地面检测过程,如果地面不平整则提取效果会很差;
5、大量的初始点云数据参与聚类运算,效率低下。
综上所述,现有对于行人的腿部识别方法使用环境受限、操作繁琐、干扰因素较多。
发明内容
本发明是为了解决现有对于行人的腿部识别方法使用环境受限、操作繁琐、干扰因素较多,最终导致识别结果误差大的问题,现提供基于人腿检测的行人识别方法。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于宁波智能装备研究院有限公司,未经宁波智能装备研究院有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010568501.5/2.html,转载请声明来源钻瓜专利网。