[发明专利]一种用于机器人的可行驶区域感知方法在审
申请号: | 202110677857.7 | 申请日: | 2021-06-18 |
公开(公告)号: | CN113343875A | 公开(公告)日: | 2021-09-03 |
发明(设计)人: | 程敏;李奇;罗作煌;徐伟;郭永春;张淼;沈林鹏;杨顺;尹帅;唐海健 | 申请(专利权)人: | 深圳亿嘉和科技研发有限公司 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06N3/04;G06N3/08;G06T7/11;G06T7/136;G06T7/62;G06T7/80 |
代理公司: | 南京理工信达知识产权代理有限公司 32542 | 代理人: | 唐绍焜 |
地址: | 518052 广东省深圳市南山区粤海街道大冲社区*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 用于 机器人 行驶 区域 感知 方法 | ||
本发明公开了一种用于机器人的可行驶区域感知方法,包括:一种用于机器人的可行驶区域感知方法,其特征在于:包括步骤:步骤一、机器人通过RGB‑D相机采集路面深度图像和RGB图像,并将深度图像和RGB图像对齐;步骤二、通过预先训练好的路面分割模型对RGB图像进行处理得到可行驶区域,再对深度图像进行平面检测得到可行驶区域,并通过步骤一将两个可行驶区域对齐;步骤三、采用多帧叠加和权重累加的方法对可行驶区域进行融合,得到最终可行驶区域。本发明基于深度学习模型输入RGB图像和深度图,输出可行驶区域,正常情况下通过可行驶区域感知技术与定位系统协同工作以增强系统稳定性。
技术领域
本发明涉及机器人技术领域,尤其涉及一种用于机器人的可行驶区域感知方法。
背景技术
传统的定位算法通常基于GNSS信号、激光雷达等进行组合导航或SLAM 定位。但GNSS信号通常只适用于开阔场景,在遮挡和多路径场景下定位性能会急剧下降。激光雷达的适用场景较为宽泛,但在空旷、动态、长走廊等场景下很容易定位丢失。
而定位系统是巡检机器人能够正确执行其他任务的基础,一个稳定、可靠的可行驶区域感知技术可以为整个机器人系统正确有效的执行命令提供坚实的保障。但是当定位系统存在类似定位丢失、定位漂移问题时,会导致巡检机器人遵循错误的轨迹行进,从而使得之后所有的逻辑处理均出现问题,严重时可能导致机器人侧翻、撞人等问题。
发明内容
发明目的:本发明针对上述不足,提出了一种用于机器人的可行驶区域感知方法,基于深度学习模型输入RGB图像和深度图,输出可行驶区域。
技术方案:
一种用于机器人的可行驶区域感知方法,包括步骤:
步骤一、机器人采集路面深度图像和RGB图像,并将深度图像和RGB图像对齐;
步骤二、通过预先训练好的路面分割模型对RGB图像进行处理得到可行驶区域,再对深度图像进行平面检测得到可行驶区域,并通过步骤一将两个可行驶区域对齐;
步骤三、采用多帧叠加和权重累加的方法对可行驶区域进行融合,得到最终可行驶区域。
所述步骤一中,机器人通过RGB-D相机采集路面深度图像和RGB图像;或通过RGB相机采集RGB图像,再通过深度相机或激光雷达采集路面深度图像。
所述步骤三之前通过两个可行驶区域的交并比判断两个可行驶区域是否重合,若重合,则转至步骤三;若不重合,则计算平面检测得到的可行驶区域中所有内点与该平面之间的平均距离并归一化得到平面检测误差值,根据路面分割模型输出的置信度计算得到路面分割误差值,将二者进行比对,以误差值更小的可行驶区域为基准进行步骤三的融合。
所述步骤二中路面分割模型训练如下:
(11)机器人通过安装在其上的相机分别采集在不同工况、不同时间段或不同位置的RGB图像并将RGB图像内的路面标注出来;
(12)采用神经网络对步骤(11)得到的图像通过神经网络进行训练得到标注模型,并通过该标注模型对采集得到RGB图像进行标注;
(13)设计路面分割模型,并采用迁移学习的方法以步骤(12)中得到的标注模型的参数作为得到路面分割模型的初始参数,并采用蒸馏学习方法对标注后 RGB图像进行训练得到路面分割模型。
设计的路面分割模型具体为:采用depth_wise卷积、point_wise卷积、channelshuffle或Inception卷积结构,使用3*3的小卷积核;在网络结构中细节分支采用宽通道和浅层卷积,语义分支采用窄通道和深层卷积,在融合层采用注意力机制融合两层不同维度的信息。
所述步骤二中,通过预先训练好的路面分割模型对RGB图像进行处理得到可行驶区域具体为:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于深圳亿嘉和科技研发有限公司,未经深圳亿嘉和科技研发有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110677857.7/2.html,转载请声明来源钻瓜专利网。