[发明专利]一种基于人机共融的安全协作方法及装置有效
申请号: | 201910818210.4 | 申请日: | 2019-08-30 |
公开(公告)号: | CN110561432B | 公开(公告)日: | 2021-04-23 |
发明(设计)人: | 吴亮生;雷欢;王楠;钟震宇;马敬奇;陈再励;卢杏坚 | 申请(专利权)人: | 广东省智能制造研究所 |
主分类号: | B25J9/16 | 分类号: | B25J9/16 |
代理公司: | 广东广盈专利商标事务所(普通合伙) 44339 | 代理人: | 李俊 |
地址: | 510070 广东省*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 人机 安全 协作 方法 装置 | ||
1.一种基于人机共融的安全协作方法,其特征在于,所述安全协作方法包括:
获取机器人的末端坐标位置信息及运动信息,其中,所述运动信息包括运动速度信息及运动方向信息;
基于末端坐标位置信息及运动信息建立作业空间安全等级动态规划模型,将所述作业空间划分为不同安全等级的子作业空间区域;
基于视觉感知系统采集协同作场景图像,并通过目标检测算法获得作业人员的三维坐标信息;
基于相邻帧图像序列中的作业人员的三维坐标信息获得作业人员的第一运动信息,基于作业人员的三维坐标信息、作业人员的第一运动信息、机器人的末端坐标位置信息,计算人机动态等效距离,其中,所述第一运动信息包括作业人员的运动速度信息及运动方向信息;
基于所述人机动态等效距离,以及对机器人作业空间动态规划的不同安全等级的子作业空间区域,预测人机协作碰撞风险,制定相应控制指令针对所述机器人进行安全控制;
所述基于末端坐标位置信息及运动信息建立作业空间安全等级动态规划模型,将所述作业空间划分为不同安全等级的子作业空间区域,包括:
获取所述机器人的作业空间的区域大小Xrmax×Yrmax,并将所述作业空间划分为M×N网格区域,则每个网格区域的大小为
若所述机器人所在网格的索引为(0,0),则根据所述机器人基坐标系方向获得网格(i,j)的中心位置坐标为
以所述末端坐标位置信息为中心划分的距离阈值,并基于末端坐标位置信息、运动信息以及划分的距离阈值将所述作业空间划分为不同安全等级的子作业空间区域;
所述以所述末端坐标位置信息为中心划分的距离阈值,并基于末端坐标位置信息、运动信息以及划分的距离阈值将所述作业空间划分为不同安全等级的子作业空间区域,包括:
计算末端坐标位置信息与网格中心的第一距离、机器人末端位置与网格中心位置的方向矢量;
基于机器人末端位置与网格中心位置的方向矢量与所述机器人的运动速度信息进行计算,获得所述方向矢量与机器人的运动速度信息所形成的夹角;
基于所述第一距离、机器人末端位置与网格中心位置的方向矢量及所述方向矢量与机器人的运动速度信息所形成的夹角,构建网格(i,j)区域的危险程度动态计算模型;
基于所述危险程度动态计算模型将所述作业空间划分为不同安全等级的子作业空间区域。
2.根据权利要求1所述的安全协作方法,其特征在于,所述基于视觉感知系统采集协同作场景图像,包括:
建立图像像素坐标与所述机器人基坐标系的映射关系,通过视觉感知系统对所述机器人进行手眼标定,获得图像像素坐标与所述机器人基坐标系之间的坐标变换矩阵;
基于视觉感知系统采集协同作业场景中作业人员的人体图像。
3.根据权利要求2所述的安全协作方法,其特征在于,所述通过目标检测算法获得作业人员的三维坐标信息,包括:
基于骨架检测模型对所述人体图像进行检测,获得人体的三维图像像素坐标;
通过坐标转换矩阵将人体的三维图像像素坐标转换至人体在机器人基坐标系下的三维坐标信息。
4.根据权利要求3所述的安全协作方法,其特征在于,所述基于骨架检测模型对所述人体图像进行检测,获得人体的三维图像像素坐标,包括:
针对单目视觉感知系统采集的RGB图像采用VNect网络模型进行3D人体骨架姿态估计,获得人体的三维图像像素坐标;
针对双目视觉感知系统和深度视觉感知系统采集的RGB图像和深度图像,采用openpose对RGB图像进行检测获得2D人体骨架姿态,再将深度图像对应深度信息映射至2D人体骨架姿态,以获得人体的三维图像像素坐标。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于广东省智能制造研究所,未经广东省智能制造研究所许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910818210.4/1.html,转载请声明来源钻瓜专利网。