[发明专利]一种人机协作搬运系统及其混合视触控制方法有效
| 申请号: | 202010053107.8 | 申请日: | 2020-01-17 |
| 公开(公告)号: | CN111258267B | 公开(公告)日: | 2021-07-16 |
| 发明(设计)人: | 贺威;薛程谦;于欣波;闵高晨;马崟淞;刘志杰 | 申请(专利权)人: | 北京科技大学 |
| 主分类号: | G05B19/19 | 分类号: | G05B19/19 |
| 代理公司: | 北京市广友专利事务所有限责任公司 11237 | 代理人: | 张仲波 |
| 地址: | 100083*** | 国省代码: | 北京;11 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 人机 协作 搬运 系统 及其 混合 控制 方法 | ||
1.一种人机协作搬运系统,其特征在于,所述人机协作搬运系统包括协作机器人,所述协作机器人上设置有深度摄像头和六维力/力矩传感器;所述协作机器人、深度摄像头和六维力/力矩传感器分别与控制装置通信连接;
其中,所述协作机器人用于利用机械臂与操作者协作搬运物体;所述六维力/力矩传感器用于获取所述机械臂与当前搬运物体之间的交互力信息;所述深度摄像头用于获取当前搬运物体的图像信息;
所述控制装置用于根据所述交互力信息和图像信息,生成当前搬运物体的期望位置和期望姿态;并基于径向基函数神经网络生成跟踪控制器,以控制协作机器人跟踪所述期望位置和期望姿态,令协作机器人协助操作者搬运物体;
所述深度摄像头设置在所述协作机器人的头部,所述六维力/力矩传感器设置在所述协作机器人的腕关节处;所述控制装置包括第一计算机和第二计算机;所述深度摄像头与所述第一计算机通信连接;所述协作机器人和所述六维力/力矩传感器分别与所述第二计算机通信连接;所述第一计算机和所述第二计算机通信连接;
所述第二计算机用于根据所述交互力信息,基于预设导纳模型,使用导纳控制生成当前搬运物体在选定坐标系的X轴和Y轴方向的期望坐标;
所述第一计算机用于根据所述图像信息,获取当前搬运物体上预设参照点的位置信息,并根据所述预设参照点的位置信息,利用视觉伺服控制生成当前搬运物体的期望姿态和当前搬运物体在所述选定坐标系的Z轴方向的期望坐标,并结合当前搬运物体在选定坐标系的X轴和Y轴方向的期望坐标,得到当前搬运物体在选定坐标系中的期望位置;
所述第二计算机还用于基于径向基函数神经网络生成跟踪控制器,以控制协作机器人跟踪所述期望位置和期望姿态,令协作机器人协助操作者搬运物体;
所述第二计算机中加载的导纳模型的表现形式如下:
其中,p、分别表示所述协作机器人当前的位置、速度和加速度;pd、分别表示想要得到的期望位置、速度和加速度;fe表示所述机械臂与当前搬运物体之间的交互力;I、D、K为所述导纳模型的预设参数,分别表示所述导纳模型的惯性参数、阻尼参数和刚度参数;
所述第一计算机具体用于:
通过所述深度摄像头获取当前搬运物体的彩色图像信息和深度图像信息;
将所述彩色图像信息和深度图像信息进行像素点映射,保证每个彩色像素点对应到其在深度图像上的信息,得到相应像素点在图片坐标系下的坐标位置;
通过图片坐标系与选定坐标系之间的映射与转换,得到彩色图像上任意一个像素点在所述选定坐标系下的位置信息;
根据所述预设参照点在所述选定坐标系下的位置信息,生成当前搬运物体的期望姿态和当前搬运物体在所述选定坐标系的Z轴方向的期望坐标,如下:
其中,φyd表示相对于初始平衡位置应该调整的当前搬运物体绕所述选定坐标系的Y轴旋转的角度;zd表示相对于初始平衡位置应该调整的当前搬运物体在所述选定坐标系的Z轴方向的坐标;kpx、kdx、kpy、kdy为预设控制参数;xb、yb分别为所述预设参照点在所述选定坐标系的X轴和Y轴上的坐标;xc、yc分别为当前搬运物体的中心在所述选定坐标系的X轴和Y轴上的坐标;
基于径向基函数神经网络生成的跟踪控制器的表现形式如下:
其中,f为对所述机械臂输入的控制力;z1=r1-pd,r1=p,p为所述协作机器人当前的位置,pd为所述协作机器人的期望位置;K2为控制增益矩阵;z2=r2-α,为所述协作机器人当前的速度,α为虚拟控制量;为径向基函数神经网络;fe为所述机械臂与当前搬运物体之间的交互力。
2.一种人机协作搬运系统混合视触控制方法,其特征在于,包括:
获取协作机器人的机械臂与当前搬运物体之间的交互力信息和当前搬运物体的图像信息;其中,所述图像信息包括彩色图像信息和深度图像信息;
根据交互力信息和图像信息,生成当前搬运物体的期望位置和期望姿态;
基于径向基函数神经网络生成跟踪控制器,以控制所述协作机器人跟踪所述期望位置和期望姿态,令所述协作机器人协助操作者搬运物体;
所述生成当前搬运物体的期望位置和期望姿态,包括:
根据所述交互力信息,基于预设导纳模型,使用导纳控制生成当前搬运物体在选定坐标系的X轴和Y轴方向的期望坐标;其中,所述导纳模型如下:
其中,p、分别表示所述协作机器人当前的位置、速度和加速度;pd、分别表示想要得到的期望位置、速度和加速度;fe表示所述机械臂与当前搬运物体之间的交互力;I、D、K为所述导纳模型的预设参数,分别表示所述导纳模型的惯性参数、阻尼参数和刚度参数;
所述生成当前搬运物体的期望位置和期望姿态,还包括:
将所述彩色图像信息和深度图像信息进行像素点映射,保证每个彩色像素点对应到其在深度图像上的信息,得到相应像素点在图片坐标系下的坐标位置;
通过图片坐标系与选定坐标系之间的映射与转换,得到彩色图像上任意一个像素点在所述选定坐标系下的位置信息;
根据所述预设参照点在所述选定坐标系下的位置信息,生成当前搬运物体的期望姿态和当前搬运物体在所述选定坐标系的Z轴方向的期望坐标,如下:
其中,φyd表示相对于初始平衡位置应该调整的当前搬运物体绕所述选定坐标系的Y轴旋转的角度;zd表示相对于初始平衡位置应该调整的当前搬运物体在所述选定坐标系的Z轴方向的坐标;kpx、kdx、kpy、kdy为预设控制参数;xb、yb分别为所述预设参照点在所述选定坐标系的X轴和Y轴上的坐标;xc、yc分别为当前搬运物体的中心在所述选定坐标系的X轴和Y轴上的坐标;
结合当前搬运物体在所述选定坐标系的X轴和Y轴方向的期望坐标,得到当前搬运物体在选定坐标系中的期望位置;
基于径向基函数神经网络生成的跟踪控制器的表现形式如下:
其中,f为对所述机械臂输入的控制力;z1=r1-pd,r1=p,p为所述协作机器人当前的位置,pd为所述协作机器人的期望位置;K2为控制增益矩阵;z2=r2-α,为所述协作机器人当前的速度,α为虚拟控制量;为径向基函数神经网络;fe为所述机械臂与当前搬运物体之间的交互力。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京科技大学,未经北京科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010053107.8/1.html,转载请声明来源钻瓜专利网。





