[发明专利]基于人工物理法的多智能体机器人协同控制方法无效
申请号: | 201010139263.2 | 申请日: | 2010-03-31 |
公开(公告)号: | CN101825901A | 公开(公告)日: | 2010-09-08 |
发明(设计)人: | 张之瑶;段海滨;沈毅;冯铁山 | 申请(专利权)人: | 北京航空航天大学 |
主分类号: | G05D1/00 | 分类号: | G05D1/00 |
代理公司: | 北京慧泉知识产权代理有限公司 11232 | 代理人: | 王顺荣;唐爱华 |
地址: | 100191 北京市海淀区*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 人工 物理 智能 机器人 协同 控制 方法 | ||
1.一种基于人工物理法的多智能体机器人协同控制方法,其特征在 于:该方法基于多个智能体机器人以分布式的方式进行,每个智能体机 器人上有一个或多个的传感器,用来采集、融合分布式数据,并使用信 息处理结果驱动智能体机器人;该方法步骤如下:
步骤(1):基于人工物理法,建立智能体机器人间相互作用的矢量力 场;
在人工物理法的结构中,虚的物理力驱动一个智能体机器人群体系统 以达到期望的状态;该状态是一个使全系统潜在能量最小化的形状,而 系统表现为分子动力学特性,即其中,代表力,m代表质量, 代表加速度;
定义力规则:F=Gmimj/rp;其中F是智能体机器人i和智能体机器 人j之间力的幅值,mi、mj为第i、j个智能体的质量,r是两智能体机 器人间距离,G为代表聚类特性的参数,p为一个可调参数,p越大则F 受r变化的影响越大;R为阈值距离,如果r≤R,力是斥力,如果r>R, 力是引力;每个智能体机器人都有一个用于检测距离和其它智能体机器 人方位的传感器;受动器使智能体机器人能够以速度移动;为了确保力 规则是局部的,智能体机器人的可视范围是1.5R;智能体机器人不需要 具有相同的质量;最大力参数Fmax为智能体机器人所能达到的加速度提供 了一个必要的约束;从步骤(1)得出每个智能体上所受的力和力的方向, 这些变量作为步骤(2)的输入;
步骤(2):通过解算智能体机器人合力,确定智能体机器人的运动速 度和方向,并通过四点平滑的方法抑制模态转换的瞬态;
每一个智能体机器人具有位置和速度我们使用离散时间近似智 能体机器人的连续行为,时间步长为Δt;在每一个时间步长内,每一个 智能体机器人的位置变化该变化取决于当前速度,在每一 个时间步长内,每一个智能体机器人的速度也发生改变速度的改变
量受施加在智能体机器人上的力的控制,其中m是智能体机 器人的质量,是智能体机器人上受到的力;
每个智能体机器人所具有的质量m使智能体机器人具有动量;智能体 机器人不需要具有相同的质量;最大速度参数Vmax限制了智能体机器人的 最大速度;
在人工物理法的流程中,设智能体机器人群中智能体机器人个数为 N,mi的默认值取1.0,p默认值取2,重力常数G在初始化中被设定,Δ T为离散的步长;
对任何一个智能体机器人i在每个离散时间段的人工物理法步骤流 程如下:
步骤2.1:首先智能体机器人i从传感器获取与其它智能体机器人间 的夹角θ和距离值r;
步骤2.2:得出与智能体机器人i距离最近的智能体机器人j,智能体 机器人i与智能体机器人j夹角为θ0和距离值为r;
步骤2.3:依据下式确定F,θ,F为智能体机器人i所受力的大小, θ为智能体机器人i所受力的方向:
步骤2.4:计算F在x轴与y轴上的分量,得到SFX与SFY;
SFX=F×Cosθ
SFY=F×Sinθ
步骤2.5:根据上述计算得到的SFX与SFY,计算时间步长内的速度增 量ΔVx与ΔVY;
ΔVx SFX*ΔT/mi;
ΔVy=SFY*ΔT/mi;
步骤2.6:计算时间步长后x轴和y轴上的速度分量Vx与Vy;V1x和V1y为 上一步x轴和y轴上的速度分量;
Vx=V1x+ΔVx;
Vy=V1y+ΔVy;
步骤2.7:依据下述公式对Vx,Vy进行限幅:
步骤2.8:使用四点平滑方法计算智能体机器人i的期望移动速度Vfx、 Vfy和期望转动角度θ’,即:
Vfx=(V1x+V2x+V3x+Vx)/4
Vfy=(V1y+V2y+V3y+Vy)/4
{V1x,V1y}、{V2x,V2y}、{V3x,V3y}分别为前一步、前两步和前三步 的速度值;
依据Vfx,Vfy计算智能体机器人i期望转动角度θ’:
步骤2.9:依据智能体机器人i期望移动速度Vfx、Vfy和期望转动角度 θ’控制智能体机器人i运动;
步骤2.10:在智能体机器人i运动过程中不断迭代进行上述过程,即 步骤2.1至步骤2.9;
步骤(3):基于模糊控制的沿墙跟踪方法,实现智能体机器人的避障;
基于模糊控制的沿墙跟踪方法需要设计一个双输入单输出的模糊控 制器,依据智能体机器人与墙壁的距离和相对于墙壁的角度判断智能体 机器人的转向,使智能体机器人与墙壁保持一定的距离运动;
模糊控制器主要由模糊化、知识库、模糊推理、清晰化四部分组成; 设智能体机器人与墙壁的距离的模糊变量语言集合为很近,近,中,远, 很远,其相应的语言变量分别记作:VC,C,M,F,VF;设智能体机 器人与墙壁的相对角度的模糊变量语言集合为很右,右,中,左,很左, 其相应的语言变量分别记为:VR,R,M,L,VL;模糊控制规则表中 GA、TLL、TL、TRL、TR的意义为前行、向左小转、向左转、向右小转、 向右转;
设Sr为智能体机器人与墙壁的距离,wr为智能体机器人与墙壁的相 对角度,U为输出,智能体机器人在沿墙跟踪时的速度为Vfollow;该沿墙 跟踪方法的基本流程如下:
步骤3.1:智能体机器人通过传感器探测正前方、左前方、右前方障 碍物的距离Rf、Rlf、Rrf;当正前方的障碍物距离Rf智能体机器人小于阈 值Ri时,则进入沿墙跟踪状态;若Rlf大于Rrf,则进入右沿墙跟踪状态; 否则则进入左沿墙跟踪状态;记录此时智能体机器人的位置坐标(Xi,Yi) 和方向角θi;
步骤3.2:智能体机器人通过其侧面的传感器得到墙壁与其距离Sr和 夹角wr;右沿墙跟踪使用智能体机器人右侧的传感器,左沿墙跟踪使用 智能体机器人左侧的传感器;
步骤3.3:根据距离隶属函数和角度隶属函数计算模糊控制输入量;
步骤3.4:根据模糊控制规则表判断模糊控制输出量,即得到智能体 机器人的转向;
步骤3.5:根据输出隶属函数将模糊控制输出量清晰化;
步骤3.6:依据清晰化的结果控制智能体机器人运动;
步骤3.7:在每个时间步长内迭代运行上述过程;
步骤3.8:如果同时满足以下条件则退出沿墙跟踪方法:
3.8a:根据进入沿墙跟踪时的坐标(Xi,Yi)和方向角(θi)确定一 条直线,智能体机器人距这条直线的距离Rlie小于阈值Ro;
3.8b:智能体机器人到(Xi,Yi)的距离Rdis大于阈值Rr。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京航空航天大学,未经北京航空航天大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201010139263.2/1.html,转载请声明来源钻瓜专利网。