[发明专利]铣床刀头视觉定位方法有效
| 申请号: | 201911006858.8 | 申请日: | 2019-10-22 |
| 公开(公告)号: | CN110751690B | 公开(公告)日: | 2020-09-25 |
| 发明(设计)人: | 刘咏晨;毕成 | 申请(专利权)人: | 郑州迈拓信息技术有限公司 |
| 主分类号: | G06T7/70 | 分类号: | G06T7/70;G06T7/11;G06T7/13 |
| 代理公司: | 郑州芝麻知识产权代理事务所(普通合伙) 41173 | 代理人: | 张海青 |
| 地址: | 450000 河南省郑州市中原区高新技术产业*** | 国省代码: | 河南;41 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 铣床 刀头 视觉 定位 方法 | ||
1.一种铣床刀头视觉定位方法,其特征是:含有以下步骤:
步骤一、使彩色面阵相机面向待定位铣床刀具,使用长焦镜头,待定位铣床刀具末端位于面阵相机视野中央,当待定位铣床刀具与面阵相机画面平行时,通过系数缩放的方式得到尺度关系;当待定位铣床刀具与面阵相机画面不平行时,通过采用投影矩阵计算得到尺度关系;用彩色面阵相机进行拍照,捕捉到一帧待定位铣床刀具的图像数据;
步骤二、对步骤一中得到的图像数据进行灰度化预处理,分别得到分量最大值图像IH和分量最小值图像IL;
步骤三、对分量最大值图像IH和分量最小值图像IL进行求均值,得到融合后的灰度图像
步骤四、将灰度图像IM输入已训练好的深度卷积神经网络UNet,输出三通道数据:通道1数据、通道2数据和通道0数据;
深度卷积神经网络UNet的输出通道为三通道:通道0,通道1和通道2;通道0为空标注,负责接收网络的随机输出,加速网络收敛;通道1为刀具整体的语义分割结果;通道2为刀具末端语义分割结果;
步骤五、对步骤四中输出的三通道数据进行处理:
取通道1数据为Seg,取通道2数据为Kp,将通道0数据舍弃,
使用最大值滤波器对Seg进行处理,得到孔洞修补后的分割结果Seg(i,j):
Seg(i,j)=Max(K(i,j,Seg)),
其中K为最大值滤波器的滑动窗口,(i,j)代表灰度图像IM的像素位置:
得到概率联合后的估计结果H:
H(i,j)=Seg(i,j)*Kp(i,j),
步骤六、对H(i,j)进行二维Softargmax处理,得到二维坐标,即刀具末端的位置:
x=∑alleH(i,j)*α*i,
y=∑alleH(i,j)*α*j,
其中α为一微调超参数。
2.根据权利要求1所述的铣床刀头视觉定位方法,其特征是:所述步骤一中使用彩色面阵相机对待定位铣床刀具进行拍照前,对相机和机床进行标定。
3.根据权利要求1所述的铣床刀头视觉定位方法,其特征是:所述步骤二中对图像数据进行灰度化预处理的方法是对图像数据各通道的分量分别求对应像素的分量最大值和最小值,其函数表达式如下:
IH(i,j)=log10(Max(R(i,j),G(i,j),B(i,j))),
IL(i,j)=log10(Min(R(i,j),G(i,j),B(i,j))),
其中,IH(i,j)和IL(i,j)分别是位置(i,j)处的分量最大值和最小值,Max(R(i,j),G(i,j),B(i,j))和Min(R(i,j),G(i,j),B(i,j))分别是求三个输入值中最大值和最小值的函数,R(i,j),G(i,j),B(i,j)分别代表位置(i,j)处的像素中红、绿、蓝通道分量值。
4.根据权利要求1所述的铣床刀头视觉定位方法,其特征是:所述步骤四中深度卷积神经网络Unet的权重是事先训练好的,且仅用于图像的语义分割,深度卷积神经网络UNet训练时采用的损失函数如下:
对于二值标签L1和通道1的输出S1的交叉熵损失函数:
CE(S1(i,j),L1(i,j))=L1(i,j)*log(S1(i,j));
对于位置回归响应标签L2和通道2的输出S2的L2损失函数:
MSE(S2(i,j),L2(i,j))=(L2(i,j)-S2(i,j))2;
Loss函数:
其中,AREA函数是求图像的高宽乘积。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于郑州迈拓信息技术有限公司,未经郑州迈拓信息技术有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911006858.8/1.html,转载请声明来源钻瓜专利网。





