[发明专利]垃圾分类的方法及增强现实设备在审
| 申请号: | 201910894312.4 | 申请日: | 2019-09-20 |
| 公开(公告)号: | CN110723432A | 公开(公告)日: | 2020-01-24 |
| 发明(设计)人: | 孔庆杰;林姝 | 申请(专利权)人: | 精锐视觉智能科技(深圳)有限公司 |
| 主分类号: | B65F1/00 | 分类号: | B65F1/00;B65F1/14 |
| 代理公司: | 44414 深圳中一联合知识产权代理有限公司 | 代理人: | 张海燕 |
| 地址: | 518000 广东省深圳*** | 国省代码: | 广东;44 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 垃圾分类 增强现实 目标物 视频流 图像 视觉采集装置 增强现实技术 投放 获取图像 实时采集 显示装置 垃圾 分类 目视 申请 场景 应用 | ||
1.一种垃圾分类的方法,应用于增强现实设备,其特征在于,包括:
通过视觉采集装置实时采集目视场景的视频流,并从所述视频流获取图像;
对所述图像进行识别,确定所述图像中的目标物的垃圾类别;
通过显示装置显示识别结果,所述识别结果包括所述目标物的垃圾类别。
2.如权利要求1所述的方法,其特征在于,对所述图像进行识别,确定所述图像中的目标物的垃圾类别,包括:
利用检测模型对所述图像进行检测,获取所述图像对应的检测参数;
根据所述检测参数,利用识别模型对所述图像进行识别,确定所述图像中的所述目标物的垃圾类别。
3.如权利要求2所述的方法,其特征在于,利用检测模型对所述图像进行检测,获取所述图像对应的检测参数,包括:
利用一阶段回归深度学习网络对所述图像进行检测,获取所述图像中的目标物在所述图像中的位置参数;
相应的,根据所述检测参数,利用识别模型对所述图像进行识别,确定所述图像中的垃圾的类别,包括:
根据所述位置参数,利用深度可分离卷积识别网络对所述图像的所述目标物进行识别确定所述目标物的垃圾类别。
4.如权利要求3所述的方法,其特征在于,根据所述位置参数,利用深度可分离卷积识别网络对所述图像的所述目标物进行识别确定所述目标物的垃圾类别,包括:
根据所述位置参数获取所述目标物的局部图像;
利用深度可分离卷积识别网络对所述局部图像进行识别;
获取所述深度可分离卷积识别网络各输出节点的输出参数;其中,所述输出参数为,所述目标物是所述输出节点对应的垃圾类别的概率值;将所述输出参数概率值最大的输出节点对应的垃圾类别作为所述目标物的垃圾类别。
5.如权利要求3或4所述的方法,其特征在于,
所述一阶段回归深度学习网络为YOLO网络;
所述深度可分离卷积识别网络为Mobilent网络。
6.如权利要求2至4任一项所述的方法,其特征在于,通过视觉采集装置实时采集目视场景视频流前,还包括:
采用标注出目标物的样本图像训练检测模型;
采用带有标签的目标物图像作为样本图像训练识别模型。
7.如权利要求1所述的方法,其特征在于,确定所述图像中的目标物和所述目标物的垃圾类别后,还包括:
利用目标追踪模型对所述图像中的所述目标物进行追踪,确定所述目标物满足消失判定条件时所述视频流中的第一图像,以及所述目标物在所述第一图像中的第一位置;
对所述第一图像进行识别,确定垃圾桶位置和垃圾桶类别;
根据所述第一位置、所述垃圾类别、所述垃圾桶位置和垃圾桶类别确定所述目标物是否投放到正确的垃圾桶。
8.如权利要求7所述的方法,其特征在于,所述消失判定条件,包括,
若所述目标追踪模型输出的目标物存在的概率值小于第一阈值,则判定所述目标物消失。
9.如权利要求7或8所述的方法,其特征在于,还包括:
根据所述目标物是否投放到正确的垃圾桶,通过所述显示装置显示是否投放正确的提示信息;
若确定所述目标物未投放至正确垃圾桶,则保存所述第一图像或所述目标物满足消失判定条件前预设时间内的所述视频流的数据。
10.一种增强现实设备,包括存储器、处理器、视觉采集装置、显示装置以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至9任一项所述的方法。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于精锐视觉智能科技(深圳)有限公司,未经精锐视觉智能科技(深圳)有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910894312.4/1.html,转载请声明来源钻瓜专利网。
- 上一篇:一种基于BP神经网络识别系统的垃圾分类方法
- 下一篇:垃圾分类回收方法及系统





