[发明专利]基于深度卷积‑反卷积神经网络的夜视图像场景识别方法在审
| 申请号: | 201611253882.8 | 申请日: | 2016-12-30 |
| 公开(公告)号: | CN106650690A | 公开(公告)日: | 2017-05-10 |
| 发明(设计)人: | 高凯珺;孙韶媛;姚广顺;叶国林 | 申请(专利权)人: | 东华大学 |
| 主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62 |
| 代理公司: | 上海申汇专利代理有限公司31001 | 代理人: | 翁若莹,柏子雵 |
| 地址: | 200050 上*** | 国省代码: | 上海;31 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 基于 深度 卷积 神经网络 视图 场景 识别 方法 | ||
1.一种基于深度卷积-反卷积神经网络的夜视图像场景识别方法,其特征在于,包括如下步骤:
步骤1:构建夜视图像数据集,夜视图像数据集中包括原始样本图像及对原始样本图像进行人工标注后的标签图像,标签图像中的标记和原始样本图像的像素一一对应;
步骤2:对原始样本图像进行镜面对称处理,并调整对应的标签图像,从而增强夜视图像数据集;
步骤3:构建深度卷积-反卷积神经网络,利用步骤2得到的增强夜视图像数据集训练该深度卷积-反卷积神经网络,其中:深度卷积-反卷积神经网络包括深度卷积神经网络及反卷积网络,通过深度卷积神经网络提取输入的原始图像的特征,从而得到特征图,再通过反卷积过程将特征图映射到原始图像的大小;
步骤4:实时获取待处理的大小为h×w的图像,将图像输入深度卷积-反卷积神经网络后,得到大小为h×w的特征图;
步骤5:将夜视图像中的物体分为k个不同类别,采用多分类算法确定步骤4得到的特征图中每个像素点所属类别,输出大小为h×w×k的概率图。
2.如权利要求1所述的一种基于深度卷积-反卷积神经网络的夜视图像场景识别方法,其特征在于,所述深度卷积神经网络为一系列的卷积、激励和池化的过程,其中,卷积采用去掉全连接层的VGG16,池化采用最大值-池化。
3.如权利要求1所述的一种基于深度卷积-反卷积神经网络的夜视图像场景识别方法,其特征在于,所述反卷积网络具有13个反卷积层。
4.如权利要求1所述的一种基于深度卷积-反卷积神经网络的夜视图像场景识别方法,其特征在于,在所述步骤5中采用Softmax分类器确定步骤4得到的特征图中每个像素点所属类别。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于东华大学,未经东华大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201611253882.8/1.html,转载请声明来源钻瓜专利网。
- 上一篇:一种沿海城市时间序列土地利用信息提取方法
- 下一篇:坐垫(9)





