[发明专利]一种基于视觉域局部自适应的计算机视觉深度学习方法在审
申请号: | 201810776763.3 | 申请日: | 2018-07-14 |
公开(公告)号: | CN108986092A | 公开(公告)日: | 2018-12-11 |
发明(设计)人: | 夏春秋 | 申请(专利权)人: | 深圳市唯特视科技有限公司 |
主分类号: | G06T7/00 | 分类号: | G06T7/00;G06T3/40 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 518057 广东省深圳市高新技术产业园*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 自适应 计算机视觉 视觉域 域信息 卷积 架构 图像 相乘 空间存储 目标图像 实验评估 特征信息 融合 处理源 连接层 源数据 源图像 映射 池化 网络 神经 规范化 学习 分类 | ||
1.一种基于视觉域局部自适应的计算机视觉深度学习方法,其特征在于,主要包括视觉域定位(一);目标和域信息融合(二);局部自适应架构的实现(三);局部自适应实验评估(四)。
2.基于权利要求书1所述的视觉域局部自适应,其特征在于,主要是通过建立一个基于目标域的模型,对源域中的已标记数据进行训练,在训练过程中令目标域中的未标记样本作为辅助信息,以达到在源域和目标域分布概率不同的情况下进行学习的目的。
3.基于权利要求书1所述的视觉域定位(一),其特征在于,将源图像和目标图像输入到一个神经卷积网络中,这个网络在图像网上进行了预训练,并且在一个单独的S形单元上进行微调以进行二元分类;采用yc=f(x)表示最后一个卷积层的Softmax函数的得分;最后一个卷积层会生成n=1,…,N个特征映射(其中i,j在宽度u和高度v之内),这些特征映射包含空间信息,能够通过计算一系列导数估计它们对最终得分的贡献,对这些函数进行如下计算可得到:
权重值可用来定义一个修正权重线性特征映射集合:
这个集合可视作一个粗略的热图;为了使热图可视化,可通过双线性内插算法对热图进行升级,并且可用热图来鉴别视觉域(c=1时为特殊域,c=2时为普通域);所得到的热图即为域映射。
4.基于权利要求书1所述的目标和域信息融合(二),其特征在于,首先网络在预训练过程中会生成一个深度卷积网络特征映射C和同等尺寸的滤波器W(在最后一个卷积层);然后,用单元相乘将目标与域信息融合,以获取不同域的共有区域的卷积映射。
5.基于权利要求书4所述的滤波器,其特征在于,可用以下公式表示:
其中,n=1,…,N;此公式包含了该滤波器对于特定分类过程所做贡献的信息;其中,ReLU函数(线性整流函数)经过了严格筛选,可将图像滤波器的灰度区像素减少到零。
6.基于权利要求书1所述的局部自适应架构的实现(三),其特征在于,主要采用Torch7(一个深度学习架构)进行;在域定位实现后,执行一个最大池化层,这个池化层是Torch7的一个扩展;紧接着对两个连接层进行规范化调整;最后在Softmax层中根据源数据对目标进行分类。
7.基于权利要求书6所述的Torch7,其特征在于,是一个多功能的数字计算框架和机器学习库,其目标是提供一个灵活的环境来设计和训练机器学习;由于使用了简单快捷的脚本语言,运行起来非常简单且高效;在局部自适应架构中,Torch7可以实现单元相乘和串联过程,并且可用来生成滤波器集成层。
8.基于权利要求书1所述的局部自适应实验评估(四),其特征在于,主要包括实验方法和实验分析。
9.基于权利要求书8所述的实验方法,其特征在于,采用转换数据集进行实验,转换数据集包括了150个目标,这些目标被平均分配到15个类别之中;每个目标都会发生变化,这是由于每个目标的获取都经历了一个独立的视觉转换过程;实验主要进行了两个方面的测试:转换和尺寸缩扩;对于转换测试,以照相机为圆心从左到右对目标进行旋转拍摄,总共拍摄150张照片,取前50张作为源图像,取后50张作为目标图像,然后基于转换数据集进行域适应;对于尺寸缩扩测试,将目标置于远离照相机的位置,然后逐步向照相机靠近进行拍摄,总共拍摄150张照片,取前50张作为源图像,取后50张作为目标图像,然后基于转换数据集进行域适应。
10.基于权利要求书8所述的实验分析,其特征在于,主要通过分析在转换和尺寸缩扩的自适应过程中域差的降低程度,来评估局部适应架构的性能。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于深圳市唯特视科技有限公司,未经深圳市唯特视科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810776763.3/1.html,转载请声明来源钻瓜专利网。