[发明专利]一种基于Transformer的细粒度跨模态图文检索的模型在审
申请号: | 202211266439.X | 申请日: | 2022-10-17 |
公开(公告)号: | CN115544294A | 公开(公告)日: | 2022-12-30 |
发明(设计)人: | 朱媛媛;王佳婧 | 申请(专利权)人: | 上海师范大学 |
主分类号: | G06F16/583 | 分类号: | G06F16/583;G06F16/55;G06F40/194;G06N3/04;G06N3/08 |
代理公司: | 北京索邦智慧专利代理有限公司 11879 | 代理人: | 李思奇 |
地址: | 201418 上海市奉贤*** | 国省代码: | 上海;31 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 transformer 细粒度 跨模态 图文 检索 模型 | ||
1.一种基于Transformer的细粒度跨模态图文检索的模型,其特征在于,所述具体步骤如下:
使用Faster RCNN提取图像特征,使用BERT提取文本特征,使用一堆TransformerEncoder层构建的,既用于视觉数据管道,也用于文本数据管道,Transformer Encoder以实体的序列或集合作为输入,它可以对这些实体进行推理,而不考虑它们的内在性质,将图像中的显著区域视为视觉实体,将出现的单词视为文本实体,通过汇集区域词的相似度矩阵得到最终的图文的相似度得分。
2.根据权利要求1所述的一种基于Transformer的细粒度跨模态图文检索的模型,其特征在于,所述文本处理是使用BERT来提取词嵌入,BERT已经使用多层转换器编码器来处理句子中的单词,并通过同样强大的自我注意机制来捕获它们的功能关系,BERT嵌入在一些一般的自然语言处理任务上进行了训练,如句子预测或句子分类,并在许多下游自然语言任务中展示了最先进的结果,与word2vec不同,BERT嵌入捕获了每个单词出现的上下文,因此,每个嵌入的单词都带有关于周围上下文的信息,这些信息可能会因文本而异。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于上海师范大学,未经上海师范大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202211266439.X/1.html,转载请声明来源钻瓜专利网。
- 基于Transformer+LSTM神经网络模型的商品销量预测方法及装置
- 一种基于Transformer模型自然场景文字识别方法
- 一种深度Transformer级联神经网络模型压缩算法
- 点云分割方法、系统、介质、计算机设备、终端及应用
- 基于Transformer的中文智能对话方法
- 一种基于改进Transformer模型的飞行器故障诊断方法和系统
- 一种基于Transformer模型的机器翻译模型优化方法
- 基于Transformer和增强交互型MPNN神经网络的小分子表示学习方法
- 基于U-Transformer多层次特征重构的异常检测方法及系统
- 基于EfficientDet和Transformer的航空图像中的飞机检测方法