[发明专利]具有生成对抗网络架构的异常检测装置和异常检测方法在审
申请号: | 202011421442.5 | 申请日: | 2020-12-08 |
公开(公告)号: | CN114510957A | 公开(公告)日: | 2022-05-17 |
发明(设计)人: | 赵怡翔;谢志宏;石明于 | 申请(专利权)人: | 财团法人工业技术研究院 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06N3/04;G06N3/08 |
代理公司: | 中科专利商标代理有限责任公司 11021 | 代理人: | 王文思 |
地址: | 中国台湾新竹*** | 国省代码: | 台湾;71 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 具有 生成 对抗 网络 架构 异常 检测 装置 方法 | ||
本公开提供一种具有生成对抗网络架构的异常检测装置,其利用一组多个正常信号所构成的单类别训练数据进行异常检测模型训练。异常检测装置包括编码器、生成器、判别器以及随机向量产生器,而异常检测模型训练包括依序将随机向量产生器所产生的随机隐向量输入至生成器以生成与正常信号相同维度的多个合成信号,将合成信号依序输入至判别器以产生对应的多个判别值,并且判别值小于一既定临界值时,并将对应的上述合成信号选择为训练用合成异常信号,其中利用上述正常信号作为无异常信号。
技术领域
本公开涉及一种具有生成对抗网络架构为基础的异常检测装置和异常检测方法。
背景技术
在产业应用人工智能进行瑕疵检测的导入初期,可能会遇到瑕疵与正常影像数量极不平均,甚至仅有正常样本,瑕疵样本的数量不足。一般而言,瑕疵形式多变不固定,要穷举所有瑕疵样本进行训练变得困难,因此,难以使用监督式学习方式建立准确率高的瑕疵检测模型。
因此,如何由正常样本影像,无需瑕疵样本影像的情况下,也能建立瑕疵检测模型,为本领域可改进的方向之一。
发明内容
为了达到上述的目的,本公开一方面提供了一种具有生成对抗网络架构的异常检测装置,其利用一组多个正常信号所构成的单类别训练数据,进行异常检测模型训练。其包括:一编码器,用以将其输入的信号编码为向量输出;一生成器,连接至上述编码器,其用以将其输入的向量生成一与上述正常信号相同维度的重建信号;一判别器,连接至上述生成器,其用以判断其输入的信号为真实或虚假而输出一判别值;以及一随机向量产生器,用以产生多个随机隐向量。其中,上述异常检测模型训练包括一第一训练阶段和一第二训练阶段,依序将上述随机隐向量输入至上述生成器生成与上述正常信号相同维度的多个合成信号,上述合成信号依序输入至上述判别器,产生对应的多个判别值,并且上述判别值小于一既定临界值时,将对应的上述合成信号选择为训练用合成异常信号,其中利用上述正常信号作为无异常信号。
为了达到上述的目的,本公开另一方面提供了一种异常检测方法,其适用于一包含处理器和内存的系统,上述内存包含可以执行于上述处理器的多个指令,并且使得上述处理器组态为一可以实现异常检测方法的生成对抗网络,其上述生成对抗网络的训练方法包括下列步骤:提供一组多个正常信号所构成的单类别训练数据;在第一训练阶段中,固定上述生成对抗网络中的编码器和生成器的内部参数后,进行其中判别器的训练,并且依序将上述单类别训练数据的上述正常信号输入至上述编码器,产生对应的多个第一隐向量,再将对应的上述第一隐向量输入至上述生成器,用以产生对应的多个第一重建信号;在第一训练阶段中,依序将对应的上述第一重建信号输入至上述判别器,以其对应的判别值越小为目标,对于上述判别器内部参数进行调整,并且依序将上述单类别训练数据的上述正常信号输入至上述判别器,以其对应的判别值越大为目标,对于上述判别器内部参数进行调整;以及产生多个随机隐向量输入至上述生成器生成与上述正常信号相同维度的多个合成信号,上述合成信号依序输入至上述判别器,产生对应的多个判别值,并且上述判别值小于一既定临界值时,将对应的上述合成信号选择为训练用合成异常信号。
在本公开中,上述既定临界值通过使上述训练用合成异常信号不同于上述正常信号的方式设定。上述正常信号可以是自动光学检测系统中利用光学仪器所取得的待测物的表面状态影像。
附图说明
图1示出了本公开实施例中用以实现异常检测方法的生成对抗网络的方块图;
图2示出了本公开实施例中用以实现异常检测方法的生成对抗网络的训练流程图;以及
图3示出了用以实现本公开实施例的异常检测装置和异常检测方法的计算机系统方块图。
附图标记说明
100:生成对抗网络;
10:编码器;
20:生成器;
30:判别器;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于财团法人工业技术研究院,未经财团法人工业技术研究院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011421442.5/2.html,转载请声明来源钻瓜专利网。