[发明专利]用于识别无人机型号的目标分类模型的评估方法在审
申请号: | 202210765323.4 | 申请日: | 2022-07-01 |
公开(公告)号: | CN114841082A | 公开(公告)日: | 2022-08-02 |
发明(设计)人: | 李佳航;闫梦龙;王晓明;周新鹏;回新强;孙景波 | 申请(专利权)人: | 飒铂智能科技有限责任公司 |
主分类号: | G06F30/27 | 分类号: | G06F30/27;G06F17/16;G06K9/62;G06N5/04 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 250000 山东省济南*** | 国省代码: | 山东;37 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 用于 识别 无人机 型号 目标 分类 模型 评估 方法 | ||
1.用于识别无人机型号的目标分类模型的评估方法,其特征在于,所述评估方法基于灰色直觉模糊,具体包括以下步骤:
步骤一,构建影响目标分类模型评估的层次分析结构:
所述层次分析结构包括指标层和因素层,影响模型最终评估的因素集为;
所述指标层包括分类准确度和模型推理速度,因素集包括各分类模型对不同分类类别的分类准确度和各模型推理时间;
步骤二,确定待评估的目标分类模型,各分类模型构成方案集;
步骤三,计算灰色直觉模糊评估模型的权重向量:
(1)
其中,表示第个评估因素的权重,表示的点灰度,采用层次分析法来确定的权值部分;
步骤四,计算灰色直觉模糊评估模型的评价矩阵
(2)
灰色直觉模糊评价矩阵定义在空间中,代表因素集,代表方案集,其中代表直觉模糊数,代表点灰度,评价矩阵由灰色直觉模糊数构成;
所述直觉模糊数的确定方法为:给定个评估主体,每个评估主体首先给出每一方案在每种因素下的评分值,得到个评分矩阵,接下来对每一个评分矩阵进行无量纲变换,将无量纲变换后的评分区间分成三个子集,分别代表主观的支持、中立、反对三种态度,组评分落在三个子集中的概率即为方案对该因素的隶属度、犹豫度和非隶属度;
步骤五,分析评价矩阵,筛选出正优解和负优解,计算得到候选方案与正优解的关联矩阵以及候选方案与负优解的关联矩阵,具体为:
所述正优解为,其中;
所述负优解为,其中;
候选方案与正优解的关联矩阵为:
候选方案与负优解的关联矩阵为:
第个候选方案与正优解的相对关联度为:
(3)
第个候选方案与负优解的相对关联度为:
(4)
其中:称为权重的灰度模
(5)
(6)
表示与的灰色直觉模糊数的分离度,表示与的灰色直觉模糊的分离度;
灰色直觉模糊的分离度计算方法如下:
对于两个灰色直觉模糊数,称为灰色直觉模糊数的分离度,其中,为直觉模糊数的汉明距离;
步骤六,计算第个候选方案相对贴近度
其中,和为偏好系数,,越大,候选方案越优。
2.根据权利要求1所述的方法,其特征在于,所述步骤三中采用层次分析法确定的权值部分。
3.根据权利要求1所述的方法,其特征在于,所述步骤四中,灰色直觉模糊数中的大小由得分函数确定。
4.根据权利要求1所述的方法,其特征在于,所述步骤四中,直觉模糊数和点灰度的计算方法如下:
1)不同分类类别的分类准确度的直觉模糊数计算方法如下:
目标分类模型使用Softmax函数将分类结果输出映射为每种可能的分类的概率值P,无量纲变换后,对于标签为1的类别,无量纲变换后的结果仍是P,对于标签为0的类别,无量纲变换后的结果为1-P,无量纲化后的结果都落在区间内,将区间划分为、、三个子集,其中代表分类结果错误,代表分类结果倾向性较差,代表分类结果正确;统计每一个分类模型在测试数据集中的分类结果,模型对因素的隶属度可由求得,代表测试样本的总数,代表分类结果正确的样本数目,分类结果正确即输出落在区间,采用相同方法求出直觉模糊数的非隶属度和犹豫度;
2)模型推理速度的直觉模糊数计算方法如下:
各模型的推理时间上限为,模型推理的耗时为,则模型对于推理速度指标的隶属度,非隶属度:
其中,j=1,…,n;
3)不同分类类别的分类准确度的点灰度计算方法如下:
统计测试数据集,将测试数据分为已知场景数据集和未知场景数据集两部分,将影响样本信息完备度的种类分为:测试数据集拍摄的相机数量、每种相机下的拍摄场景数量、每种拍摄场景下的样本数量,期望值分别为、、,并且期望值、、不小于测试数据的最大统计值;
测试数据集中,模型对于不同类别参与训练的同分布场景样本数量为,未参与训练的不同分布场景数据的样本数量为,则模型对因素的点灰度如下式所示:
,其中i=1,…,m-1;j=1,…n;
4)模型推理速度指标的点灰度取值为0,即。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于飒铂智能科技有限责任公司,未经飒铂智能科技有限责任公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210765323.4/1.html,转载请声明来源钻瓜专利网。