[发明专利]多标准误分类代价敏感决策树构建方法在审
| 申请号: | 201610406793.6 | 申请日: | 2016-06-07 |
| 公开(公告)号: | CN106611185A | 公开(公告)日: | 2017-05-03 |
| 发明(设计)人: | 金平艳;胡成华 | 申请(专利权)人: | 四川用联信息技术有限公司 |
| 主分类号: | G06K9/62 | 分类号: | G06K9/62 |
| 代理公司: | 暂无信息 | 代理人: | 暂无信息 |
| 地址: | 610054 四川省成*** | 国省代码: | 四川;51 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | 本发明提出一种多标准误分类代价敏感决策树构建方法,联合误分类代价和属性信息—ASF(S)作为候选属性选择标准,选择更小ASF(S)值作为节点G,根据分裂因子指标来选择满足条件的分支。循环执行上述操作,就可以遍历整个训练样本集。本发明用于在决策树建立过程中把不同单位机制的误分类代价量化为同一单位,同时解决了误分类代价机制与属性信息之间异质性问题,最后生成的决策树避免了过拟合问题、同时分类精度得到更好的提高以及降低了误分类代价。 | ||
| 搜索关键词: | 标准 分类 代价 敏感 决策树 构建 方法 | ||
【主权项】:
多标准误分类代价敏感决策树构建方法,该方法涉及人工智能、数据挖掘和机器学习领域,其特征是,包括如下步骤:步骤1:设训练集中有X个样本,属性个数为n,即,同时分裂属性对应了m个类L,其中,,,设误分类代价矩阵为C,C由用户指定;类别标识个数为m,则该数据的代价矩阵方阵是:其中表示第类数据分为第i类的代价,如果为正确分类,则,否则为错误分类,其值由相关用户给定,这里;步骤2:创建根节点G;步骤3:如果训练数据集为空,则返回节点G并标记失败;步骤4:如果训练数据集中所有记录都属于同一类别,则以该类型标记节点G;步骤5:如果候选属性为空,则返回G为叶子节点,标记为训练数据集中最普通的类;步骤6:根据代价敏感的候选属性选择因子ASF候选属性中选择splitS;候选属性选择因子ASF:averagegain(S)为选择属性S的平均信息增益,reduce_mc(S)为选择属性S作为分裂属性时的误分类代价减少率;当选择属性splitS满足目标函数ASF(S)最小时,则找到标记节点G,如果一些属性具有相同的ASF值,为了打破平局的标准,再按照更大的reduce_mc(S)值来优先选择候选属性,这样构建的决策树优先遵从误分类代价最低的原则;步骤7:标记节点G为属性splitS;步骤8:由根据基尼指数值延伸出满足条件为分支,分支基尼指数设训练数据集X,其类有m个,那么其gini指标为:其中为分裂属性属于类的相对频率,当,即在此结点处所有样例都属于同一类,表示能得到最大有用信息;当此结点所有样例对于类别字段来讲均匀分布时,最大,表示能得到最小的有用信息;8.1这里假设为训练数据集中的样本集合,满足以下两条件之一,则终止建树;(1)如果为空,加上一个叶子节点,标记为训练数据集中最普通的类;(2)在一节点中所有例子属于相同类;步骤9:非8.1中情况,则递归调用步骤6至步骤8;步骤10:为避免决策树中存在过渡拟合问题,利用后剪支技术对决策树进行剪支操作。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于四川用联信息技术有限公司,未经四川用联信息技术有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201610406793.6/,转载请声明来源钻瓜专利网。
- 上一篇:基于资源约束代价敏感决策树构建方法
- 下一篇:异构代价敏感机制决策树构建方法





