[发明专利]一种改进的不确定连续属性决策树的构建方法在审
| 申请号: | 201610551758.3 | 申请日: | 2016-07-14 |
| 公开(公告)号: | CN106611192A | 公开(公告)日: | 2017-05-03 |
| 发明(设计)人: | 金平艳;胡成华 | 申请(专利权)人: | 四川用联信息技术有限公司 |
| 主分类号: | G06K9/62 | 分类号: | G06K9/62 |
| 代理公司: | 暂无信息 | 代理人: | 暂无信息 |
| 地址: | 610054 四川省成*** | 国省代码: | 四川;51 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 改进 不确定 连续 属性 决策树 构建 方法 | ||
1.一种改进的不确定连续属性决策树的构建方法,本发明涉及机器学习、人工智能以及数据挖掘领域,具体涉及一种改进的不确定连续属性决策树的构建方法,其特征是,包括如下步骤:
步骤1:设不确定连续属性训练集中有X个样本,属性个数为n,即同时分裂属性对应了m个类,其中其中属性值具有连续不确定性
步骤2:把不确定连续数据属性的属性值合并排序,根据类对不确定性数据属性进行属性值运算,记为概率和对类进行处理得每一分支属性值的概率势
步骤3:创建根节点G
步骤4:如果训练数据集为空,则返回节点G并标记失败
步骤5:如果训练数据集中所有记录都属于同一类别,则该类型标记节点G
步骤6:如果候选属性为空,则返回G为叶子结点,标记为训练数据集中最普通的类
步骤7:由于连续属性值的不确定性,根据目标函数从候选属性中选择
步骤8:标记节点G为属性
步骤9:由节点延伸出满足条件为分支以及子分支,如果满足以下两条件之一,就停止建树,同时利用先剪支技术对决策树实施进一步优化操作
9.1这里假设为训练数据集中的样本集合,如果为空,加上一个叶子结点,根据设定的算法将此叶子结点标记为训练数据集中最普通的类
9.2此节点中所有例子属于同一类
步骤10:非9.1与9.2中情况,则递归调用步骤7至步骤9
步骤11:保存改进的连续不确定性属性的决策树分类器。
2.根据权利要求1中所述的一种改进的不确定连续属性决策树的构建方法,其特征是,以上所述步骤7中的具体计算过程如下:
步骤7:由于连续属性值的不确定性,根据下面目标函数从候选属性中选择其具体计算过程如下:
目标函数:
上式为步骤2中属性的属性值对应类为的概率势,j为属性值个数
当选择属性满足目标函数越大时,则找到标记节G。
3.根据权利要求1中所述的一种改进的不确定连续属性决策树的构建方法,其特征是,以上所述步骤9中的具体计算过程如下:
步骤9:由节点延伸出满足条件为分支以及子分支,如果满足以下两条件之一,就停止建树,同时利用先剪支技术对决策树实施进一步优化操作,其具体计算过程如下:
在建树过程中,顺序利用下列规则对树进行剪枝操作:
上式为属性值中类为L的个数,10%、为用户设定的一个阈值,只有满足用户需求,才能更好的提高决策树模型分类以及预测精度
9.1这里假设为训练数据集中的样本集合,如果为空,加上一个叶子结点,根据设定的算法将此叶子结点标记为训练数据集中最普通的类,其具体实现算法如下:
对于不确定连续属性最终树中类的确定算法:
根据步骤2中得到的 对子分支按值从大到小进行从右到左排序,从右至左进行下列运算,
上式h为树的深度,h<k, c<k
9.2此节点中所有例子属于同一类,其具体实现过程如下:
分支叶子节点的确定先对比训练集再由值大小确定,即
通过上式就可以确定叶子结点。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于四川用联信息技术有限公司,未经四川用联信息技术有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201610551758.3/1.html,转载请声明来源钻瓜专利网。





