[发明专利]基于梯度提升决策树的特征优化SSVEP异步识别方法有效
申请号: | 202010852569.6 | 申请日: | 2020-08-21 |
公开(公告)号: | CN112001305B | 公开(公告)日: | 2022-08-05 |
发明(设计)人: | 徐光华;吴永程;吴一帆;韩泽祯;马凯权 | 申请(专利权)人: | 西安交通大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62 |
代理公司: | 西安智大知识产权代理事务所 61215 | 代理人: | 贺建斌 |
地址: | 710049 陕*** | 国省代码: | 陕西;61 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 梯度 提升 决策树 特征 优化 ssvep 异步 识别 方法 | ||
1.基于梯度提升决策树的特征优化SSVEP异步识别方法,其特征在于,包括以下步骤:
1)采集被试者的异步脑电信号EEG:设计离线实验,采集被试者异步脑电数据,异步脑电数据为IC状态的时域EEG信号和NC状态的时域EEG信号;采用滑移窗的形式,按照设定窗长和窗长滑移量进行EEG信号的截取,形成原始时域EEG数据集D:D={D1,D2,D3,...,DT},其中T为数据集的数量;
2)原始时域EEG数据预处理:采用典型相关分析CCA对原始时域EEG数据集进行降维滤波处理,生成EEG频域信息CCA系数谱;选取5Hz-15Hz,频率分辨率为0.1Hz的CCA系数作为初始特征以及每段IC状态和NC状态数据的标签L,得到GBDT的训练数据集:S1={ρ1,ρ2,...,ρ101,L1},S2={ρ1,ρ2,...,ρ101,L2},...,ST={ρ1,ρ2,...,ρ101,LT},其中ρ为CCA系数;
3)模型训练:根据GBDT的训练数据集S={S1,S2,...,ST},训练梯度提升决策树GBDT模型,更新决策树GBDT模型的参数,最终获取最优参数;
4)特征优化:根据决策树GBDT的特征重要度指标对初始特征进行优化,得到最终的GBDT训练模型;
计算每个特征的重要度pi公式如下:
其中si表示该特征在所有决策树中被当成内部节点的次数,分母表示所有内部节点的总和,其含义为一个特征被当成内部节点次数所占比越大表明其重要度越高;
其特征优化的步骤为:
4.1)计算每一个特征的重要度p,并对m个特征按照重要度从大到小排序;
4.2)遍历排序后每一个重要度值pi,并将其设定阈值,对重要度大于pi值的特征进行组合;按照新的特征组合重新训练并计算其正确率;
4.3)权衡特征数和正确率,选择最优特征组合;
5)信号分类:使用GBDT训练模型对新的脑电信号进行分类,输出的分类结果为标签L;如果分类结果为IC状态,再通过比较步骤2中的CCA系数大小,取最大CCA系数对应的刺激范式频率,确定子控制意图状态IC1、IC2、IC3、...。
2.根据权利要求1所述的基于梯度提升决策树的特征优化SSVEP异步识别方法,其特征在于:所述的步骤3)中梯度提升决策树的方法是一种以CART回归树为基函数,用梯度下降法近似损失函数残差的Boosting算法,其原理如下:
梯度提升决策树的模型F(x;w)本质上是个加法模型:
其中x为输入样本,w是分类回归树的参数,T为生成的CART回归树数量,α为每个树的权重,h为分类回归树;每一轮树的学习目的都是为了拟合上一轮学习结果的残差;
算法的目标是最小化损失函数L来求解最优模型F*:
其中y是目标值,损失函数L是平方损失函数、指数损失函数、绝对损失函数或Huber损失函数;采用平方损失函数,残差rim的公式为:
其实质为泰勒公式展开的一阶导项。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西安交通大学,未经西安交通大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010852569.6/1.html,转载请声明来源钻瓜专利网。