[发明专利]一种分布式极限学习机优化集成框架方法系统及方法有效
申请号: | 201510562472.0 | 申请日: | 2015-09-07 |
公开(公告)号: | CN105184368B | 公开(公告)日: | 2018-07-31 |
发明(设计)人: | 王书强;卢哲;申妍燕;曾德威 | 申请(专利权)人: | 中国科学院深圳先进技术研究院 |
主分类号: | G06N3/08 | 分类号: | G06N3/08 |
代理公司: | 深圳市科进知识产权代理事务所(普通合伙) 44316 | 代理人: | 宋鹰武 |
地址: | 518055 广东省深圳*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明属于数据处理技术领域,尤其涉及一种分布式极限学习机优化集成框架的系统,包括数据分布存储模块、Stack‑Autoencoder特征提取模块、分布式计算模块和结果输出模块;数据分布存储模块将数据进行分布式存储,并对ELM隐层进行分析和确定;Stack‑Autoencoder特征提取模块对数据进行特征学习,获得压缩化的输入数据,并对输入数据进行归一化处理和特征提取;分布式计算模块根据输入数据进行映射和归约处理得到总体最优权值。本发明对大数据的模式分类更为精确,解决因单层ELM的节点过多造成的过拟合问题使高维矩阵的运算分块并行进行,计算效率得到提高;不用提前将数据读入内存,节省了内存资源。 | ||
搜索关键词: | 一种 分布式 极限 学习机 优化 集成 框架 方法 系统 | ||
【主权项】:
1.一种分布式极限学习机优化集成框架系统,其特征在于,包括数据分布存储模块、Stack-Autoencoder特征提取模块、分布式计算模块和结果输出模块:所述数据分布存储模块用于读入训练数据,并根据数据的类型和规模确定隐层数和隐层节点数;同时根据隐层数将数据分割为多个训练子集,并将分割的数据分布到不同的训练子集中进行存储;所述Stack-Autoencoder特征提取模块用于对分布在各个训练子集的训练数据进行特征学习,获得各个训练子集压缩化的输入数据,并对输入数据进行归一化处理和特征提取;所述分布式计算模块用于根据对各个训练子集压缩化输入数据提取的特征和隐层节点数进行映射和归约处理得到总体最优权值;所述结果输出模块用于输出最优权值分析结果;所述数据分布存储模块包括数据采集单元、分布式存储单元和隐层分析单元;其中:所述数据采集单元用于读入训练数据;所述隐层分析单元用于并根据数据的类型和规模,确定ELM隐层数和隐层节点数;所述分布式存储单元用于根据隐层数将数据分割为多个训练子集,同时将分割的数据分布到不同的训练子集中进行存储。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国科学院深圳先进技术研究院,未经中国科学院深圳先进技术研究院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201510562472.0/,转载请声明来源钻瓜专利网。