[发明专利]一种基于骨传导的智能输入方法和系统有效
| 申请号: | 201910213226.2 | 申请日: | 2019-03-20 |
| 公开(公告)号: | CN109933202B | 公开(公告)日: | 2021-11-30 |
| 发明(设计)人: | 伍楷舜;黄勇志;王璐;蔡少填;张健浩 | 申请(专利权)人: | 深圳大学 |
| 主分类号: | G06F3/01 | 分类号: | G06F3/01;G06K9/00;G06K9/62 |
| 代理公司: | 北京市诚辉律师事务所 11430 | 代理人: | 耿慧敏 |
| 地址: | 518060 广东*** | 国省代码: | 广东;44 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 基于 传导 智能 输入 方法 系统 | ||
本发明提供一种基于骨传导的智能输入方法和系统。该方法包括:接收来自于按键的骨传导的振动信号并进行特征提取,获得经特征提取后的振动信号;将所述经特征提取后的振动信号的时序信号序列输入至经训练的神经网络分类模型,识别出所述骨传导振动信号对应的按键类型;基于识别出的按键类型确定用户输入的文字信息。本发明提供的基于骨传导的智能输入方法和系统能够快速且精确地识别用户输入的文字信息。
技术领域
本发明涉及可穿戴设备技术领域,尤其涉及一种基于骨传导的智能输入方法和系统。
背景技术
随着智能设备的快速发展,智能设备开始扮演着加快信息的传递、增进人与人之间的交流等重要角色。为了让智能设备更方便携带,智能设备被设计得越来越小,例如智能手表、谷歌眼镜等。为了解决这些便携式智能设备的视觉体验差的缺点,智能手表的投屏技术、增强现实技术和腕带的全息投影技术逐渐地成为研究热点。智能设备作为信息交流与传递、促进人与人之间的交流的工具,解决交互的技术难题同样是非常重要的。
目前,为了克服屏幕太小而无法完成文本输入的局限性,便携式设备一般使用语音输入。然而,语音输入对用户的口音、语速,以及智能设备所处的网络环境的要求都非常高,只要这三个条件其中一个没满足,都需要用户做许多次重新输入。并且,语音输入在对外界噪声的抵抗能力上和在对隐私保护的能力上都非常不理想。
除了使用语音输入,在现有技术中,还有通过追踪手指的方法实现与智能设备的交互与输入。与此相似的一些方法则是通过一些传感器,例如压电传感器、距离传感器等,对用户的手势进行识别从而完成交互。但是,使用书写的方式进行输入,不仅麻烦而且还很慢。此外,一些研究者在中指带上一个装有加速度计的戒指,通过手指控制来选择输入的字母,而这种方法难以实现快速的打字。也有的研究者使用对声音定位的方法来识别敲击键盘的位置,但是,这些方法太过依赖环境的稳定性。也有研究者尝试设计一种新型的键盘,这种键盘是一种触摸电路,通过安装这种触摸电路来实现输入。在最新的研究中,有的研究者则是使用照相机,通过对视频的分析来识别按键,这种方法虽然便捷,但是耗能太大,不适合便携式的智能设备。有的研究者利用振动传感器获得的信号来识别事先在手臂上做的标记,但是,由于手臂的皮肤与肌肉会导致敲击位置产生偏差,从而导致敲击的信号不稳定。
因此,需要对现有技术进行改进,以提供普适性强、响应速度快和精确度高的智能输入方法。
发明内容
本发明的目的在于克服上述现有技术的缺陷,提供一种基于骨传导的智能输入方法和输入系统。
根据本发明的第一方面,提供了一种基于骨传导的智能输入方法。该方法包括以下步骤:
步骤S1,接收来自于按键的骨传导的振动信号并进行特征提取,获得经特征提取后的振动信号;
步骤S2,将所述经特征提取后的振动信号的时序信号序列输入至经训练的神经网络分类模型,识别出所述骨传导的振动信号对应的按键类型;
步骤S3,基于识别出的按键类型确定用户输入的文字信息。
在一个实施例中,步骤S1包括第一次特征提取,该第一次体征提取包括:通过振动贴片传感器对接收的振动信号进行采集;对于采集到的振动信号,使用巴氏低通滤波器去除高频的电噪声;对于去除高频噪声的振动信号,使用信号放大器进行放大;将放大后的振动信号通过模数转换器转换为对应的数字信号。
在一个实施例中,在所述第一次特征提取之后还包括:利用陷波滤波器去除高频和低频的信号噪声;对于去除高频和低频的信号噪声的振动信号,判断其是否为噪声信号;对于判断为非噪声信号的振动信号,确定切割起点和切割终点,提取所述切割起点和所述切割终点之间的信号作为待分析的目标信号。
在一个实施例中,将振动信号的幅度超过幅度阈值并且持续时间超过时间阈值的信号判断为非噪声信号。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于深圳大学,未经深圳大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910213226.2/2.html,转载请声明来源钻瓜专利网。





