CN109271901A - 一种基于多源信息融合的手语识别方法 - Google Patents
一种基于多源信息融合的手语识别方法 Download PDFInfo
- Publication number
- CN109271901A CN109271901A CN201811012934.1A CN201811012934A CN109271901A CN 109271901 A CN109271901 A CN 109271901A CN 201811012934 A CN201811012934 A CN 201811012934A CN 109271901 A CN109271901 A CN 109271901A
- Authority
- CN
- China
- Prior art keywords
- data
- sign language
- neural network
- model
- threshold
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/02—Preprocessing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B21/00—Teaching, or communicating with, the blind, deaf or mute
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/08—Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/12—Classification; Matching
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Signal Processing (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Molecular Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Business, Economics & Management (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- Image Analysis (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明公开了一种基于多源信息融合的手语识别方法。包括:数据收集模型,数据预处理模型,神经网络模型,实时识别模型。本发明采用多传感器融合技术和深度学习的方法来对手语进行识别,并通过扬声器发出手语动作对应的声音。流程如下:1、通过表面肌肉电信号传感器(sEMG)和惯性测量单元(IMU)来收集手语动作信息,并通过蓝牙传输数据;2、通过特征提取和去噪算法对收集的数据进行数据清洗,并处理成可以输入神经网络的数据格式;3、构建双向双层LSTM神经网络,并训练保存模型;4、将模型移植到手机上,实时切割动作数据,将处理后的动作数据输入模型得到手语动作对应的标签,使用开源语言库发出动作标号对应的语音。
Description
技术领域
本发明属于计算机科学时频信号处理和循环神经网络模型构建技术领域,尤其涉及到一种基于多源信息融合的手语识别方法。
背景技术
聋哑人是不容争议的需要得到社会关注的弱势群体。如今的聋哑人沟通手段大多数借助手语,这确实为聋哑人与聋哑人,聋哑人与懂得手语的人之间搭起了沟通的桥梁。但大多数普通人并不熟悉手语,也就造成了大多数人无法和聋哑人正常交流,这在一定程度上降低了社会对聋哑人群体的关注程度,甚至造成了对聋哑人群体的歧视。因此我们团队萌生了帮助聋哑人与不懂得手语的多数人沟通的想法。
而目前的一项热点技术:可穿戴技术,吸引了我们的注意。可穿戴技术主要是指探索创造能直接穿在身上、或是整合进用户的衣服或配件的设备的科学技术。利用该技术可以把多媒体、传感器和无线通信等技术嵌入人们的衣着中,大大为人们提供便利。
聋哑人群与不懂得手语的多数人沟通急切的需求与可穿戴技术的无线、便利、益于集成等特性相结合,启发了我们开发一款聋哑人群能够独立使用的、具有完善功能的、且能被市场普遍接受的手语识别系统。
在传统实现手语识别方法中有:基于传感感器的数据手套识别方法、基于摄像头的图像识别方法、基于雷达发射器的雷达波反射识别方法、基于PPG的光线反射识别方法,以上几种手语识别方法存在各种不足,有如下缺陷:
1)数据手套过于笨重,便携性差,同时会引起过多的关注,从而造成失语者的心理压力;
2)手势间的遮挡使得很难精确识别手指变化,佩戴者无法在较暗的场景(夜晚,室内光线不足)使用,对手部的准确检测跟踪切割较为困难,限制了手语识别的实时性;
3)距离太短,变化太小,无论是可移动方式还是不可移动方式识别,均难以精确检测,同时便携性很差;
4)难以保证手指语和手势语识别的完整性,不能兼顾粗粒度和细粒度手语识别的结合。
由此,一种结合多传感器融合、循环神经网络构建、实时手语翻译、兼顾粗粒度和细粒度手语识别方法显得极其重要。
发明内容
本发明针对现有的手语识别方法的不足,提供了一种基于多源信息融合的手语识别方案,该方案目标是通过一种可穿戴设备来实现手语-语音的交互过程。系统应具有良好的可扩展性,能够通过对手语的识别从而实现语音与手势的交互以及信号与手势的交互。
本发明的技术方案为一种基于多源信息融合的手语识别方法,包含以下4个步骤:
一种基于多源信息融合的手语识别方法,其特征在于包含以下步骤:
步骤1,通过8轴表面肌肉电信号传感器sEMG和9轴惯性测量单元IMU来收集手语动作的原始信号,并通过蓝牙传输数据;
步骤2,通过数据预处理算法对原始信号进行去噪和特征提取,并处理成神经网络的输入数据格式;
步骤3,构建双向双层LSTM神经网络,并训练保存模型;
步骤4,将模型移植到手机上,实时切割sEMG数据和IMU数据,用开源语言库,将动作翻译成相应声音。
在上述的一种基于多源信息融合的手语识别方法,步骤1收集双手的sEMG信号数据和IMU数据,共计42维数据;
在上述的一种基于多源信息融合的手语识别方法,所述步骤2中,使用EMG信号强度有助于在多传感器系统中实现数据分割,包括:
步骤2.1、基于多通道EMG信号用于确定活动段的起始点和终点,将8通道sEMG信号做算术平均,之后再做db12小波变换降噪,具体基于以下公式:
其中c为信道的索引,Nc为通道数。
其中a为尺度,τ为平移量,尺度对应于频率(反比),平移量τ对应于时间。
步骤2.2、后设置阈值进行切割,使用两个阈值检测活动段,起始和偏移阈值。并且偏移阈值低于起始阈值。当EMG(t)高于起始阈值时,活动段开始,直到规定时间段内的所有样本都低于偏移阈值。
在上述的一种基于多源信息融合的手语识别方法,所述步骤3中,建议以RNN为模型实现手势块的识别,循环神经网络模型包括
Input Layer层:将已经预处理好的数据转换成符合神经网络的输入格式,为512*24的一张图,并输入神经网络;
Layer1层:双向RNN,神经网络单元为LSTM
Layer2层:双向RNN,神经网络单元为LSTM;
Output Layer层:为单词lable的输出。
在上述的一种基于多源信息融合的手语识别方法,所述步骤3中,进行训练保存模型的具体方法是:构建双向双层LSTM神经网络,将经过数据预处理的数据传进搭建好的神经网络结构,经训练结束后保存CKPT模型到本地,备后续使用。
在上述的一种基于多源信息融合的手语识别方法,步骤4所述的实时识别方法包括:
步骤4.1、实时地获取传感器数据,将8通道sEMG信号做算术平均,之后再做实时的db12小波变换降噪;
步骤4.2、设置阈值进行活动识别,使用两个阈值检测活动段,起始和偏移阈值。通常,偏移阈值低于起始阈值。当EMG(t)高于起始阈值时,活动段开始,直到规定时间段内的所有样本都低于偏移阈值。用SEMG数据的取值结果同步的取出相应的IMU数据,送入手机中存储的训练好的网络,用以输出对应的label的词语;
步骤4.3、根据词语的序号传入构建好的有限状态自动机内,更新自动机状态,最后将其组成为一个完整可行的句子,并调用开源语音库将其翻译成声音。
本发明与现有的技术相比优点在于:通过以上步骤,利用多传感器融合方案可以保证手语识别的精度。其中双手手语识别可以保证日常手语的完整性与可用性,并且,手指语识别和手势语的结合更能保证手语识别的完整性,从而兼顾了细粒度的手语识别和粗粒度的手语识别。相比于数据手套、图像识别、声波识别的实现方式,我们的方案更加轻便、功耗低、移动性强、应用场合不受限、识别率高、适合推广。
附图说明
图1是本发明的总体实现方案图。
图2是本发明的系统架构图。
图3是本发明的循环神经网络模型架构图。
具体实施方式
本发明主要基于多传感器融合技术,时频信号处理技术,循环神经网络技术,考虑到双手手语的完整性问题和细粒度手指语识别与粗粒度手势语识别问题,我们利用多传感器融合技术与神经网络相结合,来提高识别精度,提出的一种基于多源信息融合的多传感器融合手语识别系统。本系统充分考虑了手语的完整性问题,便携性问题,实时问题,将深度学习应用到手语识别系统上来,使得该系统更具现实意义。
1.实现方案:
本系统的实现方案图1所示,具体结构可以分成三部分:手语信号收集、模型识别、实时翻译。
双手手语信号收集包括:肌电传感器信号,加速计、陀螺仪、磁力计信号,和四元数。
其中模型识别又可以分成两个部分,分别是数据预处理和循环神经网络模型构建。
数据预处理又可以分为降噪和特征提取。
实时翻译可以分为实时降噪,特征提取,实时切割,以及有限状态自动机这四个部分。
2.系统架构:
该系统的系统架构描述如图2所示,本结构可以分为两层,离线模型构建和实时模型识别,其中离线模型构建又可以分成三个部分,分别是数据收集、数据预处理和循环神经网络模型构建。这三部分的作用分别是:
1)数据收集:包括8轴表面肌肉电信号传感器(sEMG)信号和9轴(包括3轴加速计、3轴陀螺仪、3轴磁力计)惯性测量单元(IMU)信号,并构建双手数据集;
2)数据预处理:在手势动作过程中所记录的多通道信号被称为活动段。手势识别的智能处理需要从输入信号的连续流中自动确定活动段的起始点和结束点。手势数据分割的过程由于运动的原因而难以实现。肌电图信号水平直接表示肌肉活动水平。当手部动作从一个动作切换到另一个动作时,相应的肌肉放松一段时间,肌电信号的振幅在运动的过程中暂时非常低。因此,使用EMG信号强度有助于在多传感器系统中实现数据分割。在我们的方法中,只有多通道EMG信号用于确定活动段的起始点和终点。将8通道sEMG信号做算术平均,之后再做db12小波变换降噪,具体做法如下:
①
其中c为信道的索引,Nc为通道数。
②
其中a为尺度,τ为平移量,尺度对应于频率(反比),平移量τ对
应于时间。
③之后设置阈值进行切割,使用两个阈值检测活动段,起始和偏移阈值。通常,偏移阈值低于起始阈值。当EMG(t)高于起始阈值时,活动段开始,直到规定时间段内的所有样本都低于偏移阈值。较高的起始阈值有助于避免错误的手势检测,而较低的偏移阈值是为了防止活动段的碎片化,因为在手势执行过程中,EMA(t)可能会在起始阈值附近振动。
3)循环神经网络模型构建:对于手势识别。我们主要是需要一个强健的分类器用于对于特定数据集的分类,且能够实时的向模型中加入新的数据集进行训练,对于手势动作这样一个时序动作,所以我们考虑以RNN为模型实现手势块的识别。
3.循环神经网络模型:
该系统的循环神经网络模型构建如图3所示:
一共分为Input Layer、Layer1、Layer2、Output Layer四部分,这四部分的作用分别是:
(1)Input Layer:将已经预处理好的数据转换成符合神经网络的输入格式,为512*24的一张图,并输入神经网络;
(2)Layer1和Layer2均是双向RNN,神经网络单元为LSTM;
(3)Output Layer为单词lable的输出。
本文中所描述的具体实施例仅仅是对本发明精神作举例说明。本发明所属技术领域的技术人员可以对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,但并不会偏离本发明的精神或者超越所附权利要求书所定义的范围。
Claims (6)
1.一种基于多源信息融合的手语识别方法,其特征在于包含以下步骤:
步骤1,通过8轴表面肌肉电信号传感器sEMG和9轴惯性测量单元IMU来收集手语动作的原始信号,并通过蓝牙传输数据;
步骤2,通过数据预处理算法对原始信号进行去噪和特征提取,并处理成神经网络的输入数据格式;
步骤3,构建双向双层LSTM神经网络,并训练保存模型;
步骤4,将模型移植到手机上,实时切割sEMG数据和IMU数据,用开源语言库,将动作翻译成相应声音。
2.如权利要求1所述的一种基于多源信息融合的手语识别方法,其特征是,
步骤1收集双手的sEMG信号数据和IMU数据,共计42维数据。
3.如权利要求1所述的一种基于多源信息融合的手语识别方法,其特征是,所述步骤2中,使用EMG信号强度有助于在多传感器系统中实现数据分割,包括:
步骤2.1、基于多通道EMG信号用于确定活动段的起始点和终点,将8通道sEMG信号做算术平均,之后再做db12小波变换降噪,具体基于以下公式:
其中c为信道的索引,Nc为通道数;
其中a为尺度,τ为平移量,尺度对应于频率,平移量τ对应于时间;
步骤2.2、后设置阈值进行切割,使用两个阈值检测活动段,起始和偏移阈值;并且偏移阈值低于起始阈值;当EMG(t)高于起始阈值时,活动段开始,直到规定时间段内的所有样本都低于偏移阈值。
4.如权利要求1所述的一种基于多源信息融合的手语识别方法,其特征是,所述步骤3中,建议以RNN为模型实现手势块的识别,循环神经网络模型包括
Input Layer层:将已经预处理好的数据转换成符合神经网络的输入格式,为512*24的一张图,并输入神经网络;
Layer1层:双向RNN,神经网络单元为LSTM
Layer2层:双向RNN,神经网络单元为LSTM;
Output Layer层:为单词lable的输出。
5.如权利要求1所述的一种基于多源信息融合的手语识别方法,其特征是,所述步骤3中,进行训练保存模型的具体方法是:构建双向双层LSTM神经网络,将经过数据预处理的数据传进搭建好的神经网络结构,经训练结束后保存CKPT模型到本地,备后续使用。
6.如权利要求1所述的一种基于多源信息融合的手语识别方法,其特征是,步骤4所述的实时识别方法包括:
步骤4.1、实时地获取传感器数据,将8通道sEMG信号做算术平均,之后再做实时的db12小波变换降噪;
步骤4.2、设置阈值进行活动识别,使用两个阈值检测活动段,起始和偏移阈值;通常,偏移阈值低于起始阈值;当EMG(t)高于起始阈值时,活动段开始,直到规定时间段内的所有样本都低于偏移阈值;用SEMG数据的取值结果同步的取出相应的IMU数据,送入手机中存储的训练好的网络,用以输出对应的label的词语;
步骤4.3、根据词语的序号传入构建好的有限状态自动机内,更新自动机状态,最后将其组成为一个完整可行的句子,并调用开源语音库将其翻译成声音。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811012934.1A CN109271901A (zh) | 2018-08-31 | 2018-08-31 | 一种基于多源信息融合的手语识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811012934.1A CN109271901A (zh) | 2018-08-31 | 2018-08-31 | 一种基于多源信息融合的手语识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109271901A true CN109271901A (zh) | 2019-01-25 |
Family
ID=65154953
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811012934.1A Pending CN109271901A (zh) | 2018-08-31 | 2018-08-31 | 一种基于多源信息融合的手语识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109271901A (zh) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110444189A (zh) * | 2019-06-18 | 2019-11-12 | 中国人民解放军军事科学院国防科技创新研究院 | 一种缄默通信方法、系统和存储介质 |
CN110909207A (zh) * | 2019-09-08 | 2020-03-24 | 东南大学 | 一种包含手语的新闻类视频描述数据集构建方法 |
CN111104960A (zh) * | 2019-10-30 | 2020-05-05 | 武汉大学 | 一种基于毫米波雷达和机器视觉的手语识别方法 |
CN111695446A (zh) * | 2020-05-26 | 2020-09-22 | 浙江工业大学 | 一种融合sEMG和AUS的手势识别方法 |
CN111914724A (zh) * | 2020-07-27 | 2020-11-10 | 合肥工业大学 | 基于滑动窗口分割的连续中国手语识别方法及其系统 |
CN112185186A (zh) * | 2020-09-30 | 2021-01-05 | 北京有竹居网络技术有限公司 | 一种发音纠正方法、装置、电子设备及存储介质 |
CN112256827A (zh) * | 2020-10-20 | 2021-01-22 | 平安科技(深圳)有限公司 | 一种手语翻译方法、装置、计算机设备及存储介质 |
CN112603758A (zh) * | 2020-12-21 | 2021-04-06 | 上海交通大学宁波人工智能研究院 | 一种基于sEMG与IMU信息融合的手势识别方法 |
WO2021135474A1 (zh) * | 2020-01-02 | 2021-07-08 | 平安科技(深圳)有限公司 | 多数据来源的数据融合方法、装置、电子设备及存储介质 |
CN113269157A (zh) * | 2020-09-29 | 2021-08-17 | 中国人民解放军军事科学院国防科技创新研究院 | 隐秘环境下融合IMU和sEMG的加密手势识别方法 |
CN113869255A (zh) * | 2021-09-30 | 2021-12-31 | 吉林大学 | 一种基于四元数的空中笔势识别方法 |
CN114863572A (zh) * | 2022-07-07 | 2022-08-05 | 四川大学 | 一种多通道异构传感器的肌电手势识别方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101794528A (zh) * | 2010-04-02 | 2010-08-04 | 北京大学软件与微电子学院无锡产学研合作教育基地 | 一种手语语音双向翻译系统 |
US20160203360A1 (en) * | 2015-01-13 | 2016-07-14 | Google Inc. | Systems and methods for performing actions in response to user gestures in captured images |
CN205644089U (zh) * | 2016-05-25 | 2016-10-12 | 苏州金螳螂文化发展股份有限公司 | 一种手势检测与识别系统 |
US20170024380A1 (en) * | 2015-07-23 | 2017-01-26 | Map Cardoso | System and method for the translation of sign languages into synthetic voices |
CN106845351A (zh) * | 2016-05-13 | 2017-06-13 | 苏州大学 | 一种用于视频的基于双向长短时记忆单元的行为识别方法 |
CN107154150A (zh) * | 2017-07-25 | 2017-09-12 | 北京航空航天大学 | 一种基于道路聚类和双层双向lstm的交通流量预测方法 |
CN107657233A (zh) * | 2017-09-28 | 2018-02-02 | 东华大学 | 基于改进型单次多目标检测器的静态手语实时识别方法 |
-
2018
- 2018-08-31 CN CN201811012934.1A patent/CN109271901A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101794528A (zh) * | 2010-04-02 | 2010-08-04 | 北京大学软件与微电子学院无锡产学研合作教育基地 | 一种手语语音双向翻译系统 |
US20160203360A1 (en) * | 2015-01-13 | 2016-07-14 | Google Inc. | Systems and methods for performing actions in response to user gestures in captured images |
US20170024380A1 (en) * | 2015-07-23 | 2017-01-26 | Map Cardoso | System and method for the translation of sign languages into synthetic voices |
CN106845351A (zh) * | 2016-05-13 | 2017-06-13 | 苏州大学 | 一种用于视频的基于双向长短时记忆单元的行为识别方法 |
CN205644089U (zh) * | 2016-05-25 | 2016-10-12 | 苏州金螳螂文化发展股份有限公司 | 一种手势检测与识别系统 |
CN107154150A (zh) * | 2017-07-25 | 2017-09-12 | 北京航空航天大学 | 一种基于道路聚类和双层双向lstm的交通流量预测方法 |
CN107657233A (zh) * | 2017-09-28 | 2018-02-02 | 东华大学 | 基于改进型单次多目标检测器的静态手语实时识别方法 |
Non-Patent Citations (3)
Title |
---|
DADAVISION: "DeepSLR-Sign-Language-Recognition", 《HTTPS://GITHUB.COM/DADAVISION/ DEEPSLR-SIGN-LANGUAGE-RECOGNITION》 * |
XU ZHANG等: "A Framework for Hand Gesture Recognition Based on Accelerometer and EMG Sensors", 《IEEE TRANSACTIONS ON SYSTEMS, MAN, AND CYBERNETICS—PART A: SYSTEMS AND HUMANS》 * |
成娟: "基于表面肌电和加速度信号融合的动作识别和人体行为分析研究", 《中国博士学位论文全文数据库_信息科技辑》 * |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110444189A (zh) * | 2019-06-18 | 2019-11-12 | 中国人民解放军军事科学院国防科技创新研究院 | 一种缄默通信方法、系统和存储介质 |
CN110909207A (zh) * | 2019-09-08 | 2020-03-24 | 东南大学 | 一种包含手语的新闻类视频描述数据集构建方法 |
CN110909207B (zh) * | 2019-09-08 | 2023-06-02 | 东南大学 | 一种包含手语的新闻类视频描述数据集构建方法 |
CN111104960A (zh) * | 2019-10-30 | 2020-05-05 | 武汉大学 | 一种基于毫米波雷达和机器视觉的手语识别方法 |
CN111104960B (zh) * | 2019-10-30 | 2022-06-14 | 武汉大学 | 一种基于毫米波雷达和机器视觉的手语识别方法 |
WO2021135474A1 (zh) * | 2020-01-02 | 2021-07-08 | 平安科技(深圳)有限公司 | 多数据来源的数据融合方法、装置、电子设备及存储介质 |
CN111695446B (zh) * | 2020-05-26 | 2021-07-27 | 浙江工业大学 | 一种融合sEMG和AUS的手势识别方法 |
CN111695446A (zh) * | 2020-05-26 | 2020-09-22 | 浙江工业大学 | 一种融合sEMG和AUS的手势识别方法 |
CN111914724A (zh) * | 2020-07-27 | 2020-11-10 | 合肥工业大学 | 基于滑动窗口分割的连续中国手语识别方法及其系统 |
CN111914724B (zh) * | 2020-07-27 | 2023-10-27 | 合肥工业大学 | 基于滑动窗口分割的连续中国手语识别方法及其系统 |
CN113269157A (zh) * | 2020-09-29 | 2021-08-17 | 中国人民解放军军事科学院国防科技创新研究院 | 隐秘环境下融合IMU和sEMG的加密手势识别方法 |
CN112185186A (zh) * | 2020-09-30 | 2021-01-05 | 北京有竹居网络技术有限公司 | 一种发音纠正方法、装置、电子设备及存储介质 |
CN112256827A (zh) * | 2020-10-20 | 2021-01-22 | 平安科技(深圳)有限公司 | 一种手语翻译方法、装置、计算机设备及存储介质 |
CN112603758A (zh) * | 2020-12-21 | 2021-04-06 | 上海交通大学宁波人工智能研究院 | 一种基于sEMG与IMU信息融合的手势识别方法 |
CN113869255A (zh) * | 2021-09-30 | 2021-12-31 | 吉林大学 | 一种基于四元数的空中笔势识别方法 |
CN114863572A (zh) * | 2022-07-07 | 2022-08-05 | 四川大学 | 一种多通道异构传感器的肌电手势识别方法 |
CN114863572B (zh) * | 2022-07-07 | 2022-09-23 | 四川大学 | 一种多通道异构传感器的肌电手势识别方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109271901A (zh) | 一种基于多源信息融合的手语识别方法 | |
CN108899050B (zh) | 基于多模态情绪识别系统的语音信号分析子系统 | |
CN108805089B (zh) | 基于多模态的情绪识别方法 | |
CN108805087B (zh) | 基于多模态情绪识别系统的时序语义融合关联判断子系统 | |
CN108877801B (zh) | 基于多模态情绪识别系统的多轮对话语义理解子系统 | |
CN108805088B (zh) | 基于多模态情绪识别系统的生理信号分析子系统 | |
WO2020083110A1 (zh) | 一种语音识别、及语音识别模型训练方法及装置 | |
US10061389B2 (en) | Gesture recognition system and gesture recognition method | |
CN110286774B (zh) | 一种基于手腕运动传感器的手语识别方法 | |
CN105739688A (zh) | 一种基于情感体系的人机交互方法、装置和交互系统 | |
CN109658949A (zh) | 一种基于深度神经网络的语音增强方法 | |
CN105938399A (zh) | 基于声学的智能设备的文本输入识别方法 | |
Xu et al. | Attention-based gait recognition and walking direction estimation in wi-fi networks | |
CN113689093A (zh) | 基于人工智能的课堂质量评估方法及系统 | |
CN110946554A (zh) | 咳嗽类型识别方法、装置及系统 | |
CN111985335A (zh) | 一种基于面部生理信息的唇语识别方法及装置 | |
CN111914724B (zh) | 基于滑动窗口分割的连续中国手语识别方法及其系统 | |
Jiang et al. | Speech emotion recognition method based on improved long short-term memory networks | |
CN109766559A (zh) | 一种手语识别翻译系统及其识别方法 | |
CN115438691B (zh) | 一种基于无线信号的小样本手势识别方法 | |
CN108831472B (zh) | 一种基于唇语识别的人工智能发声系统及发声方法 | |
CN109350072B (zh) | 一种基于人工神经网络的步频探测方法 | |
CN110826459A (zh) | 基于姿态估计的可迁移校园暴力行为视频识别方法 | |
Zhang | The algorithm of voiceprint recognition model based DNN-RELIANCE | |
CN109389994A (zh) | 用于智能交通系统的声源识别方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190125 |
|
RJ01 | Rejection of invention patent application after publication |