CN109344701B - 一种基于Kinect的动态手势识别方法 - Google Patents
一种基于Kinect的动态手势识别方法 Download PDFInfo
- Publication number
- CN109344701B CN109344701B CN201810964621.XA CN201810964621A CN109344701B CN 109344701 B CN109344701 B CN 109344701B CN 201810964621 A CN201810964621 A CN 201810964621A CN 109344701 B CN109344701 B CN 109344701B
- Authority
- CN
- China
- Prior art keywords
- image sequence
- dynamic gesture
- color image
- human hand
- gesture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于Kinect的动态手势识别方法,包括以下步骤:用Kinect V2采集动态手势的彩色图像序列与深度图像序列;进行人手检测与分割等预处理操作;动态手势的空间特征和时序特征提取,输出空‑时特征;将输出的空‑时特征输入简单的卷积神经网络来提取更高层的空‑时特征,并用动态手势分类器进行分类;分别训练彩色图像序列和深度图像序列的动态手势分类器,并用随机森林分类器融合输出,得到最终的动态手势识别结果。本发明提出基于卷积神经网络和卷积长短时记忆网络的动态手势识别模型,用这两个部分分别处理动态手势的空间特征和时间特征,并且采用随机森林分类器融合彩色图像序列和深度图像序列的分类结果,对动态手势的识别率有较大的提升。
Description
技术领域
本发明属于计算机视觉领域,更具体地,涉及一种基于Kinect的动态手势识别方法。
背景技术
随着机器人和虚拟现实等技术的不断发展,传统的人机交互方式逐渐难以满足人与计算机之间自然交互的需求。基于视觉的手势识别作为一种新颖的人机交互技术,得到了国内外研究人员的普遍关注。然而,彩色相机受限于其光学传感器的性能,难以应对复杂的光照条件和杂乱的背景。因此,具有更多图像信息的深度相机(如Kinect)成为研究者们研究手势识别的重要工具。
尽管Kinect传感器已经成功应用于人脸识别,人体跟踪和人体动作识别等方面,但使用Kinect进行手势识别仍是一个悬而未决的问题。因为相比于人体或者人脸,人手在图像上目标更小,导致更难以定位或跟踪,而且人手有着复杂的关节结构,运动时手指部分容易发生自遮挡,这也会导致手势识别更容易受到分割错误的影响,因此总体来说识别手势仍然是非常具有挑战性的问题。
发明内容
针对现有动态手势识别方法的不足,本发明提出了一种基于Kinect的动态手势识别方法:通过卷积神经网络提取动态手势的空间特征,通过卷积长短时记忆网络提取动态手势的时间特征,用动态手势的空-时特征实现手势分类,并且融合彩色图像和深度图像的分类结果提高手势识别准确率。
本发明提供了一种基于Kinect的动态手势识别方法,包括以下步骤:
(1)用Kinect摄像头采集动态手势的图像序列,包括彩色图像序列和深度图像序列;
(2)对彩色图像序列和深度图像序列进行预处理操作,分割出图像序列中的人手;
(3)设计由4组卷积层-池化层构成的2维卷积神经网络,用于彩色图像序列或深度图像序列中动态手势的空间特征提取器,并将提取的空间特征输入两层卷积长短时记忆网络以提取动态手势的时序特征,并输出相应的动态手势的空-时特征;
(4)将卷积长短时记忆网络输出的彩色图像序列或深度图像序列的空-时特征输入简单的卷积神经网络来提取更高层的空-时特征,并将提取的空-时特征输入到相应的彩色图手势分类器或深度图手势分类器,得到当前动态手势图像序列属于各类别的概率;
(5)按照步骤(3)和(4)分别训练彩色图手势分类器和深度图手势分类器,并使用随机森林分类器进行多模型融合,将随机森林分类器输出的结果作为最终的手势识别结果。
优选地,步骤(2)包括以下子步骤:
(2-1)对于采集得到的动态手势彩色图像序列,标记每张图片上的人手位置,以这些带人手位置标记的图片作为样本,基于目标检测框架(例如,YOLO)训练出彩色图像上的人手检测器;
(2-2)用训练得到的人手检测器检测彩色图像序列上的人手位置,并通过Kinect提供的坐标映射方法,将彩色图像序列上的人手位置映射到对应的深度图像序列上,得到人手在深度图像序列上的位置;
(2-3)已知彩色图像序列上的人手位置,彩色图像序列上的人手分割方法的具体步骤为:
(2-3-1)获取彩色图像序列上人手位置处的感兴趣区域,将其从红-绿-蓝RGB颜色空间转换到色调-饱和度-亮度HSV颜色空间;
(2-3-2)对转换到HSV颜色空间的感兴趣区域,对HSV颜色空间的色调分量H进行30°的旋转;
(2-3-3)对旋转后的HSV空间中的感兴趣区域数据,计算该区域的3维HSV颜色直方图;
(2-3-4)选择3维HSV直方图中,色调分量H取值范围在[0,45]区间上的色调平面,对用每个H平面上的饱和度S、亮度V取值范围过滤彩色图上的像素,得到对应的掩膜图像,并将多个掩膜图像合并得到彩色图像上的人手分割结果;
(2-4)已知深度图像序列上的人手位置,深度图像序列上的人手分割方法的具体步骤为:
(2-4-1)获取深度图像序列上人手位置处的感兴趣区域;
(2-4-2)计算感兴趣区域的一维深度直方图;
(2-4-3)对一维深度直方图进行积分,取积分曲线上的第一个快速上升区间,将该区间终点处对应的深度值作为深度图上的人手分割阈值;
(2-4-4)感兴趣区域上深度小于人手分割阈值的区域就是分割出的人手区域;
(2-5)对人手分割后的彩色图像序列和深度图像序列进行长度规整和重采样,将不同长度的动态手势序列规整到相同的长度,其具体步骤为:
(2-5-1)对于长度为S的动态手势序列,需要将其长度规整到L,采样过程可以表示为:
公式中,Idi表示采样的第i个样本帧,jit是从[-1,1]范围内服从正态分布的随机变量。
(2-5-2)采样过程中取L=8,且尽量保持各类别样本的数量均衡。
优选地,步骤(3)设计的空-时特征提取网络,用于提取空间特征的2维卷积神经网络(2D CNN)由4个卷积层、4个最大池化层和4个批规范化层组成;用于提取时间特征的两层卷积长短时记忆网络ConvLSTM,其卷积核数量分别为256和384。
优选地,步骤(4)设计的彩色图手势分类器和深度图手势分类器均为2个卷积层和3个全连接层构成的动态手势分类网络。
优选地,步骤(5)设计的多模型融合方法具体为:使用随机森林分类器融合彩色图手势分类器和深度图手势分类器的输出。
与现有技术相比,本发明的有益效果包括:
(1)通过对动态手势图像序列进行人手定位与分割等预处理操作,可以减少环境背景对于手势识别的影响,同时也降低了整个动态手势识别框架的复杂度,从而提高了手势识别系统的可靠性和准确率。
(2)用卷积神经网络和卷积长短时记忆网络分别处理动态手势序列的空间特征和时间特征,网络的结构更加简单;同时在分类阶段结合彩色数据和深度数据的分类结果,相比传统方法进一步提高了动态手势识别的准确率。
附图说明
图1是本发明中基于Kinect的动态手势识别的流程图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
本发明的整体思路在于,提出了一种基于Kinect的动态手势识别方法,该方法总体可分为三部分:一、手势数据采集和预处理,主要是采集动态手势的彩色数据和深度数据,并且完成人手的检测与分割和动态手势序列的长度规整和重采样。二、动态手势的空-时特征提取,包括用卷积神经网络提取动态手势的空间特征,用卷积长短时记忆网络提取动态手势的时间特征;三、动态手势的分类和多模型的融合方法,包括动态手势分类网络的设计和用随机森林分类器融合彩色图像手势分类器与深度图像手势分类器的分类结果。
具体而言,本发明包括以下步骤:
一、动态手势数据采集与预处理,包括以下步骤:
(1)用Kinect摄像头采集动态手势的图像序列,包括彩色图像序列和深度图像序列;
(2)对彩色图像序列和深度图像序列进行预处理操作,分割出图像序列中的人手;
(2-1)对于采集得到的动态手势彩色图像序列,标记每张图片上的人手位置,以这些带人手位置标记的图片作为样本,基于目标检测框架(例如,YOLO)训练出彩色图像上的人手检测器;
(2-2)用训练得到的人手检测器检测彩色图像序列上的人手位置,并通过Kinect提供的坐标映射方法,将彩色图像序列上的人手位置映射到对应的深度图像序列上,得到人手在深度图像序列上的位置;
(2-3)已知彩色图像序列上的人手位置,彩色图像序列上的人手分割方法的具体步骤为:
(2-3-1)获取彩色图像序列上人手位置处的感兴趣区域,将其从红-绿-蓝(RGB)颜色空间转换到色调-饱和度-亮度(HSV)颜色空间;
(2-3-2)对转换到HSV颜色空间的感兴趣区域,对HSV颜色空间的色调分量(H)进行30°的旋转;
(2-3-3)对旋转后的HSV空间中的感兴趣区域数据,计算该区域的3维HSV颜色直方图;
(2-3-4)选择3维HSV直方图中,色调分量(H)取值范围在[0,45]区间上的色调平面,对用每个H平面上的饱和度S、亮度V取值范围过滤彩色图上的像素,得到对应的掩膜图像,并将多个掩膜图像合并得到彩色图像上的人手分割结果;
(2-4)已知深度图像序列上的人手位置,深度图像序列上的人手分割方法的具体步骤为:
(2-4-1)获取深度图像序列上人手位置处的感兴趣区域;
(2-4-2)计算感兴趣区域的一维深度直方图;
(2-4-3)对一维深度直方图进行积分,取积分曲线上的第一个快速上升区间,将该区间终点处对应的深度值作为深度图上的人手分割阈值;
(2-4-4)感兴趣区域上深度小于人手分割阈值的区域就是分割出的人手区域;
(2-5)对人手分割后的彩色图像序列和深度图像序列进行长度规整和重采样,将不同长度的动态手势序列规整到相同的长度,其具体步骤为:
(2-5-1)对于长度为S的动态手势序列,需要将其长度规整到L,采样过程可以表示为:
公式中,Idi表示采样的第i个样本帧,jit是从[-1,1]范围内服从正态分布的随机变量;
(2-5-2)采样过程中取L=8,且尽量保持各类别样本的数量均衡。
二、动态手势的空-时特征提取,包括以下步骤:
(3)设计由4组卷积层-池化层构成的2维卷积神经网络,用于彩色图像序列或深度图像序列中动态手势的空间特征提取。用于提取空间特征的2维卷积神经网络(2D CNN)由4个卷积层、4个最大池化层和4个批规范化层组成,其中最大池化层均使用2*2的大小且步长均为2。该网络模型中,共有4组卷积-池化操作过程,每组的卷积层和池化层的计算模式均相同,但每组中对应的卷积层和池化层的尺寸依次为上一组的一半。具体地,在该网络中,最初输入图像的尺寸为112*112*3像素,对该图像进行卷积操作,每次经过步长为2的最大池化层后,其输出特征图的尺寸降为原来的一半;经过4组卷积-池化过程,最后一个池化层输出的特征图尺寸变为7*7*256,即为该过程得到的最终空间特征数组;接着,将空间特征图数组向量化为一维向量,输入两层的卷积长短时记忆网络ConvLSTM以提取动态手势的时序特征,并输出动态手势的空-时特征。在这种两层的ConvLSTM中,卷积核的数量分别为256和384,在卷积运算过程均使用3*3的卷积核、1*1的步长和相同大小的填充来保证ConvLSTM层中的空时特征图具有相同的空间尺寸。该ConvLSTM网络的输出是动态手势的空-时特征,数量等于步骤(2-5)中动态手势规整后的序列长度;
三、动态手势的分类,包括以下步骤:
(4)设计由2个卷积层和3个全连接层构成的动态手势分类网络作为彩色图手势分类器或深度图手势分类器。具体地,该网络通过3*3的卷积进一步提取空时特征,并在卷积层之后使用步为2的池化层将特征图的空间尺度降低为原来的一半,经过池化层的下采样后,输出的空时特征维度为4*4*384;再将特征图维度卷积至1*1*1024,作为2级卷积层的最终输出;然后,将此特征图使用平坦化(Flatten)技术展开,并用3个全连接(FC)层和一个Softmax分类器完成手势分类的基本过程;
(5)为进一步提高分类准确率,使用随机森林分类器进行多模型融合,实现多个分类模型的结果融合,即使用随机森林分类器融合彩色图手势分类器和深度图手势分类器的输出。具体地,选择的融合对象为静态手势分类网络中Softmax分类器的输出。对于训练好的静态手势分类网络,Softmax的输出是当前手势属于18个类的概率,记为P=[p0,...,p17]。用Pc,Pd分别表示同一场景下彩色图和深度图手势分类器的输出,记此时输入样本的标签为C,则:随机森林分类器可以用三元组(Pc,Pd,C)作为样本来训练得到。这种融合方式能够充分利用不同类型数据在不同场景下可靠性不同的特点,从而提高整体的分类准确率。
本领域的技术人员容易理解,以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (5)
1.一种基于Kinect的动态手势识别方法,其特征在于,包括以下步骤:
(1)用Kinect摄像头采集动态手势的图像序列,包括彩色图像序列和深度图像序列;
(2)对彩色图像序列和深度图像序列进行预处理操作,分割出图像序列中的人手;
(3)设计由4组卷积层-池化层构成的2维卷积神经网络,用于彩色图像序列或深度图像序列中动态手势的空间特征提取,并将提取的空间特征输入两层卷积长短时记忆网络以提取动态手势的时序特征,并输出相应的动态手势的空-时特征;
(4)将卷积长短时记忆网络输出的彩色图像序列或深度图像序列的空-时特征输入简单的卷积神经网络来提取更高层的空-时特征,并将提取的空-时特征输入到相应的彩色图手势分类器或深度图手势分类器,得到当前动态手势图像序列属于各类别的概率;
(5)按照步骤(3)和(4)所得的彩色图手势分类器和深度图手势分类器,使用随机森林分类器进行多模型融合,将随机森林分类器输出的结果作为最终的手势识别结果。
2.根据权利要求1所述的一种基于Kinect的动态手势识别方法,其特征在于,步骤(2)包括以下子步骤:
(2-1)对于采集得到的动态手势彩色图像序列,标记每张图片上的人手位置,以这些带人手位置标记的图片作为样本,基于目标检测框架训练出彩色图像上的人手检测器;
(2-2)用训练得到的人手检测器检测彩色图像序列上的人手位置,并通过Kinect提供的坐标映射方法,将彩色图像序列上的人手位置映射到对应的深度图像序列上,得到人手在深度图像序列上的位置;
(2-3)已知彩色图像序列上的人手位置,彩色图像序列上的人手分割方法的具体步骤为:
(2-3-1)获取彩色图像序列上人手位置处的感兴趣区域,将其从红-绿-蓝RGB颜色空间转换到色调-饱和度-亮度HSV颜色空间;
(2-3-2)对转换到HSV颜色空间的感兴趣区域,对HSV颜色空间的色调分量H进行30°的旋转;
(2-3-3)对旋转后的HSV空间中的感兴趣区域数据,计算该区域的3维HSV颜色直方图;
(2-3-4)选择3维HSV直方图中,色调分量H取值范围在[0,45]区间上的色调平面,对用每个H平面上的饱和度S、亮度V取值范围过滤彩色图上的像素,得到对应的掩膜图像,并将多个掩膜图像合并得到彩色图像上的人手分割结果;
(2-4)已知深度图像序列上的人手位置,深度图像序列上的人手分割方法的具体步骤为:
(2-4-1)获取深度图像序列上人手位置处的感兴趣区域;
(2-4-2)计算感兴趣区域的一维深度直方图;
(2-4-3)对一维深度直方图进行积分,取积分曲线上的第一个快速上升区间,将该区间终点处对应的深度值作为深度图上的人手分割阈值;
(2-4-4)感兴趣区域上深度小于人手分割阈值的区域就是分割出的人手区域;
(2-5)对人手分割后的彩色图像序列和深度图像序列进行长度规整和重采样,将不同长度的动态手势序列规整到相同的长度,其具体步骤为:
(2-5-1)对于长度为S的动态手势序列,需要将其长度规整到L,采样过程可以表示为:
公式中,Idi表示采样的第i个样本帧,jit是从[-1,1]范围内服从正态分布的随机变量;
(2-5-2)采样过程中取L=8,且尽量保持各类别样本的数量均衡。
3.根据权利要求1所述的一种基于Kinect的动态手势识别方法,其特征在于,步骤(3)设计的空-时特征提取网络,用于提取空间特征的2维卷积神经网络CNN由4个卷积层、4个最大池化层和4个批规范化层组成;用于提取时间特征的两层卷积长短时记忆网络ConvLSTM,其卷积核数量分别为256和384。
4.根据权利要求1所述的一种基于Kinect的动态手势识别方法,其特征在于,步骤(4)设计的彩色图手势分类器和深度图手势分类器均为2个卷积层和3个全连接层构成的动态手势分类网络。
5.根据权利要求1所述的一种基于Kinect的动态手势识别方法,其特征在于,步骤(5)设计的多模型融合方法具体为:使用随机森林分类器融合彩色图手势分类器和深度图手势分类器的输出。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810964621.XA CN109344701B (zh) | 2018-08-23 | 2018-08-23 | 一种基于Kinect的动态手势识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810964621.XA CN109344701B (zh) | 2018-08-23 | 2018-08-23 | 一种基于Kinect的动态手势识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109344701A CN109344701A (zh) | 2019-02-15 |
CN109344701B true CN109344701B (zh) | 2021-11-30 |
Family
ID=65291762
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810964621.XA Active CN109344701B (zh) | 2018-08-23 | 2018-08-23 | 一种基于Kinect的动态手势识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109344701B (zh) |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110046544A (zh) * | 2019-02-27 | 2019-07-23 | 天津大学 | 基于卷积神经网络的数字手势识别方法 |
CN110046558A (zh) * | 2019-03-28 | 2019-07-23 | 东南大学 | 一种用于机器人控制的手势识别方法 |
CN110084209B (zh) * | 2019-04-30 | 2022-06-24 | 电子科技大学 | 基于父子分类器的实时性手势识别方法 |
CN110222730A (zh) * | 2019-05-16 | 2019-09-10 | 华南理工大学 | 基于惯性传感器的用户身份识别方法及识别模型构建方法 |
CN110335342B (zh) * | 2019-06-12 | 2020-12-08 | 清华大学 | 一种用于沉浸式模拟器的手部模型实时生成方法 |
CN110502981A (zh) * | 2019-07-11 | 2019-11-26 | 武汉科技大学 | 一种基于彩色信息和深度信息融合的手势识别方法 |
CN110490165B (zh) * | 2019-08-26 | 2021-05-25 | 哈尔滨理工大学 | 一种基于卷积神经网络的动态手势跟踪方法 |
CN110619288A (zh) * | 2019-08-30 | 2019-12-27 | 武汉科技大学 | 一种手势识别方法、控制装置及可读存储介质 |
CN112446403B (zh) * | 2019-09-03 | 2024-10-08 | 顺丰科技有限公司 | 装载率识别方法、装置、计算机设备和存储介质 |
CN111091045B (zh) * | 2019-10-25 | 2022-08-23 | 重庆邮电大学 | 一种基于时空注意力机制的手语识别方法 |
CN111208818B (zh) * | 2020-01-07 | 2023-03-07 | 电子科技大学 | 基于视觉时空特征的智能车预测控制方法 |
CN111291713B (zh) * | 2020-02-27 | 2023-05-16 | 山东大学 | 一种基于骨架的手势识别方法及系统 |
CN111447190A (zh) * | 2020-03-20 | 2020-07-24 | 北京观成科技有限公司 | 一种加密恶意流量的识别方法、设备及装置 |
CN111476161A (zh) * | 2020-04-07 | 2020-07-31 | 金陵科技学院 | 一种融合图像和生理信号双通道的体感动态手势识别方法 |
CN111583305B (zh) * | 2020-05-11 | 2022-06-21 | 北京市商汤科技开发有限公司 | 神经网络训练及运动轨迹确定方法、装置、设备和介质 |
CN112329544A (zh) * | 2020-10-13 | 2021-02-05 | 香港光云科技有限公司 | 基于深度信息的手势识别机器学习方法及系统 |
CN112487981A (zh) * | 2020-11-30 | 2021-03-12 | 哈尔滨工程大学 | 基于双路分割的ma-yolo动态手势快速识别方法 |
CN112957044A (zh) * | 2021-02-01 | 2021-06-15 | 上海理工大学 | 一种基于双层神经网络模型的驾驶员情绪识别系统 |
CN112926454B (zh) * | 2021-02-26 | 2023-01-06 | 重庆长安汽车股份有限公司 | 一种动态手势识别方法 |
CN113052112B (zh) * | 2021-04-02 | 2023-06-02 | 北方工业大学 | 基于混合神经网络的手势动作识别互动系统及方法 |
CN112801061A (zh) * | 2021-04-07 | 2021-05-14 | 南京百伦斯智能科技有限公司 | 一种体态识别方法及系统 |
CN114627561B (zh) * | 2022-05-16 | 2022-09-23 | 南昌虚拟现实研究院股份有限公司 | 动态手势识别方法、装置、可读存储介质及电子设备 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104899591A (zh) * | 2015-06-17 | 2015-09-09 | 吉林纪元时空动漫游戏科技股份有限公司 | 基于深度相机的手腕点和手臂点的提取方法 |
CN106022227A (zh) * | 2016-05-11 | 2016-10-12 | 苏州大学 | 一种手势识别方法及装置 |
KR20170010288A (ko) * | 2015-07-18 | 2017-01-26 | 주식회사 나무가 | Multi Kinect기반 Seamless 제스처 인식 방법 |
CN108256504A (zh) * | 2018-02-11 | 2018-07-06 | 苏州笛卡测试技术有限公司 | 一种基于深度学习的三维动态手势识别方法 |
-
2018
- 2018-08-23 CN CN201810964621.XA patent/CN109344701B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104899591A (zh) * | 2015-06-17 | 2015-09-09 | 吉林纪元时空动漫游戏科技股份有限公司 | 基于深度相机的手腕点和手臂点的提取方法 |
KR20170010288A (ko) * | 2015-07-18 | 2017-01-26 | 주식회사 나무가 | Multi Kinect기반 Seamless 제스처 인식 방법 |
CN106022227A (zh) * | 2016-05-11 | 2016-10-12 | 苏州大学 | 一种手势识别方法及装置 |
CN108256504A (zh) * | 2018-02-11 | 2018-07-06 | 苏州笛卡测试技术有限公司 | 一种基于深度学习的三维动态手势识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN109344701A (zh) | 2019-02-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109344701B (zh) | 一种基于Kinect的动态手势识别方法 | |
CN111401384B (zh) | 一种变电设备缺陷图像匹配方法 | |
WO2020108362A1 (zh) | 人体姿态检测方法、装置、设备及存储介质 | |
Chen et al. | Real‐time hand gesture recognition using finger segmentation | |
Lin | Face detection in complicated backgrounds and different illumination conditions by using YCbCr color space and neural network | |
CN108062525B (zh) | 一种基于手部区域预测的深度学习手部检测方法 | |
CN111191583A (zh) | 基于卷积神经网络的空间目标识别系统及方法 | |
CN111339975A (zh) | 基于中心尺度预测与孪生神经网络的目标检测识别跟踪方法 | |
Li et al. | An improved binocular localization method for apple based on fruit detection using deep learning | |
CN111768415A (zh) | 一种无量化池化的图像实例分割方法 | |
CN108230330B (zh) | 一种快速的高速公路路面分割和摄像机定位的方法 | |
CN114821014A (zh) | 基于多模态与对抗学习的多任务目标检测识别方法及装置 | |
CN109325408A (zh) | 一种手势判断方法及存储介质 | |
CN111209873A (zh) | 一种基于深度学习的高精度人脸关键点定位方法及系统 | |
CN109977834B (zh) | 从深度图像中分割人手与交互物体的方法和装置 | |
Galiyawala et al. | Person retrieval in surveillance video using height, color and gender | |
CN112487981A (zh) | 基于双路分割的ma-yolo动态手势快速识别方法 | |
CN113435319B (zh) | 一种联合多目标跟踪和行人角度识别的分类方法 | |
CN106909884A (zh) | 一种基于分层结构和可变形部分模型的手部区域检测方法和装置 | |
CN111652273A (zh) | 一种基于深度学习的rgb-d图像分类方法 | |
CN110599463A (zh) | 一种基于轻量级联神经网络的舌像检测及定位算法 | |
WO2023246921A1 (zh) | 目标属性识别方法、模型训练方法和装置 | |
CN110910497B (zh) | 实现增强现实地图的方法和系统 | |
Akanksha et al. | A Feature Extraction Approach for Multi-Object Detection Using HoG and LTP. | |
Zhang et al. | Pedestrian detection with EDGE features of color image and HOG on depth images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |