CN103399637B - 基于kinect人体骨骼跟踪控制的智能机器人人机交互方法 - Google Patents
基于kinect人体骨骼跟踪控制的智能机器人人机交互方法 Download PDFInfo
- Publication number
- CN103399637B CN103399637B CN201310327955.3A CN201310327955A CN103399637B CN 103399637 B CN103399637 B CN 103399637B CN 201310327955 A CN201310327955 A CN 201310327955A CN 103399637 B CN103399637 B CN 103399637B
- Authority
- CN
- China
- Prior art keywords
- human
- bone
- joint
- rotation angle
- straight line
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 230000003993 interaction Effects 0.000 title claims abstract description 34
- 238000000034 method Methods 0.000 title claims abstract description 23
- 210000000988 bone and bone Anatomy 0.000 claims abstract description 81
- 230000000875 corresponding effect Effects 0.000 claims abstract description 14
- 210000000707 wrist Anatomy 0.000 claims description 28
- 238000004364 calculation method Methods 0.000 claims description 12
- 210000004247 hand Anatomy 0.000 claims description 10
- 210000000323 shoulder joint Anatomy 0.000 claims description 8
- 210000002310 elbow joint Anatomy 0.000 claims description 7
- 210000003857 wrist joint Anatomy 0.000 claims description 7
- 230000002452 interceptive effect Effects 0.000 claims 1
- 238000005516 engineering process Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 4
- 230000001960 triggered effect Effects 0.000 description 3
- 230000010365 information processing Effects 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 241000699670 Mus sp. Species 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 210000002411 hand bone Anatomy 0.000 description 1
- 210000001503 joint Anatomy 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000003238 somatosensory effect Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
Landscapes
- Manipulator (AREA)
Abstract
本发明提供了一种基于kinect人体骨骼跟踪控制的智能机器人人机交互方法,3D深度传感器检测操作者的动作,获得数据帧,转化为图像,分割图像中类似于人体的物体与背景环境,获取景深数据;提取人体骨骼信息,识别人体不同部位,建立人体各关节3D坐标;识别人体双手骨骼节点转动信息,通过捕捉不同骨骼关节点角度的变化辨识是人体哪只手的触发;解析出操作者不同的动作特征,将相应字符作为控制指令发送给下位机机器人;AVR单片机主控器接收、处理字符,控制下位机机器人执行相应的动作,实现一个基于kinect人体骨骼跟踪控制的智能机器人人机交互。该方法摆脱传统外部设备对人机交互的约束,实现自然的人机交互。
Description
技术领域
本发明属于人机交互技术领域,涉及一种智能机器人人机交互方法,具体涉及一种基于kinect人体骨骼跟踪控制的智能机器人人机交互方法。
背景技术
人机交互技术是指通过计算机的输入输出设备,以便于人们使用的方式实现人与计算机之间有效交流的技术。骨骼跟踪技术是人机交互领域的一项重要技术,它在三维动画制作、网络游戏、医疗科学领域、手势捕捉以及自然人机交互环境中具有很广泛的应用前景。
键盘,鼠标和操纵杆等是传统的人机交互设备,但在使用的自然性和友好性等方面有一定的局限性。
发明内容
本发明的目的是提供一种基于kinect人体骨骼跟踪控制的智能机器人人机交互方法,舍弃传统的人机交互设备,实现自然的人机交互。
为实现上述目的,本发明所采用的技术方案是:一种基于kinect人体骨骼跟踪控制的智能机器人人机交互方法,具体按以下步骤进行:
步骤1:智能机器人上使用由kinect和PC机组成的追踪设备;启动追踪设备,初始化kinect,设置摄像头仰角,3D深度传感器检测操作者的动作,kinect从颜色流、深度流和骨架流中获得人体骨骼信息数据帧,并将获得的数据帧转化为OpenCV中的IplImage图像类型,将图像中类似于人体的物体与背景环境分割开,得到景深图像,Kinect获取该景深图像的景深数据;
步骤2:根据景深数据,提取出人体骨骼信息,以识别人体不同的部位,建立人体各个关节的3D坐标;具体为:从景深数据中优先提取出物体的主体和形状;用这些形状信息匹配人体的各个部分,计算匹配出的各个关节在人体中的位置;如果某个骨骼点位置相对于初始状态改变,初始状态是指操作者立正时的状态,则可以判断为操作者当前动作正在发生变化,骨骼点位置的改变可以通过与其对应关节转动角度的改变来追踪;
根据该人体各关节转动角度信息,识别出人体双手骨骼节点的转动信息,通过捕捉不同骨骼关节点角度的变化来辨识是人体哪只手的触发;
步骤3:根据步骤2识别的手部骨骼节点的转动信息,并且跟踪不同骨骼关节点相对于初始状态角度转动的变化,解析出操作者不同的动作特征,该动作特征触发相应的字符,将该字符作为控制指令发送给下位机机器人;
步骤4:下位机机器人接收步骤3发出的字符,AVR单片机主控器对接收到的字符进行处理,下位机机器人主控器AVR单片机控制下位机机器人执行相应的动作,如果未收到上位机发送的字符信号则继续等待;从而实现一个基于kinect人体骨骼跟踪控制的智能机器人人机交互。
本发明人机交互方法利用kinect获取人体三维骨骼点数据,通过骨骼跟踪技术处理数据,跟踪不同骨骼关节点相对于初始状态角度转动的变化,进而分解出不同动作,利用上位机软件强大的处理能力,把不同动作转化成控制字符,通过无线控制技术发送给下位机,下位机无线串口接收模块接收上位机发送的字符,通过AVR单片机主控器进行处理,控制机器人执行相应的动作,实现一种自然的人机交互,摆脱传统外部设备对人机交互的约束。
附图说明
图1是kinect能够捕捉的人体骨骼节点示意图。
图2是本发明人机交互方法流程示意图。
图3是本发明人机交互方法中采用的骨骼空间坐标系示意图。
图4是本发明的下位机处理流程示意图。
图5是本发明的人机交互示意图。
具体实施方式
下面结合附图和实施示例对本发明作进一步详细的描述:
本发明人机交互方法中的智能机器人由追踪设备和下位机机器人构成,追踪设备包括kinect和PC机,kinect用于捕获操作者骨骼节点的运动,并对获取的人体骨骼数据序列进行跟踪;PC机对kinect获取的骨骼节点进行分析,根据各骨骼节点角度变化分解出不同动作,利用自身强大的软件处理能力,把不同动作转化成控制字符,通过无线串口发送模块以字符形式发送给下位机,进而控制下位机机器人动作,实现人机交互。
kinect作为新一代的体感设备,能够实时地捕捉人体20个骨骼节点的三维空间位置,进而实现较为准确的人体骨骼节点追踪。因此,为了填补现有人机交互技术的缺陷,本发明提出了一种基于kinect人体骨骼跟踪控制的智能机器人人机交互方法,摆脱那些传统外部设备对人机交互的约束,提高人机交互的自然性与友好性。kinect能够捕捉的人体骨骼节点如图1所示,Kinect最多可以追踪人体20个骨骼节点,根据被控对象的需要,主要采用其中的左肩、左肘、左腕、左手、右肩、右肘、右腕、右手这8个骨骼节点的信息,其他骨骼节点信息在程序设计时可以用作一个辅助的阈值判断条件,以提高程序的性能。本发明人机交互方法流程图,如图2所示,具体按以下步骤进行:
步骤1:智能机器人上使用由kinect和PC机组成的追踪设备;Kinect有3颗镜头,依次为红外线发射器、普通RGB彩色摄像机和红外线CMOS摄像机;红外线发射器和红外线CMOS摄像机构成3D深度传感器;追踪设备启动后,首先完成kinect的初始化,设置摄像头仰角,3D深度传感器检测操作者的动作,打开颜色流、深度流和骨架流,从颜色流、深度流和骨架流中获得人体骨骼信息数据帧,并将获得的数据帧转化为OpenCV中的IplImage图像类型,最后对操作者骨骼进行追踪;其中,颜色流是利用普通RGB彩色摄像机完成对图像的采集;深度流则是用红外线CMOS红外摄像机通过黑白光谱来感知外部环境,CMOS红外摄像机可以计算出指定物体距离传感器的物理距离;骨架流则是将图像中类似于人体的物体与背景环境分割开,得到景深图像,然后Kinect获取该景深图像的景深数据;
由于Kinect采用了红外传感器,所以不管光照条件如何,都能准确的实现对人体骨架的识别和追踪。
步骤2:人体骨骼信息是通过处理景深数据获得的,而景深数据的获取则需要依赖Kinect传感器;Kinect传感器产生的景深数据作用有限,要利用Kinect创建真正意义上的交互,还需要在景深数据的基础上,提取出人体骨骼信息,以识别人体不同的部位,进而建立人体各个关节的3D坐标;通过景深数据提取出人体骨骼信息的过程,就是骨骼追踪,具体为:
从景深数据中优先提取出来的是物体主体和形状;然后用这些形状信息来匹配人体的各个部分,最后计算匹配出来的各个关节在人体中的位置;如果某个骨骼点位置相对于初始状态改变,初始状态是指操作者立正时的状态,则可以判断为操作者当前动作正在发生变化,骨骼点位置的改变可以通过与其对应关节转动角度的改变来追踪;具体各关节转动角度计算方法如下:
计算各关节转动角度时,先设立如图3所示的骨骼空间坐标系,操作者骨骼位置由x,y,z坐标系表示;不同于深度图像空间,这些坐标系是三维的;坐标系中的x轴、y轴和z轴表示深度传感器的主轴;
1)腰关节转动角度
利用左肩和右肩这两个骨骼节点的三维坐标(x,y,z)计算人体腰关节的转动角度;设左肩骨骼节点的三维坐标为(x 1 ,y 1 ,z 1),右肩骨骼点的三维坐标为(x 2 ,y 2 ,z 2),这两个骨骼节点在立体空间中构成一条直线l 1;l 1与x轴的夹角设为θ 1。由于腰关节在转动时y坐标不变,故只考虑xoz平面,直线l 1的方程为z=k 1 x+b 1;其中,b 1由于在腰关节的转动角度中用不到,因此未给出其计算公式;θ 1即为人体腰关节的转动角度,计算公式为:。
2)肩关节转动角度
利用右肩和右肘这两个骨骼节点的三维坐标(x,y,z)来计算人体肩关节的转动角度;设右肘骨骼节点的三维坐标为(x 3 ,y 3 ,z 3),右肩骨骼点的三维坐标为(x 2 ,y 2 ,z 2),这两个骨骼节点在立体空间中构成另一条直线l 2,l 2与y轴的夹角设为θ 2;由于肩关节在转动时z坐标不变,故只考虑xoy平面,直线l 2的方程为y 2=k 2 x+b 2;其中,b 2由于在肩关节的转动角度中用不到,因此未给出其计算公式;θ 2即为人体肩关节的转动角度,计算公式为:;
3)肘关节转动角度
利用右肩、右肘和右腕这三个骨骼节点的三维坐标(x,y,z)计算人体肘关节的转动角度;设右腕骨骼节点的三维坐标为(x 4,y 4,z 4),右肘骨骼节点的三维坐标为(x 3,y 3,z 3),右肩骨骼节点的三维坐标为(x 2,y 2,z 2),右肘骨骼节点和右腕骨骼节点构成直线l 3,右肩骨骼节点和右肘骨骼节点构成直线l 2;由于这三个骨骼节点在转动时z坐标不变,故只考虑xoy平面。直线l 3的方程为y 3=k 3 x+b 3,其中,b 3由于在肘关节的转动角度计算中用不到,故此处未给出计算公式;直线l 3与直线l 2的夹角设为θ 3,θ 3即为人体肘关节的转动角度,计算公式为:。
4)腕关节转动角度
利用右手、右肘和右腕这三个骨骼节点的三维坐标(x,y,z)来计算人体腕关节的转动角度;设右手骨骼节点的三维坐标为(x 5,y 5,z 5),右腕骨骼节点的三维坐标为(x 4,y 4,z 4),右肘骨骼节点的三维坐标为(x 3,y 3,z 3),其中右肘骨骼节点和右腕骨骼节点构成直线l 3,右手骨骼点和右腕骨骼构成直线l 4;直线l 4的方程为y 4=k 4 x+b 4,其中,b 4由于在腕关节的转动角度计算中用不到,故此处未给出计算公式。直线l 3和直线l 4的夹角设为θ 4 ,θ 4 即为人体腕关节的转动角度,计算公式为:。
Kinect自身的骨骼追踪系统可完成对操作者动作的捕捉并形成相应的人体各关节转动角度信息,根据该人体各关节转动角度信息,识别出人体双手骨骼节点的转动信息,通过捕捉不同骨骼关节点角度的变化来辨识是人体哪只手的触发;
步骤3:根据步骤2识别的手部骨骼节点的转动信息,按照步骤2计算人体腰、肩、肘和腕四个关节的转动角度的方法,并且跟踪不同骨骼关节点相对于初始状态角度转动的变化,解析出操作者不同的动作特征作为控制指令:
1)当操作者伸出左手时,也就是kinect摄像头检测到人体骨骼的左肩和左肘这2个骨骼点转动角度发生变化时,定义为伸左手,根据转动角度不同可分为左平伸和左前伸,同时把触发的左平伸和左前伸动作以字符的方式发送给下位机机器人,如将“左平伸动作”定义为字符A,如果下位机机器人接收到字符“A”,则下位机机器人也做出“左平伸动作”;
2)当操作者伸出右手时,也就是kinect摄像头检测到人体骨骼的右肩和右肘这2个骨骼点转动角度发生变化时,定义为伸右手,根据转动角度不同可分为右平伸和右前伸,同时把触发的右平伸和右前伸动作以字符的方式发送给下位机机器人;
3)当操作者伸出双手时,也就是kinect摄像头检测到人体骨骼的右肩、右肘、左肩和左肘这4个骨骼点转动角度发生变化时,定义为伸双手,根据转动角度不同可分为双手平伸和双手前伸,同时把触发的双手平伸和双手前伸动作以字符的方式发送给下位机机器人;
4)当操作者右手平伸并且右手手腕左右摇摆,也就是kinect摄像头检测到人体骨骼的右肘、右腕和右手这3个骨骼点转动角度发生变化且右腕这个骨骼点在一定角度范围内连续变化,定义为右手击打,同时把右手击打动作以字符的方式发送给下位机机器人;
5)当操作者左手平伸并且左手手腕左右摇摆,也就是kinect摄像头检测到人体骨骼的左肘、左腕、左手这3个骨骼点转动角度发生变化且左腕这个骨骼点在一定角度范围内连续变化,定义为左手击打,同时把左手击打动作以字符的方式发送给下位机机器人;
6)当操作者双手平伸并且双手手腕左右摇摆,也就是kinect摄像头检测到人体骨骼的右肘、右腕、右手、左肘、左腕和左手这6个骨骼点转动角度发生变化且左腕和右腕这两个骨骼点在一定角度范围内连续变化,定义为双手手击打,同时把双手击打动作以字符的方式发送给下位机机器人;
7)当操作者鞠躬,也就是kinect摄像头检测到人体骨骼的左肩和右肩这2个骨骼点转动角度发生变化,定义为鞠躬,同时把鞠躬动作以字符的方式发送给下位机机器人;
步骤4:下位机机器人主要是一台基于AVR单片机控制的类人型轮式机器人,通过控制该机器人躯体上舵机和脚板上的轮子使机器人完成不同动作和行走;下位机机器人通过无线串口发送模块接收步骤3发出的不同动作相对应的字符,AVR单片机主控器对接收到的字符进行处理,如图4所示,下位机机器人主控器AVR单片机程序初始化,等待上位机通过无线串口发送模块发送来的字符,如果下位机机器人通过无线串口接收模块接收到相应的字符,也就是接收到上位机的指令,下位机机器人执行相应的动作,如果未收到上位机发送的字符信号则继续等待;从而实现一个基于kinect人体骨骼跟踪控制的智能机器人人机交互,如图5所示。
实施例
初始化kinect设备,设置摄像头仰角,打开颜色流、深度流和骨架流,色彩信息处理的分辨率为640×480,深度信息处理的分辨率为320×240,采样率都为30帧每秒;通过视频流、深度流和骨架流获取图像类型,同时在PC机上启动VS2010,编译程序,编译完成后运行程序,显示人体骨骼跟踪MFC编程界面。然后打开智能机器人主控开关给机器人上电,同时给无线串口接收和发送模块上电,操作者站在距离摄像头1.2米到3.5米范围之间,当MFC编程界面检测到操作者人体骨骼节点时,操作者伸出双手,PC机收到双手触发信号,通过无线串口发送模块发送字符“C”,同时下位机无线串口接收模块收到字符“C”后,下位机机器人也做出“伸双手动作”;从而实现一个基于kinect人体骨骼跟踪控制的智能机器人人机交互。
Claims (1)
1.一种基于kinect人体骨骼跟踪控制的智能机器人人机交互方法,其特征在于,该交互方法具体按以下步骤进行:
步骤1:智能机器人上使用由kinect和PC机组成的追踪设备;启动追踪设备,初始化kinect,设置摄像头仰角,3D深度传感器检测操作者的动作,kinect从颜色流、深度流和骨架流中获得人体骨骼信息数据帧,并将获得的数据帧转化为OpenCV中的IplImage图像类型,将图像中类似于人体的物体与背景环境分割开,得到景深图像,Kinect获取该景深图像的景深数据;
步骤2:根据景深数据,提取出人体骨骼信息,以识别人体不同的部位,建立人体各个关节的3D坐标;具体为:从景深数据中优先提取出物体的主体和形状;用这些形状信息匹配人体的各个部分,计算匹配出的各个关节在人体中的位置;如果某个骨骼点位置相对于初始状态改变,初始状态是指操作者立正时的状态,则可以判断为操作者当前动作正在发生变化,骨骼点位置的改变可以通过与其对应关节转动角度的改变来追踪;
根据该人体各关节转动角度信息,识别出人体双手骨骼节点的转动信息,通过捕捉不同骨骼关节点角度的变化来辨识是人体哪只手的触发;
关节转动角度计算方法如下:
计算各关节转动角度时,先设立骨骼空间坐标系,操作者骨骼位置由x,y,z坐标系表示;不同于深度图像空间,这些坐标系是三维的;坐标系中的x轴、y轴和z轴表示深度传感器的主轴;
1)腰关节转动角度
利用左肩和右肩这两个骨骼节点的三维坐标(x,y,z)计算人体腰关节的转动角度;设左肩骨骼节点的三维坐标为(x 1 ,y 1 ,z 1),右肩骨骼点的三维坐标为(x 2 ,y 2 ,z 2),这两个骨骼节点在立体空间中构成直线l 1;l 1与x轴的夹角为θ 1;由于腰关节在转动时y坐标不变,故直线l 1的方程为z=k 1 x+b 1;其中;则人体腰关节的转动角度;
2)肩关节转动角度
利用右肩和右肘这两个骨骼节点的三维坐标(x,y,z)来计算人体肩关节的转动角度;设右肘骨骼节点的三维坐标为(x 3 ,y 3 ,z 3),右肩骨骼点的三维坐标为(x 2 ,y 2 ,z 2),这两个骨骼节点在立体空间中构成直线l 2,l 2与y轴的夹角为θ 2;由于肩关节在转动时z坐标不变,故直线l 2的方程为y 2=k 2 x+b 2;其中;则人体肩关节的转动角度;
3)肘关节转动角度
利用右肩、右肘和右腕这三个骨骼节点的三维坐标(x,y,z)计算人体肘关节的转动角度;设右腕骨骼节点的三维坐标为(x 4,y 4,z 4),右肘骨骼节点的三维坐标为(x 3,y 3,z 3),右肩骨骼节点的三维坐标为(x 2,y 2,z 2),右肘骨骼节点和右腕骨骼节点构成直线l 3,右肩骨骼节点和右肘骨骼节点构成直线l 2;由于这三个骨骼节点在转动时z坐标不变,故直线l 3的方程为y 3=k 3 x+b 3,其中;直线l 3与直线l 2的夹角θ 3为人体肘关节的转动角度;
4)腕关节转动角度
利用右手、右肘和右腕这三个骨骼节点的三维坐标(x,y,z)来计算人体腕关节的转动角度;设右手骨骼节点的三维坐标为(x 5,y 5,z 5),右腕骨骼节点的三维坐标为(x 4,y 4,z 4),右肘骨骼节点的三维坐标为(x 3,y 3,z 3),其中右肘骨骼节点和右腕骨骼节点构成直线l 3,右手骨骼点和右腕骨骼构成直线l 4;直线l 4的方程为y 4=k 4 x+b 4,其中;直线l 3和直线l 4的夹角θ 4 即为人体腕关节的转动角度;
步骤3:根据步骤2识别的手部骨骼节点的转动信息,并且跟踪不同骨骼关节点相对于初始状态角度转动的变化,解析出操作者不同的动作特征,该动作特征触发相应的字符,将该字符作为控制指令发送给下位机机器人;
步骤4:下位机机器人接收步骤3发出的字符,AVR单片机主控器对接收到的字符进行处理,下位机机器人主控器AVR单片机控制下位机机器人执行相应的动作,如果未收到上位机发送的字符信号则继续等待;从而实现一个基于kinect人体骨骼跟踪控制的智能机器人人机交互。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310327955.3A CN103399637B (zh) | 2013-07-31 | 2013-07-31 | 基于kinect人体骨骼跟踪控制的智能机器人人机交互方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310327955.3A CN103399637B (zh) | 2013-07-31 | 2013-07-31 | 基于kinect人体骨骼跟踪控制的智能机器人人机交互方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103399637A CN103399637A (zh) | 2013-11-20 |
CN103399637B true CN103399637B (zh) | 2015-12-23 |
Family
ID=49563277
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310327955.3A Expired - Fee Related CN103399637B (zh) | 2013-07-31 | 2013-07-31 | 基于kinect人体骨骼跟踪控制的智能机器人人机交互方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103399637B (zh) |
Families Citing this family (53)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104460972A (zh) * | 2013-11-25 | 2015-03-25 | 安徽寰智信息科技股份有限公司 | 一种基于Kinect的人机交互系统 |
CN103679175B (zh) * | 2013-12-13 | 2017-02-15 | 电子科技大学 | 一种基于深度摄像机的快速3d骨骼模型检测方法 |
CN103713554A (zh) * | 2013-12-26 | 2014-04-09 | 浙江师范大学 | 一种体感跟随式控制系统及应用此系统的搬运车 |
CN103760976B (zh) * | 2014-01-09 | 2016-10-05 | 华南理工大学 | 基于Kinect的手势识别智能家居控制方法及系统 |
CN104035557B (zh) * | 2014-05-22 | 2017-04-19 | 华南理工大学 | 一种基于关节活跃度的Kinect动作识别方法 |
CN104167016B (zh) * | 2014-06-16 | 2017-10-03 | 西安工业大学 | 一种基于rgb彩色与深度图像的三维运动重建方法 |
CN104227724B (zh) * | 2014-08-28 | 2017-01-18 | 北京易拓智谱科技有限公司 | 一种基于视觉识别的通用机器人末端位置的操控方法 |
CN104408396B (zh) * | 2014-08-28 | 2017-06-30 | 浙江工业大学 | 一种基于时间金字塔局部匹配窗口的动作识别方法 |
CN105578250A (zh) * | 2014-10-11 | 2016-05-11 | 乐视致新电子科技(天津)有限公司 | 基于物理模型的人机交互方法、装置及智能电视 |
CN104353240A (zh) * | 2014-11-27 | 2015-02-18 | 北京师范大学珠海分校 | 基于Kinect的跑步机系统 |
CN104440926A (zh) * | 2014-12-09 | 2015-03-25 | 重庆邮电大学 | 一种基于Kinect的机械臂体感远程控制方法及系统 |
CN104808798B (zh) * | 2015-05-14 | 2017-09-19 | 哈尔滨工业大学 | 一种基于Kinect的多屏互动民族舞娱乐系统 |
CN105710856A (zh) * | 2015-06-01 | 2016-06-29 | 李锦辉 | 远程体感控制机器人 |
WO2016206643A1 (zh) * | 2015-06-26 | 2016-12-29 | 北京贝虎机器人技术有限公司 | 机器人交互行为的控制方法、装置及机器人 |
CN105137973B (zh) * | 2015-08-21 | 2017-12-01 | 华南理工大学 | 一种人机协作场景下的机器人智能躲避人类方法 |
CN106599762A (zh) * | 2015-10-15 | 2017-04-26 | 阿里巴巴集团控股有限公司 | 动作信息识别方法和系统 |
CN106918336A (zh) * | 2015-12-25 | 2017-07-04 | 积晟电子股份有限公司 | 惯性测量模块及其惯性测量方法 |
CN105930795A (zh) * | 2016-04-20 | 2016-09-07 | 东北大学 | 一种基于人体骨骼关节点间空间向量的行走状态识别方法 |
CN105956549A (zh) * | 2016-04-28 | 2016-09-21 | 江苏大学 | 一种工人作业前安全装备及行为能力检查系统及方法 |
CN106022213B (zh) * | 2016-05-04 | 2019-06-07 | 北方工业大学 | 一种基于三维骨骼信息的人体动作识别方法 |
CN106066996B (zh) * | 2016-05-27 | 2019-07-30 | 上海理工大学 | 人体动作的局部特征表示方法及其在行为识别的应用 |
CN106095083A (zh) * | 2016-06-02 | 2016-11-09 | 深圳奥比中光科技有限公司 | 体感指令的确定方法以及体感交互装置 |
CN106095087A (zh) * | 2016-06-02 | 2016-11-09 | 深圳奥比中光科技有限公司 | 体感交互系统以及方法 |
EP3488324A1 (en) * | 2016-07-20 | 2019-05-29 | Usens, Inc. | Method and system for 3d hand skeleton tracking |
US10186130B2 (en) * | 2016-07-28 | 2019-01-22 | The Boeing Company | Using human motion sensors to detect movement when in the vicinity of hydraulic robots |
CN106272446B (zh) * | 2016-08-01 | 2019-02-12 | 纳恩博(北京)科技有限公司 | 机器人动作模拟的方法和装置 |
CN106250867B (zh) | 2016-08-12 | 2017-11-14 | 南京华捷艾米软件科技有限公司 | 一种基于深度数据的人体骨骼跟踪系统的实现方法 |
CN106651940B (zh) * | 2016-11-24 | 2020-09-18 | 深圳奥比中光科技有限公司 | 一种用于3d交互的专用处理器 |
CN107053214B (zh) * | 2017-01-13 | 2023-09-05 | 广州大学 | 一种基于体感控制的机器人对战装置及控制方法 |
EP3373114B1 (en) * | 2017-03-10 | 2019-10-09 | Alterface Projects | Tracking system and method using a depth aware camera |
CN107204000A (zh) * | 2017-04-24 | 2017-09-26 | 天津大学 | 基于Kinect深度相机的人体分割方法 |
CN107272593A (zh) * | 2017-05-23 | 2017-10-20 | 陕西科技大学 | 一种基于Kinect的机器人体感编程方法 |
CN107260179A (zh) * | 2017-06-08 | 2017-10-20 | 朱翔 | 基于惯性和体感传感器数据质量评价的人体运动跟踪方法 |
CN107336238A (zh) * | 2017-06-30 | 2017-11-10 | 北京建筑大学 | 全方位移动机器人的控制系统 |
CN107225573A (zh) * | 2017-07-05 | 2017-10-03 | 上海未来伙伴机器人有限公司 | 机器人的动作控制方法和装置 |
CN107563295B (zh) * | 2017-08-03 | 2020-07-28 | 中国科学院自动化研究所 | 基于多Kinect的全方位人体追踪方法及处理设备 |
CN107609474B (zh) * | 2017-08-07 | 2020-05-01 | 深圳市科迈爱康科技有限公司 | 肢体动作识别方法、装置、机器人及存储介质 |
CN107908288A (zh) * | 2017-11-30 | 2018-04-13 | 沈阳工业大学 | 一种面向人机交互的快速人体动作识别方法 |
CN108858188B (zh) * | 2018-06-20 | 2020-10-27 | 华南理工大学 | 一种应用于人形机器人的人体转体和位移映射方法 |
CN109330494A (zh) * | 2018-11-01 | 2019-02-15 | 珠海格力电器股份有限公司 | 基于动作识别的扫地机器人控制方法、系统、扫地机器人 |
US10957066B2 (en) | 2019-03-19 | 2021-03-23 | General Electric Company | Systems and methods for locating humans using dynamic field robotic-sensor network of human robot team |
CN109968310A (zh) * | 2019-04-12 | 2019-07-05 | 重庆渝博创智能装备研究院有限公司 | 一种机械臂交互控制方法及系统 |
CN110321798A (zh) * | 2019-06-03 | 2019-10-11 | 辽宁师范大学 | 学生课堂听课状态自动识别方法 |
CN110757471A (zh) * | 2019-09-30 | 2020-02-07 | 西安科技大学 | 一种基于计算机视觉的舞蹈机器人的系统及其操作方法 |
CN112365972A (zh) * | 2020-10-12 | 2021-02-12 | 安徽动感智能科技有限公司 | 一种基于人体模型识别的医疗辅助系统 |
CN112184898B (zh) * | 2020-10-21 | 2024-12-03 | 安徽动感智能科技有限公司 | 一种基于动作识别的数字人体建模方法 |
CN112580551A (zh) * | 2020-12-24 | 2021-03-30 | 青岛海尔科技有限公司 | 一种设备控制方法及装置 |
CN113524178A (zh) * | 2021-06-28 | 2021-10-22 | 南京大学 | 一种面向人机融合系统的数据通信方法及其装置 |
CN113580170A (zh) * | 2021-08-27 | 2021-11-02 | 孙腾阔 | 基于Kinect的多功能家庭机器人 |
CN114299604B (zh) * | 2021-11-23 | 2024-07-12 | 河北汉光重工有限责任公司 | 一种基于二维图像的手骨骼捕捉、手势判别方法 |
CN116360603A (zh) * | 2023-05-29 | 2023-06-30 | 中数元宇数字科技(上海)有限公司 | 基于时序信号匹配的交互方法、设备、介质及程序产品 |
CN116719417B (zh) * | 2023-08-07 | 2024-01-26 | 海马云(天津)信息技术有限公司 | 虚拟数字人的运动约束方法和装置、电子设备及存储介质 |
CN117340914B (zh) * | 2023-10-24 | 2024-05-14 | 哈尔滨工程大学 | 一种仿人机器人体感控制方法及控制系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102184020A (zh) * | 2010-05-18 | 2011-09-14 | 微软公司 | 用于操纵用户界面的姿势和姿势修改 |
CN102301315A (zh) * | 2009-01-30 | 2011-12-28 | 微软公司 | 姿势识别器系统架构 |
CN103112007A (zh) * | 2013-02-06 | 2013-05-22 | 华南理工大学 | 基于混合传感器的人机交互方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8564534B2 (en) * | 2009-10-07 | 2013-10-22 | Microsoft Corporation | Human tracking system |
-
2013
- 2013-07-31 CN CN201310327955.3A patent/CN103399637B/zh not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102301315A (zh) * | 2009-01-30 | 2011-12-28 | 微软公司 | 姿势识别器系统架构 |
CN102184020A (zh) * | 2010-05-18 | 2011-09-14 | 微软公司 | 用于操纵用户界面的姿势和姿势修改 |
CN103112007A (zh) * | 2013-02-06 | 2013-05-22 | 华南理工大学 | 基于混合传感器的人机交互方法 |
Non-Patent Citations (1)
Title |
---|
基于Kinect系统的场景建模与机器人自主导航;杨东方等;《机器人》;20120930;第34卷(第5期);第581-589页 * |
Also Published As
Publication number | Publication date |
---|---|
CN103399637A (zh) | 2013-11-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103399637B (zh) | 基于kinect人体骨骼跟踪控制的智能机器人人机交互方法 | |
Qian et al. | Developing a gesture based remote human-robot interaction system using kinect | |
CN108762495B (zh) | 基于手臂动作捕捉的虚拟现实驱动方法及虚拟现实系统 | |
CN102778953B (zh) | 基于Kinect的皮影戏远程数字表演的体感控制方法 | |
CN109044651B (zh) | 未知环境中基于自然手势指令的智能轮椅控制方法及系统 | |
CN103529944B (zh) | 一种基于Kinect的人体动作识别方法 | |
CN110815189B (zh) | 基于混合现实的机器人快速示教系统及方法 | |
CN105252532A (zh) | 动作捕捉机器人协同柔性姿态控制的方法 | |
CN104777775A (zh) | 一种基于Kinect装置的两轮自平衡机器人控制方法 | |
CN110471526A (zh) | 一种人体姿态估计与手势识别结合的无人机控制方法 | |
CN106346485A (zh) | 基于人手运动姿态学习的仿生机械手的非接触式控制方法 | |
CN104570731A (zh) | 一种基于Kinect的无标定人机交互控制系统及方法 | |
CN111694428A (zh) | 基于Kinect的手势与轨迹远程控制机器人系统 | |
CN107632699A (zh) | 基于多感知数据融合的人机自然交互系统 | |
CN103977539A (zh) | 颈椎康复保健辅助训练系统 | |
CN103942829A (zh) | 单幅图像的人体三维姿态重构方法 | |
CN105302021A (zh) | 人机协作再制造中控制机器人运动的穿戴式手势控制装置 | |
CN102402291A (zh) | 一种肢体姿势识别方法及装置 | |
CN102830798A (zh) | 单臂机器人基于Kinect的无标记人手跟踪方法 | |
CN115686193A (zh) | 一种增强现实环境下虚拟模型三维手势操纵方法及系统 | |
CN101422656A (zh) | 可感应人体动作的电子游戏操控装置 | |
CN108621164A (zh) | 基于深度相机的太极推手机器人 | |
CN105034006B (zh) | 一种基于LeapMotion设备的猜拳机器人及猜拳手势识别方法 | |
CN108115671B (zh) | 基于3d视觉传感器的双臂机器人控制方法及系统 | |
Ai et al. | Implementing multi-DOF trajectory tracking control system for robotic arm experimental platform |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20151223 Termination date: 20160731 |