CN102945078A - 人机交互设备及人机交互方法 - Google Patents
人机交互设备及人机交互方法 Download PDFInfo
- Publication number
- CN102945078A CN102945078A CN2012104543440A CN201210454344A CN102945078A CN 102945078 A CN102945078 A CN 102945078A CN 2012104543440 A CN2012104543440 A CN 2012104543440A CN 201210454344 A CN201210454344 A CN 201210454344A CN 102945078 A CN102945078 A CN 102945078A
- Authority
- CN
- China
- Prior art keywords
- eeg signals
- microprocessor
- virtual scene
- scene
- target object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000003993 interaction Effects 0.000 title claims abstract description 30
- 238000000034 method Methods 0.000 title claims abstract description 19
- 238000012545 processing Methods 0.000 claims abstract description 13
- 230000033001 locomotion Effects 0.000 claims description 30
- 230000015572 biosynthetic process Effects 0.000 claims description 15
- 210000004556 brain Anatomy 0.000 claims description 13
- 230000005611 electricity Effects 0.000 claims description 12
- 238000000354 decomposition reaction Methods 0.000 claims description 5
- 239000000284 extract Substances 0.000 claims description 5
- 238000012549 training Methods 0.000 claims description 5
- 238000013507 mapping Methods 0.000 claims description 4
- 239000011521 glass Substances 0.000 claims description 3
- 230000008569 process Effects 0.000 claims description 3
- 230000007423 decrease Effects 0.000 claims description 2
- 230000009471 action Effects 0.000 abstract description 8
- 230000008859 change Effects 0.000 abstract description 5
- 230000003321 amplification Effects 0.000 description 5
- 230000002452 interceptive effect Effects 0.000 description 5
- 238000003199 nucleic acid amplification method Methods 0.000 description 5
- 230000000295 complement effect Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 210000004761 scalp Anatomy 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000036760 body temperature Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000011426 transformation method Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
一种人机交互设备,包括:脑电拾电电极,用于获取用户脑电信号;信号处理模块,用于采集脑电信号,并将脑电信号放大;视频采集模块,用于捕获用户手势动作及周围场景图,微处理器,用于接收经放大后的脑电信号,同时根据脑电信号形成控制指令,微处理器处理还用于周围场景图以形成虚拟场景,微处理器还用于根据手势动作定位虚拟场景中的目标物体,并根据控制指令控制目标物体的变化;及视频显示模块,电性连接于微处理器,用于显示虚拟场景。本发明提供的人机交互设备用户可以通过简单的手势动作和脑电信号来与实景虚拟现实交互,可操作性强、精确且简单方便。另外,本发明还提供了一种人机交互的方法。
Description
技术领域
本发明涉及多媒体技术,尤其涉及一种人机交互设备及人机交互方法。
背景技术
随着信息技术的发展和信息应用系统的普及,用户已经致力于寻求更为“好用、适用、易用”的计算机,希望在与计算机“合作共事”的过程中,计算机会逐步了解用户的需求、爱好和水平,并且用户和计算机的“学问”一起增长,这种“人机智能共增”的技术水平和应用结果是计算机技术和人工智能技术发展到一个新的阶段的重要标志之一。在以计算机或类计算机为核心的电子产品时代,人机交互技术正成为各国研究的重点之一。
在人机交互技术的早期阶段,通常以键盘为主,用户通过键盘和鼠标输入计算机指令,计算执行相应的指令;现代的人机交互方式还有触控,使用者用手或其他触控工具(例如触控笔)接触触控屏,被接触处的电阻或电容就会发生相应的变化,计算机通过采集不同点的数值,就能判断出触摸点的位置,从而可以实现一些操作如拖拽、缩放等;近来还有体感型人机交互,这种交互方式是通过遥控器内的加速度传感器感知使用者手部的运动来实现的;另外的一种交互方式是数据手套,这种方式同样是通过手套上的带有的弯曲传感器来采集人的手部动作来实现交互的。
对于传统的键盘、鼠标之类的交互方式,需要使用者接触键盘,鼠标来进行操作;触控要求使用者必须在设备前使用,接触控屏幕,远离触控屏则无法交互;体感式的交互方式,需要使用者拿着带传感器的遥控设备做出大幅度的肢体动作来操作;而对于据手套这种压力传感器接口的传感器数目较多,而且响应的标定和解耦计算十分复杂,进行实时处理时困难较大。数据手套作用范围也小;另外,数据手套可以采集肢体动作,但穿戴起来麻烦,操作不便而且对于行动不便,或肢体残疾的人,可操作性也差。
发明内容
基于此,有必要针对上述人机交互系统存在的缺陷,提供一种可操作性强、简便实用的人机交互设备。
一种人机交互设备,包括:脑电拾电电极,用于获取用户脑电信号;信号处理模块,用于采集所述脑电信号,并将所述脑电信号放大;视频采集模块,用于捕获用户手势动作及周围场景图,微处理器,用于接收经放大后的脑电信号,同时根据所述脑电信号形成控制指令,所述微处理器处理还用于所述周围场景图以形成虚拟场景,所述微处理器还用于根据所述手势动作定位所述虚拟场景中的目标物体,并根据所述控制指令控制所述目标物体的变化;及视频显示模块,电性连接于所述微处理器,用于显示所述虚拟场景。
在本实施例中,所述视频采集模块由至少1个摄像头组成。
在本实施例中,所述视频显示模块为眼镜式微显示屏
另外,本发明还提供了一种人机交互的方法,包括下述步骤:脑电拾电电极获取用户脑电信号;信号处理模块采集所述脑电信号,并将所述脑电信号放大;视频采集模块捕获用户手势动作及周围场景图;微处理器将所述周围场景图转换成虚拟场景,并通过视频采集模块显示所述虚拟场景;微处理器接收经放大后的脑电信号,同时将所述脑电信号形成控制指令;微处理器根据所述手势动作定位所述虚拟场景中的目标物体;根据所述控制指令控制所述目标物体的变化。
在本实施例中,其中,微处理器接收经放大后的脑电信号,同时根据所述脑电信号形成控制指令,包括下述步骤:将接收到的脑电信号进行去噪;将去噪后的脑电信号小波分解并提取分类特征;基于所述分类特征依据SVM训练分类器进行分类;依据所述分类形成控制指令。
在本实施例中,其中,根据所述手势动作定位所述虚拟场景中的目标物体,包括下述步骤:将所述周围场景图的坐标映射关系转换至图像平面坐标;分割出手指区域;计算出各手指区域的图像平面坐标;将上述各手指区域的图像平面坐标与上述显示的虚拟场景的图像平面坐标进行匹配。
上述人机交互设备通过采集脑电信号,将采集到的脑电信号转换成控制指令,将手势动作定位虚拟场景中的目标物体,并根据控制指令控制目标物体的变化,实现与虚拟场景交互。由于使用者无需用手接触键盘、鼠标、屏幕等这些设备,无需在手上佩戴传感器,用户可以通过简单的手势动作和脑电信号来与实景虚拟现实交互,可实现放大、缩小场景、定位、移动虚拟场景中的目标物体,可操作性强、精确且简单方便。
附图说明
图1为本发明实施例提供的一种人机交互设备的结构示意图。
图2为本发明实施例提供的一种人机交互的方法的步骤流程图。
图3为本发明实施例提供的微处理器接收经放大后的脑电信号,同时根据所述脑电信号形成控制指令的步骤流程图。
图4为本发明实施例提供的根据手势动作定位虚拟场景中的目标物体的步骤流程图。
具体实施方式
请参阅图1,图1为本发明实施例提供的一种人机交互设备100的结构示意图。
一种人机交互设备100,包括:脑电拾电电极110、信号处理模块120、视频采集模块130、微处理器140及视频显示模块150。
脑电拾电电极110用于获取用户脑电信号。可以理解,脑电拾电电极110与用户头皮接触,用于获取采集用户的脑电信号,比如注意力、眨眼、皱眉等脑电信号。
信号处理模块120电性连接于脑电拾电电极110,用于采集脑电拾电电极110获取的脑电信号,并将脑电信号放大。
视频采集模块130用于捕获用户手势动作及周围场景图。在本发明提供的实施例中,视频采集模块130优选为由至少1个摄像头组成,用户的手势动作及周围场景图被摄像头捕获。
微处理器140电性连接于信号处理模块120及视频采集模块130。微处理器140接收经信号处理模块120放大后的脑电信号,同时根据脑电信号形成控制指令。
微处理器140还用于接收由视频采集模块130捕获的周围场景图,并将周围场景图转换成虚拟场景。微处理器140还用于根据手势动作定位虚拟场景中的目标物体,并根据控制指令控制所述目标物体的变化。
视频显示模块150,电性连接于微处理器140,用于显示虚拟场景。在本发明提供的实施例中视频显示模块150优选为眼镜式微显示屏,由视频采集模块130捕获的周围场景图经视频视频显示模块150显示。可以理解,由上述控制指令控制目标物体的变化过程及结果也经视频显示模块150显示。
请参阅图2,图2为本发明实施例提供的一种人机交互的方法的步骤流程图,其包括下述步骤:
步骤S210:脑电拾电电极110获取用户脑电信号。在本发明提供的实施例中,脑电拾电电极110与用户头皮接触,用于采集用户脑电信号。用户在不同的意识形态下具有不同的脑电信号,如用户在“注意力”、“眨眼”或“皱眉”等意识形态下具有不同的脑电信号。
步骤S220:信号处理模块120采集脑电信号,并将脑电信号放大。信号处理模块120采集脑电拾电电极110获取的用户脑电信号,如“注意力”、“眨眼”或“皱眉”下的脑电信号,并将上述脑电信号进行放大。
步骤S230:视频采集模块130捕获用户手势动作及周围场景图。可以理解,视频采集模块130捕获的周围场景图为实景。
步骤S240:微处理器110将周围场景图转换成虚拟场景,并显示虚拟场景。在本发明提供的实施例中,微处理器110将视频采集模块130捕获的周围场景图进行融合、通过几何变换、剪裁、投影等矩阵运算变换,将周围场景图转换成虚拟场景,并通过视频显示模块150显示。
步骤S250:微处理器110接收经放大后的脑电信号,同时将脑电信号形成控制指令。可以理解,由于人脑的脑电信号属于意念,很难通过脑电信号直接准确定位场景中的物体,但是,如果将脑电信号转换成可以控制的控制指令,再通过控制指令来控制虚拟场景中的物体的移动、缩放、旋转等动作则是可以实现的。
请参阅图3,图3为本发明实施例提供的微处理器110接收经放大后的脑电信号,同时根据所述脑电信号形成控制指令的步骤流程图,其包括下述步骤:
步骤S251:微处理器110将接收到的脑电信号进行去噪。在本发明提供的实施例中,去噪基于目前常用的小波去噪的方法。
步骤S252:微处理器110将去噪后的脑电信号小波分解并提取数据特征。在本发明提供的实施例中,微处理器110通过小波分解提取去噪后的脑电信号数据特征。例如,微处理器110通过小波分解提取“注意力”的数据特征。
步骤S253:基于上述数据特征依据SVM训练分类器进行分类。可以理解,基于步骤S252微处理器110提取的数据特征的不同,根据SVM训练分类器进行分类。可以理解,由于“注意力”、“眨眼”或“皱眉”的数据特征的不同,利用SVM训练分类器进行分类。
步骤S254:基于上述分类形成控制指令。可以理解,根据脑电信号数据特征的不同,形成了不同的类别,不同类别对应于不同的控制指令。例如,依据“注意力”的数据特征进行分类,形成的控制指令可以是“移动”;“眨眼”则对应的控制指令可以为“放大”。
可以理解,通过上述步骤,将难以直接控制物体的脑电信号转换成可以控制物体的控制指令。
步骤S260:微处理器110根据手势动作定位虚拟场景中的目标物体。在本发明提供的实施例中,首先通过手势定位虚拟场景中的目标物体,再由上述的控制指令控制目标物体,从而实现人机的交互。
请参阅图4,图4为本发明实施例提供的根据手势动作定位虚拟场景中的目标物体的步骤流程图,其包括下述步骤:
步骤S261:将周围场景图的坐标映射关系转换至图像平面坐标。
在本发明提供的实施例中,将周围场景图的坐标映射关系转换至图像平面坐标主要采用目前常用的坐标转换方法,即首先采用三维几何的方法将周围场景图的物体坐标系变换成世界坐标系,再将世界坐标系,经过旋转、平移变换成摄像头坐标系,最后将摄像头坐标系进行三维裁剪投影得到图像坐标。
步骤S262:基于上述图像平面坐标,分割出手指区域。
可以理解,微处理器110接收由视频采集模块130捕获用户手势动作,在上述图像平面坐标基础上,微处理器110利用手指肤色及轮廓的不同分割出手指区域。具体地,基于手指肤色与背景颜色,微处理器110利用HSV颜色空间模型进行分割,进一步结合手指形状特征分割出手指区域。
步骤S263:计算出各手指区域的图像平面坐标。
步骤S264:将上述各手指区域的图像平面坐标与上述显示的虚拟场景的图像平面坐标进行匹配。
在本发明实施例中,在各手指区域的图像平面坐标内进行手指改变对应的则是与其相匹配的虚拟场景的图像平面坐标内的目标物体场景的改变,从而定位当前虚拟场景中的目标物体。例如,单个手指在定位坐标后的滑动动作可以认为是与其相匹配的目标物体场景之间的切换;两个手指间若运动方向相反且距离变小可以认为是与其相匹配的目标物体场景的缩小,运动方向相反且距离变大则认为是与其相匹配的目标物体场景的放大。
步骤S270:微处理器110根据控制指令控制上述目标物体的变化。
基于上述目标物体,微处理器110根据控制指令控制目标物体的变化。例如,当控制指令是“移动”,微处理器110根据“移动”控制目标物体执行移动动作;当控制指令是“放大”时,微处理器110根据“放大”控制目标物体执行“放大”动作。
可以理解,当单个手指对虚拟场景中的目标物体进行实时定位后,可通过脑电信号对手指当前定位的目标物体进行锁定或取消锁定。
上述人机交互设备方法,通过采集用户脑电信号,并将脑电信号进行处理,形成控制指令,并通过用户手势动作定位虚拟场景中的目标物体,控制指令控制目标物体的变化,从而实现了人机交互。由于使用者无需用手接触键盘、鼠标、屏幕等这些设备,无需在手上佩戴传感器,用户可以通过简单的手势动作和脑电信号来与实景虚拟现实交互,可实现放大、缩小场景、定位、移动虚拟场景中的目标物体,可操作性强、精确且简单方便。
以上所述,仅是本发明的较佳实施例而已,并非对本发明作任何形式上的限制,虽然本发明已以较佳实施例揭露如上,然而并非用以限定本发明,任何熟悉本专业的技术人员,在不脱离本发明技术方案范围内,当可利用上述揭示的技术内容作出些许更动或修饰为等同变化的等效实施例,但凡是未脱离本发明技术方案内容,依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化与修饰,均仍属于本发明技术方案的范围内。
Claims (6)
1.一种人机交互设备,其特征在于,包括:
脑电拾电电极,用于获取用户脑电信号;
信号处理模块,用于采集所述脑电信号,并将所述脑电信号放大;
视频采集模块,用于捕获用户手势动作及周围场景图;
微处理器,用于接收经放大后的脑电信号,同时根据所述脑电信号形成控制指令,所述微处理器处理还用于处理所述周围场景图以形成虚拟场景,所述微处理器还用于根据所述手势动作定位所述虚拟场景中的目标物体,并根据所述控制指令控制所述目标物体的变化;及
视频显示模块,电性连接于所述微处理器,用于显示所述虚拟场景。
2.根据权利要求1所述的人机交互设备,其特征在于,所述视频采集模块由至少1个摄像头组成。
3.根据权利要求1所述的人机交互设备,其特征在于,所述视频显示模块为眼镜式微显示屏。
4.一种人机交互的方法,其特征在于,包括下述步骤:
脑电拾电电极获取用户脑电信号;
信号处理模块采集所述脑电信号,并将所述脑电信号放大;
视频采集模块捕获用户手势动作及周围场景图;
微处理器将所述周围场景图转换成虚拟场景,并通过视频采集模块显示所述虚拟场景;
微处理器接收经放大后的脑电信号,同时将所述脑电信号形成控制指令;
微处理器根据所述手势动作定位所述虚拟场景中的目标物体;
根据所述控制指令控制所述目标物体的变化。
5.根据权利要求4所述的人机交互的方法,其特征在于,其中,微处理器接收经放大后的脑电信号,同时根据所述脑电信号形成控制指令,包括下述步骤:
将接收到的脑电信号进行去噪;
将去噪后的脑电信号小波分解并提取分类特征;
基于所述分类特征依据SVM训练分类器进行分类;
依据所述分类形成控制指令。
6.根据权利要求4所述的人机交互的方法,其特征在于,其中,微处理器根据所述手势动作定位所述虚拟场景中的目标物体,包括下述步骤:
将所述周围场景图的坐标映射关系转换至图像平面坐标;
基于所述图像平面坐标,分割出手指区域;
计算出各手指区域的图像平面坐标;
将上述各手指区域的图像平面坐标与上述显示的虚拟场景的图像平面坐标进行匹配。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2012104543440A CN102945078A (zh) | 2012-11-13 | 2012-11-13 | 人机交互设备及人机交互方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2012104543440A CN102945078A (zh) | 2012-11-13 | 2012-11-13 | 人机交互设备及人机交互方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN102945078A true CN102945078A (zh) | 2013-02-27 |
Family
ID=47728028
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2012104543440A Pending CN102945078A (zh) | 2012-11-13 | 2012-11-13 | 人机交互设备及人机交互方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102945078A (zh) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103955269A (zh) * | 2014-04-09 | 2014-07-30 | 天津大学 | 一种基于虚拟现实环境的智能眼镜脑-机接口方法 |
CN104615243A (zh) * | 2015-01-15 | 2015-05-13 | 深圳市掌网立体时代视讯技术有限公司 | 一种头戴式多通道交互系统及多通道交互方法 |
CN105700690A (zh) * | 2016-03-31 | 2016-06-22 | 云南省交通科学研究所 | 一种基于移动平台的脑电多媒体控制系统 |
WO2016115982A1 (en) * | 2015-01-23 | 2016-07-28 | Beijing Zhigu Rui Tuo Tech Co., Ltd. | Methods and apparatuses for determining head movement |
CN105912110A (zh) * | 2016-04-06 | 2016-08-31 | 北京锤子数码科技有限公司 | 一种在虚拟现实空间中进行目标选择的方法、装置及系统 |
CN106055383A (zh) * | 2016-05-26 | 2016-10-26 | 北京京东尚科信息技术有限公司 | 请求处理方法和装置 |
CN106249879A (zh) * | 2016-07-19 | 2016-12-21 | 深圳市金立通信设备有限公司 | 一种虚拟现实图像的显示方法及终端 |
CN106484111A (zh) * | 2016-09-30 | 2017-03-08 | 珠海市魅族科技有限公司 | 一种图像处理的方法及虚拟现实设备 |
CN107811735A (zh) * | 2017-10-23 | 2018-03-20 | 广东工业大学 | 一种辅助进食方法、系统、设备及计算机存储介质 |
CN108478189A (zh) * | 2018-03-06 | 2018-09-04 | 西安科技大学 | 一种基于脑电信号的人体外骨骼机械臂控制系统及方法 |
CN109101807A (zh) * | 2018-09-10 | 2018-12-28 | 清华大学 | 一种脑电身份权限控制系统及方法 |
CN109151555A (zh) * | 2018-10-29 | 2019-01-04 | 奇想空间(北京)教育科技有限公司 | 游乐设备以及处理视频图像的方法 |
CN109313486A (zh) * | 2016-03-14 | 2019-02-05 | 内森·斯特林·库克 | 脑波虚拟现实设备和方法 |
CN111576539A (zh) * | 2020-04-30 | 2020-08-25 | 三一重机有限公司 | 挖掘机控制方法、装置、计算机设备和可读存储介质 |
CN111624770A (zh) * | 2015-04-15 | 2020-09-04 | 索尼互动娱乐股份有限公司 | 头戴式显示器上的夹捏和保持手势导航 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6771294B1 (en) * | 1999-12-29 | 2004-08-03 | Petri Pulli | User interface |
CN1776572A (zh) * | 2005-12-08 | 2006-05-24 | 清华大学 | 基于稳态视觉诱发脑电波的计算机人机交互方法 |
CN101571748A (zh) * | 2009-06-04 | 2009-11-04 | 浙江大学 | 一种基于增强现实的脑机交互系统 |
CN101810003A (zh) * | 2007-07-27 | 2010-08-18 | 格斯图尔泰克股份有限公司 | 增强的基于相机的输入 |
CN101907954A (zh) * | 2010-07-02 | 2010-12-08 | 中国科学院深圳先进技术研究院 | 交互式投影系统及交互投影方法 |
CN102012740A (zh) * | 2010-11-15 | 2011-04-13 | 中国科学院深圳先进技术研究院 | 人机交互方法及系统 |
CN102426480A (zh) * | 2011-11-03 | 2012-04-25 | 康佳集团股份有限公司 | 一种人机交互系统及其实时手势跟踪处理方法 |
CN102749990A (zh) * | 2011-04-08 | 2012-10-24 | 索尼电脑娱乐公司 | 通过追踪用户视线和姿态提供反馈的系统和方法 |
CN102769802A (zh) * | 2012-06-11 | 2012-11-07 | 西安交通大学 | 一种智能电视机的人机交互系统及其交互方法 |
-
2012
- 2012-11-13 CN CN2012104543440A patent/CN102945078A/zh active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6771294B1 (en) * | 1999-12-29 | 2004-08-03 | Petri Pulli | User interface |
CN1776572A (zh) * | 2005-12-08 | 2006-05-24 | 清华大学 | 基于稳态视觉诱发脑电波的计算机人机交互方法 |
CN101810003A (zh) * | 2007-07-27 | 2010-08-18 | 格斯图尔泰克股份有限公司 | 增强的基于相机的输入 |
CN101571748A (zh) * | 2009-06-04 | 2009-11-04 | 浙江大学 | 一种基于增强现实的脑机交互系统 |
CN101907954A (zh) * | 2010-07-02 | 2010-12-08 | 中国科学院深圳先进技术研究院 | 交互式投影系统及交互投影方法 |
CN102012740A (zh) * | 2010-11-15 | 2011-04-13 | 中国科学院深圳先进技术研究院 | 人机交互方法及系统 |
CN102749990A (zh) * | 2011-04-08 | 2012-10-24 | 索尼电脑娱乐公司 | 通过追踪用户视线和姿态提供反馈的系统和方法 |
CN102426480A (zh) * | 2011-11-03 | 2012-04-25 | 康佳集团股份有限公司 | 一种人机交互系统及其实时手势跟踪处理方法 |
CN102769802A (zh) * | 2012-06-11 | 2012-11-07 | 西安交通大学 | 一种智能电视机的人机交互系统及其交互方法 |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103955269A (zh) * | 2014-04-09 | 2014-07-30 | 天津大学 | 一种基于虚拟现实环境的智能眼镜脑-机接口方法 |
CN104615243A (zh) * | 2015-01-15 | 2015-05-13 | 深圳市掌网立体时代视讯技术有限公司 | 一种头戴式多通道交互系统及多通道交互方法 |
US10824225B2 (en) | 2015-01-23 | 2020-11-03 | Beijing Zhigu Rui Tuo Tech Co., Ltd. | Methods and apparatuses for determining head movement |
WO2016115982A1 (en) * | 2015-01-23 | 2016-07-28 | Beijing Zhigu Rui Tuo Tech Co., Ltd. | Methods and apparatuses for determining head movement |
CN111624770B (zh) * | 2015-04-15 | 2022-05-03 | 索尼互动娱乐股份有限公司 | 头戴式显示器上的夹捏和保持手势导航 |
CN111624770A (zh) * | 2015-04-15 | 2020-09-04 | 索尼互动娱乐股份有限公司 | 头戴式显示器上的夹捏和保持手势导航 |
CN109313486A (zh) * | 2016-03-14 | 2019-02-05 | 内森·斯特林·库克 | 脑波虚拟现实设备和方法 |
CN105700690A (zh) * | 2016-03-31 | 2016-06-22 | 云南省交通科学研究所 | 一种基于移动平台的脑电多媒体控制系统 |
CN105912110A (zh) * | 2016-04-06 | 2016-08-31 | 北京锤子数码科技有限公司 | 一种在虚拟现实空间中进行目标选择的方法、装置及系统 |
CN105912110B (zh) * | 2016-04-06 | 2019-09-06 | 北京锤子数码科技有限公司 | 一种在虚拟现实空间中进行目标选择的方法、装置及系统 |
CN106055383A (zh) * | 2016-05-26 | 2016-10-26 | 北京京东尚科信息技术有限公司 | 请求处理方法和装置 |
CN106249879A (zh) * | 2016-07-19 | 2016-12-21 | 深圳市金立通信设备有限公司 | 一种虚拟现实图像的显示方法及终端 |
CN106484111A (zh) * | 2016-09-30 | 2017-03-08 | 珠海市魅族科技有限公司 | 一种图像处理的方法及虚拟现实设备 |
CN106484111B (zh) * | 2016-09-30 | 2019-06-28 | 珠海市魅族科技有限公司 | 一种图像处理的方法及虚拟现实设备 |
CN107811735B (zh) * | 2017-10-23 | 2020-01-07 | 广东工业大学 | 一种辅助进食方法、系统、设备及计算机存储介质 |
CN107811735A (zh) * | 2017-10-23 | 2018-03-20 | 广东工业大学 | 一种辅助进食方法、系统、设备及计算机存储介质 |
CN108478189A (zh) * | 2018-03-06 | 2018-09-04 | 西安科技大学 | 一种基于脑电信号的人体外骨骼机械臂控制系统及方法 |
CN109101807A (zh) * | 2018-09-10 | 2018-12-28 | 清华大学 | 一种脑电身份权限控制系统及方法 |
CN109101807B (zh) * | 2018-09-10 | 2022-12-02 | 清华大学 | 一种脑电身份权限控制系统及方法 |
CN109151555A (zh) * | 2018-10-29 | 2019-01-04 | 奇想空间(北京)教育科技有限公司 | 游乐设备以及处理视频图像的方法 |
CN111576539A (zh) * | 2020-04-30 | 2020-08-25 | 三一重机有限公司 | 挖掘机控制方法、装置、计算机设备和可读存储介质 |
CN111576539B (zh) * | 2020-04-30 | 2022-07-29 | 三一重机有限公司 | 挖掘机控制方法、装置、计算机设备和可读存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102945078A (zh) | 人机交互设备及人机交互方法 | |
Yang et al. | Gesture interaction in virtual reality | |
Quek | Eyes in the interface | |
CN105487673B (zh) | 一种人机交互系统、方法及装置 | |
CN102830797B (zh) | 一种基于视线判断的人机交互方法及系统 | |
CN103472916B (zh) | 一种基于人体手势识别的人机交互方法 | |
CN106598227A (zh) | 基于Leap Motion和Kinect的手势识别方法 | |
CN107357428A (zh) | 基于手势识别的人机交互方法及装置、系统 | |
CN103995595A (zh) | 一种基于手势的游戏体感控制方法 | |
CN105915987A (zh) | 一种面向智能电视的隐式交互方法 | |
CN104851134A (zh) | 虚拟触发与真实物体触发相结合的扩增实境系统及其方法 | |
CN109634408B (zh) | 一种Hololens手势识别的扩展方法 | |
CN102073878B (zh) | 非穿戴指势视觉识别方法 | |
Nandwana et al. | A survey paper on hand gesture recognition | |
Hartanto et al. | Real time hand gesture movements tracking and recognizing system | |
CN106383583A (zh) | 用于隔空人机交互的控制虚拟物体精确定位的方法与系统 | |
Yang et al. | 3D character recognition using binocular camera for medical assist | |
Premaratne et al. | Hand gesture tracking and recognition system for control of consumer electronics | |
Roy et al. | Real time hand gesture based user friendly human computer interaction system | |
Titlee et al. | A novel design of an intangible hand gesture controlled computer mouse using vision based image processing | |
TW201239717A (en) | Method for detecting multi-object behavior of a proximity-touch detection device | |
CN104461365A (zh) | 终端的触控方法和装置 | |
Christian et al. | Hand gesture recognition and infrared information system | |
Rustagi et al. | Virtual Control Using Hand-Tracking | |
Chan et al. | Recognition from hand cameras: A revisit with deep learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20130227 |