CN108388351A - 一种混合现实体验系统 - Google Patents
一种混合现实体验系统 Download PDFInfo
- Publication number
- CN108388351A CN108388351A CN201810324842.0A CN201810324842A CN108388351A CN 108388351 A CN108388351 A CN 108388351A CN 201810324842 A CN201810324842 A CN 201810324842A CN 108388351 A CN108388351 A CN 108388351A
- Authority
- CN
- China
- Prior art keywords
- touch
- equipment
- mixed reality
- stereoscopic display
- data processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000002452 interceptive effect Effects 0.000 claims abstract description 40
- 230000007613 environmental effect Effects 0.000 claims description 13
- 230000003993 interaction Effects 0.000 claims description 5
- 241001481828 Glyptocephalus cynoglossus Species 0.000 claims description 3
- 230000001360 synchronised effect Effects 0.000 claims description 3
- 239000007787 solid Substances 0.000 claims description 2
- 230000000694 effects Effects 0.000 description 8
- 238000003384 imaging method Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 238000000034 method Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000001788 irregular Effects 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 210000000697 sensory organ Anatomy 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明涉及混合现实技术领域,提出一种混合现实体验系统。该系统包括动作捕捉设备、数据处理设备、触控交互设备和立体显示设备;所述数据处理设备分别与所述动作捕捉设备、所述触控交互设备、所述立体显示设备连接。本发明摒弃了传统的头戴式显示设备,转而采用独立的立体显示设备进行影像的展示,能够避免用户穿戴不适的问题。另外,同时采用动作捕捉设备和触控交互设备作为交互设备,能够实现多用户的同时体验。
Description
技术领域
本发明涉及混合现实技术领域,尤其涉及一种混合现实体验系统。
背景技术
混合现实技术(MR)是虚拟现实技术的进一步发展,该技术通过在现实场景呈现虚拟场景信息,在现实世界、虚拟世界和用户之间搭起一个交互反馈的信息回路,以增强用户体验的真实感。
目前,用户一般通过可穿戴式显示设备来体验混合现实,比如使用微软公司的Hololens头显。然而,可穿戴式显示设备比较笨重,用户在穿戴时会出现不适;而且,可穿戴式显示设备每次只能由一个人佩戴,无法实现多人同时体验。
发明内容
有鉴于此,本发明实施例提供了一种混合现实体验系统,旨在解决采用可穿戴显示设备体验混合现实时产生的用户不适,以及无法实现多人同时体验的问题。
本发明实施例提供了一种混合现实体验系统,包括动作捕捉设备、数据处理设备、触控交互设备和立体显示设备;
所述数据处理设备分别与所述动作捕捉设备、所述触控交互设备、所述立体显示设备连接;
所述动作捕捉设备,用于采集环境信息以及捕捉用户的动作信息,并将所述环境信息和所述动作信息发送给所述数据处理设备;
所述触控交互设备,用于获取用户的操作信息,并将所述操作信息发送给所述数据处理设备;
所述数据处理设备,用于根据所述环境信息、所述动作信息和所述操作信息生成包含虚拟信息的三维影像,并将所述三维影像发送给所述立体显示设备;
所述立体显示设备,用于显示所述三维影像。
本发明实施例提出的混合现实体验系统摒弃了传统的头戴式显示设备,转而采用独立的立体显示设备进行影像的展示,能够避免用户穿戴不适的问题。另外,本系统同时采用动作捕捉设备和触控交互设备作为交互设备,能够实现多用户的同时体验。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的一种混合现实体验系统的第一个实施例的结构图;
图2是本发明实施例提供的一种混合现实体验系统的第二个实施例的结构图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本发明实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本发明。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本发明的描述。
本发明实施例提供了一种混合现实体验系统,旨在解决采用可穿戴显示设备体验混合现实时产生的用户不适,以及无法实现多人同时体验的问题。
请参阅图1,本发明实施例中一种混合现实体验系统的第一个实施例包括:动作捕捉设备101、数据处理设备102、触控交互设备103和立体显示设备104。
所述数据处理设备102分别与所述动作捕捉设备101、所述触控交互设备103、所述立体显示设备104连接;
具体的,所述数据处理设备102、所述动作捕捉设备101、所述触控交互设备103和所述立体显示设备104之间可以采用有线或无线的通信方式。
所述动作捕捉设备101,用于采集环境信息以及捕捉用户的动作信息,并将所述环境信息和所述动作信息发送给所述数据处理设备;
所述动作捕捉设备采用三维定位跟踪技术,能够精确跟踪各种交互对象(比如物体,人眼,手势等),从而捕捉用户的动作信息。具体的,所述动作捕捉设备通过摄像头采集环境信息以及捕捉用户的动作信息,然后将这些信息发送给数据处理设备,等待数据处理设备对这些信息进行下一步的处理。
所述触控交互设备103,用于获取用户的操作信息,并将所述操作信息发送给所述数据处理设备。
所述触控交互设备可以是各种类型的触摸屏,当用户在触控交互设备上进行各种操作时(比如单点触控、多点触控等),该触控交互设备能够获取到相应的操作信息,然后将该操作信息发送给所述数据处理设备,等待数据处理设备对该操作信息进行下一步的处理。
所述数据处理设备102,用于根据所述环境信息、所述动作信息和所述操作信息生成包含虚拟信息的三维影像,并将所述三维影像发送给所述立体显示设备。
所述数据处理设备是整个系统进行数据交换与数据处理的核心设备,具体可以是一个计算机图形工作站。该数据处理设备在接收到动作捕捉设备发送的环境信息和动作信息后,和/或接收到触控交互设备发送的操作信息后,能够根据这些信息构造出包含虚拟信息的三维影像,并将该三维影像发送给所述立体显示设备进行显示。
所述立体显示设备104,用于显示所述三维影像。
所述立体显示设备是三维影像的显示载体,用于接收并显示数据处理设备发送过来的三维影像,从而实现混合现实的体验效果。具体的,利用计算机三维渲染技术以及立体成像算法,能够精准计算出立体成像位置,实现三维立体悬浮在立体显示区域的成像效果。
进一步的,所述数据处理设备102还可以用于根据所述操作信息生成目标影像,并将所述目标影像发送给所述触控交互设备103,所述触控交互设备103还可以用于显示所述目标影像。
所述触控交互设备既可作为信息的输入设备,也可作为信息的输出设备。总的来说,用户可以在该触控交互设备上进行操作,输入操作信息,该操作信息会发送给数据处理设备;数据处理设备在接收到该操作信息后进行相应的数据处理,能够产生具有混合现实效果的目标影像,最后即可在该触控交互设备上展示该目标影像。
进一步的,所述触控交互设备103和所述立体显示设备104通信连接,所述触控交互设备103还可以用于与所述立体显示设备104交换帧同步信息,以使所述立体显示设备显示的影像与所述触控交互设备显示的影像保持同步。
所述触控交互设备和所述立体显示设备之间可以通过交换帧同步信息以实现协同操作与同步交互,以提高两者显示画面的同步性,进一步增强用户体验。
进一步的,所述立体显示设备104还可以用于根据所述操作信息和/或所述动作信息将显示区域划分为两个以上的子区域,各个所述子区域分别显示不同的三维影像。
更进一步的,在将显示区域划分为两个以上的子区域之后,所述立体显示设备104还可以用于根据所述操作信息和/或所述动作信息将所述显示区域恢复成一块区域。
通过将显示区域划分成多个子区域,能够更好地实现多人同时体验。比如,用户通过指定的手势或者在触控交互设备上进行指定的操作可以将立体显示设备的显示区域划分成左边和右边两块子区域;而在进行另外的指定操作后,可以将这两块子区域恢复成一块区域。用户A可以通过动作捕捉设备与系统进行交互,并通过左边的子区域展示相应的影像;与此同时用户B可以通过触控交互设备与系统进行交互,并通过右边的子区域展示相应的影像,用户A和用户B之间的操作互不干扰。另外,用户A和用户B还能协同操作,以进一步提高混合现实的体验效果。
具体的,相关的软件执行步骤如下:
(1)判断是否需要进行三维显示;
(2)若需要进行三维显示,判断当前是否为区域分块显示模式;
(3)若当前为区域分块显示模式,则在显示区域的左边建立一个视窗;
(4)确定绘图参数,绘制左边区域的显示模型;
(5)在显示区域的右边建立一个视窗;
(6)确定绘图参数,绘制右边区域的显示模型;
(7)将绘制好的显示模型发送到对应的显示区域进行显示。
总的来说,本发明实施例提出的混合现实体验系统的基本工作原理如下:用户可以通过动作捕捉设备和/或触控交互设备发起交互,数据处理设备在接收到相应的交互信息之后,根据这些信息生成包含虚拟信息以及真实场景的三维影像,并将该三维影像发送给立体显示设备进行展示,用户即可通过该立体显示设备体验混合现实的效果。
本发明实施例提出的混合现实体验系统摒弃了传统的头戴式显示设备,转而采用独立的立体显示设备进行影像的展示,能够避免用户穿戴不适的问题。另外,本系统同时采用动作捕捉设备和触控交互设备作为交互设备,能够实现多用户的同时体验。
请参阅图2,本发明实施例中一种混合现实体验系统的第二个实施例包括:动作捕捉设备201、数据处理设备202、透明电容触控屏203和3D显示屏204。
所述数据处理设备202分别与所述动作捕捉设备201、所述透明电容触控屏203、所述3D显示屏204连接;
具体的,所述数据处理设备202、所述动作捕捉设备201、透明电容触控屏203和所述3D显示屏204之间可以采用有线或无线的通信方式。
所述动作捕捉设备201,用于采集环境信息以及捕捉用户的动作信息,并将所述环境信息和所述动作信息发送给所述数据处理设备;
所述动作捕捉设备采用三维定位跟踪技术,能够精确跟踪各种交互对象(比如物体,人眼,手势等),从而捕捉用户的动作信息。具体的,所述动作捕捉设备通过摄像头采集环境信息以及捕捉用户的动作信息,然后将这些信息发送给数据处理设备,等待数据处理设备对这些信息进行下一步的处理。
更具体的,所述动作捕捉设备可以包括多个红外深度摄像头,各个所述红外深度摄像头分别用于在不同角度下获取反光球的定位信息,所述动作捕捉设备根据获取到的定位信息确定所述动作信息。比如,所述动作捕捉设备包括三个红外深度摄像头的横排矩阵,通过红外灯的高频率闪烁,再获取外界反光球的实时反馈信息,三个摄像头可以在每一帧获取3个不同角度的定位球反馈信息,再通过建立空间三维坐标系,形成整个动作捕捉系统的空间定位。由两个摄像头捕捉特定定位标识的三维空间位置,加上高频刷新以及第三个摄像头的数据辅助计算,能够有效保证空间定位的准确性和稳定性。
所述透明电容触控屏203,用于获取用户的操作信息,并将所述操作信息发送给所述数据处理设备。
当用户在透明电容触控屏上进行各种操作时(比如单点触控、多点触控等),该透明电容触控屏能够获取到相应的操作信息,然后将该操作信息发送给所述数据处理设备,等待数据处理设备对该操作信息进行下一步的处理。
进一步的,所述透明电容触控屏为柜体形状。
通过设置柜体形状的透明电容触控屏,本系统尤其适合应用于展览展示行业。所述柜体形状可以为任意规则或不规则的立体形状,比如正方体、长方体、球体、圆柱体、圆锥体等规则形状,或者其它不规则的柜体形状。具体应用时,可以用该柜体形状的透明电容触控屏替代传统的物品展示柜,将需要展示的物品放入该透明电容触控屏内。用户在看到物品实物的基础上,能够通过透明电容屏在实物中添加更丰富的显示内容,比如文字、图片或者其它多媒体信息。同时,利用计算机三维渲染技术,可以在透明屏中对三维物体进行多点触控交互。比如,在柜体的透明电容触控屏中放入一个文物,用户一方面可以透过电容屏看到文物的实体,另一方面可以在触控屏上进行操作,在触控屏上展示该文物的文字或动画介绍,从而达到虚拟信息和现实画面的结合。
所述数据处理设备202,用于根据所述环境信息、所述动作信息和所述操作信息生成包含虚拟信息的三维影像,并将所述三维影像发送给所述立体显示设备。
所述数据处理设备是整个系统进行数据交换与数据处理的核心设备,具体可以是一个计算机图形工作站。该数据处理设备在接收到动作捕捉设备发送的环境信息和动作信息后,和/或接收到透明电容触控屏发送的操作信息后,能够根据这些信息构造出包含虚拟信息的三维影像,并将该三维影像发送给所述3D显示屏和/或透明电容触控屏进行显示。
所述3D显示屏204,用于显示所述三维影像。
所述3D显示屏是三维影像的显示载体,用于接收并显示数据处理设备发送过来的三维影像,从而实现混合现实的体验效果。而为了达到更好的多人体验效果,优选采用大屏的显示器,比如屏幕大于某个阈值的3D显示屏。大屏立体成像的优点是更容易让体验者有身临其境的感官错觉(根据立体成像原理,大屏所产生的立体成像内容更容易欺骗人脑的感官)。同样以上述文物展示的例子进行说明,在该3D显示屏中可以展示文物的立体影像,而且还可以叠加各种虚拟信息(用户戴上3D眼镜即可体验到混合现实的效果)。另外,用户还能够通过所述动作捕捉设备和所述透明电容触控屏对展示的影像进行调整,比如拖动、旋转或者缩放等操作。
本发明实施例提出的混合现实体验系统摒弃了传统的头戴式显示设备,转而采用3D显示屏和透明电容触控屏进行影像的展示,能够避免用户穿戴不适的问题。另外,本系统同时采用动作捕捉设备和透明电容触控屏作为交互设备,能够实现多用户的同时体验。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。
Claims (8)
1.一种混合现实体验系统,其特征在于,包括动作捕捉设备、数据处理设备、触控交互设备和立体显示设备;
所述数据处理设备分别与所述动作捕捉设备、所述触控交互设备、所述立体显示设备连接;
所述动作捕捉设备,用于采集环境信息以及捕捉用户的动作信息,并将所述环境信息和所述动作信息发送给所述数据处理设备;
所述触控交互设备,用于获取用户的操作信息,并将所述操作信息发送给所述数据处理设备;
所述数据处理设备,用于根据所述环境信息、所述动作信息和所述操作信息生成包含虚拟信息的三维影像,并将所述三维影像发送给所述立体显示设备;
所述立体显示设备,用于显示所述三维影像。
2.如权利要求1所述的混合现实体验系统,其特征在于,所述数据处理设备还用于根据所述操作信息生成目标影像,并将所述目标影像发送给所述触控交互设备;
所述触控交互设备还用于显示所述目标影像。
3.如权利要求2所述的混合现实体验系统,其特征在于,所述触控交互设备和所述立体显示设备连接;
所述触控交互设备还用于与所述立体显示设备交换帧同步信息,以使所述立体显示设备显示的影像与所述触控交互设备显示的影像保持同步。
4.如权利要求1所述的混合现实体验系统,其特征在于,所述触控交互设备为柜体形状的透明电容触控屏。
5.如权利要求1所述的混合现实体验系统,其特征在于,所述立体显示设备为屏幕大于第一阈值的3D显示屏。
6.如权利要求1所述的混合现实体验系统,其特征在于,所述动作捕捉设备包括多个红外深度摄像头,各个所述红外深度摄像头分别用于在不同角度下获取反光球的定位信息,所述动作捕捉设备根据获取到的定位信息确定所述动作信息。
7.如权利要求1至6中任一项所述的混合现实体验系统,其特征在于,所述立体显示设备还用于根据所述操作信息和/或所述动作信息将显示区域划分为两个以上的子区域,各个所述子区域分别显示不同的三维影像。
8.如权利要求7所述的混合现实体验系统,其特征在于,在将显示区域划分为两个以上的子区域之后,所述立体显示设备还用于根据所述操作信息和/或所述动作信息将所述显示区域恢复成一块区域。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810324842.0A CN108388351B (zh) | 2018-04-12 | 2018-04-12 | 一种混合现实体验系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810324842.0A CN108388351B (zh) | 2018-04-12 | 2018-04-12 | 一种混合现实体验系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108388351A true CN108388351A (zh) | 2018-08-10 |
CN108388351B CN108388351B (zh) | 2024-03-12 |
Family
ID=63073973
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810324842.0A Active CN108388351B (zh) | 2018-04-12 | 2018-04-12 | 一种混合现实体验系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108388351B (zh) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102253713A (zh) * | 2011-06-23 | 2011-11-23 | 康佳集团股份有限公司 | 面向三维立体影像显示系统 |
US20120113140A1 (en) * | 2010-11-05 | 2012-05-10 | Microsoft Corporation | Augmented Reality with Direct User Interaction |
CN103279303A (zh) * | 2013-05-31 | 2013-09-04 | 东莞宇龙通信科技有限公司 | 事件消息的处理方法及装置 |
CN203773476U (zh) * | 2014-03-24 | 2014-08-13 | 上海大学 | 基于3d交互的虚拟现实系统 |
CN105190477A (zh) * | 2013-03-21 | 2015-12-23 | 索尼公司 | 用于在增强现实环境中的用户交互的头戴式显示装置 |
US20160371888A1 (en) * | 2014-03-10 | 2016-12-22 | Bae Systems Plc | Interactive information display |
CN106325511A (zh) * | 2016-08-25 | 2017-01-11 | 安徽协创物联网技术有限公司 | 一种虚拟现实实现系统 |
CN107277494A (zh) * | 2017-08-11 | 2017-10-20 | 北京铂石空间科技有限公司 | 立体显示系统及方法 |
CN208207732U (zh) * | 2018-04-12 | 2018-12-07 | 深圳市正图科技有限公司 | 一种混合现实体验系统 |
-
2018
- 2018-04-12 CN CN201810324842.0A patent/CN108388351B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120113140A1 (en) * | 2010-11-05 | 2012-05-10 | Microsoft Corporation | Augmented Reality with Direct User Interaction |
CN102253713A (zh) * | 2011-06-23 | 2011-11-23 | 康佳集团股份有限公司 | 面向三维立体影像显示系统 |
CN105190477A (zh) * | 2013-03-21 | 2015-12-23 | 索尼公司 | 用于在增强现实环境中的用户交互的头戴式显示装置 |
CN103279303A (zh) * | 2013-05-31 | 2013-09-04 | 东莞宇龙通信科技有限公司 | 事件消息的处理方法及装置 |
US20160371888A1 (en) * | 2014-03-10 | 2016-12-22 | Bae Systems Plc | Interactive information display |
CN203773476U (zh) * | 2014-03-24 | 2014-08-13 | 上海大学 | 基于3d交互的虚拟现实系统 |
CN106325511A (zh) * | 2016-08-25 | 2017-01-11 | 安徽协创物联网技术有限公司 | 一种虚拟现实实现系统 |
CN107277494A (zh) * | 2017-08-11 | 2017-10-20 | 北京铂石空间科技有限公司 | 立体显示系统及方法 |
CN208207732U (zh) * | 2018-04-12 | 2018-12-07 | 深圳市正图科技有限公司 | 一种混合现实体验系统 |
Also Published As
Publication number | Publication date |
---|---|
CN108388351B (zh) | 2024-03-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Hilliges et al. | HoloDesk: direct 3d interactions with a situated see-through display | |
TWI659335B (zh) | 圖形處理方法和裝置、虛擬實境系統和計算機儲存介質 | |
Tecchia et al. | 3D helping hands: a gesture based MR system for remote collaboration | |
US20120256950A1 (en) | Medical support apparatus, medical support method, and medical support system | |
US10192363B2 (en) | Math operations in mixed or virtual reality | |
EP2568355A2 (en) | Combined stereo camera and stereo display interaction | |
CN108064364A (zh) | 用于实现多用户虚拟环境的方法和系统 | |
KR102461232B1 (ko) | 화상 처리 방법 및 장치, 전자 디바이스, 및 저장 매체 | |
CN104168315B (zh) | 一种全视角平滑的沉浸式显示方法和系统 | |
CN103354616A (zh) | 在平面显示器上实现立体显示的方法和系统 | |
Li et al. | Animation of virtual medical system under the background of virtual reality technology | |
CN104680532A (zh) | 一种对象标注方法及装置 | |
CN203773476U (zh) | 基于3d交互的虚拟现实系统 | |
JP2016170641A (ja) | 仮想オブジェクト表示システムおよびその表示制御方法並びに表示制御プログラム | |
CN106774870A (zh) | 一种增强现实交互方法及系统 | |
CN204496117U (zh) | 3d眼镜 | |
Kim et al. | Multi-scale mixed reality collaboration for digital twin | |
CN105487653B (zh) | 实现虚拟现实场景的方法及系统 | |
CN208207732U (zh) | 一种混合现实体验系统 | |
CN105721855B (zh) | 一种三维体数据绘制方法及其应用、三维图像显示方法 | |
CN207603822U (zh) | 一种裸眼3d展示系统 | |
CN108205823A (zh) | Mr全息真空体验店和体验方法 | |
CN108388351A (zh) | 一种混合现实体验系统 | |
CN102880352A (zh) | 一种非接触式界面操作方法及系统 | |
Tamagawa et al. | Developing a 2.5-D video avatar |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |