CN109640070A - 一种立体显示方法、装置、设备及存储介质 - Google Patents
一种立体显示方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN109640070A CN109640070A CN201811647708.0A CN201811647708A CN109640070A CN 109640070 A CN109640070 A CN 109640070A CN 201811647708 A CN201811647708 A CN 201811647708A CN 109640070 A CN109640070 A CN 109640070A
- Authority
- CN
- China
- Prior art keywords
- display screen
- supplemental characteristic
- data
- wearable device
- equipment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Controls And Circuits For Display Device (AREA)
Abstract
本发明实施例公开了一种立体显示方法、装置、设备及存储介质。该方法包括:实时获取佩戴设备数据,所述佩戴设备数据包括所述佩戴设备的位置数据和角度数据;根据所述佩戴设备数据的变化更新图像采集设备的参数数据,根据更新的图像采集设备的参数数据更新所述图像采集设备投影于显示屏的投影矩阵和视场角;根据所述投影矩阵与所述视场角更新显示于显示屏上的图像。通过根据佩戴设备的位置和角度变化得到变化的位置数据和角度数据,再根据变化的数据计算投影矩阵和视场角,并于显示屏上进行显示,使显示的图像视角用户的位置和角度变化随之改变,给用户沉浸感体验。
Description
技术领域
本发明实施例涉及立体显示技术领域,尤其涉及一种立体显示方法、装置、设备及存储介质。
背景技术
立体显示技术是利用一系列的光学方法使人的左右眼产生时差,从而接收到不同的画面,进一步在大脑形成立体效果的技术。用户通过佩戴3D眼睛设备就可以看到立体影像,给用户以身临其境的感受。目前已广泛应用于电影院、游戏厅等场合。
但是,目前的立体显示技术中,无法根据用户位置的实时变化来改变观看影像的视角,不能根据用户的位置和角度适应性调整观看影像的位置和角度,画面固定单一,无法给用户带来身临其境的沉浸感体验。另外,在目前的多屏 LED显示环境中,现有的立体显示技术无法实现多通道输出的立体显示,无法节约硬件成本,并且不能实现多屏的组合显示。
发明内容
本发明实施例提供一种立体显示方法、装置、设备及存储介质,以实现在立体显示中能够根据用户佩戴3D设备的位置和角度变化,适应性地变化显示的内容,提高用户的体验。
第一方面,本发明实施例提供了一种立体显示方法,包括:
实时获取佩戴设备数据,所述佩戴设备数据包括所述佩戴设备的位置数据和角度数据;
根据所述佩戴设备数据的变化更新图像采集设备的参数数据,根据更新的图像采集设备的参数数据更新所述图像采集设备投影于显示屏的投影矩阵和视场角;
根据所述投影矩阵与所述视场角更新显示于显示屏上的图像。
第二方面,本发明实施例还提供了一种立体显示装置,包括:
数据获取模块,用于实时获取佩戴设备数据,所述佩戴设备数据包括所述佩戴设备的位置数据和角度数据;
数据更新模块,用于根据所述佩戴设备数据的变化更新图像采集设备的参数数据,根据更新的图像采集设备的参数数据更新所述图像采集设备投影于显示屏的投影矩阵和视场角;
显示更新模块,用于根据所述投影矩阵与所述视场角更新显示于显示屏上的图像。
第三方面,本发明实施例还提供了一种设备,该设备包括:
一个或多个处理器;
存储器,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现本发明实施例中的任一种立体显示方法。
第四方面,本发明实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现本发明实施例中的任一种立体显示方法。
本发明实施例通过根据佩戴设备的位置和角度变化得到变化的位置数据和角度数据,再根据变化的数据更新图像采集设备的配置参数数据,从而进一步根据更新后的图像采集设备的配置参数数据计算投影矩阵和视场角,并于显示屏上进行显示。
附图说明
图1是本发明实施例一中的一种立体显示方法的流程图;
图2a是本发明实施例二中的配置文件界面第一示意图;
图2b是本发明实施例二中的配置文件界面第二示意图;
图2c是本发明实施例二中的一种立体显示方法的流程图;
图3是本发明实施例三中的一种立体显示方法的流程图;
图4是本发明实施例四中的一种立体显示装置的结构示意图;
图5是本发明实施例五中的一种设备的结构示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部结构。
实施例一
图1是本发明实施例一中的一种立体显示方法的流程图。本实施例提供的立体显示方法可适用于通过佩戴3D眼镜观看立体显示影响的情况,可以由立体显示装置来执行,该装置可以由软件和/或硬件的方式实现,该装置可以集成在设备中,并可以由装载于设备中的软件实现,可选的,利用SVR(Sai-VR,虚拟现实桥接软件)实现本实施例中的方法。参见图1,本实施的方法具体包括如下步骤:
S110、实时获取佩戴设备数据,所述佩戴设备数据包括所述佩戴设备的位置数据和角度数据。
具体的,所述佩戴设备可以为3D眼镜,用户通过佩戴3D眼镜能够观看三维立体影像,示例性的,用户佩戴3D眼镜,并位于CAVE(Cave Automatic Virtual Environment,洞穴状自动虚拟环境)中,CAVE环境是以计算机图形学为基础,把高分辨率的立体投影显示技术、多通道视景同步技术、三维计算机图形技术、音响技术、传感器技术等完美地融合在一起,从而产生一个被三维立体投影画面包围的供多人使用的完全沉浸式的虚拟环境。用户可以置身于CAVE环境中,并可以活动改变观看位置和视角。
具体的,实时获取用佩戴3D眼镜的数据,包括3D眼镜当前的位置数据和角度数据。示例性的,3D眼睛中装有位置识别点,通过追踪系统捕捉3D眼镜的位置识别点,能够实时获得3D眼镜的位置数据和角度数据。
可选的,追踪系统可以为G-Motion光学位置追踪系统,该系统通过红外摄像头实时捕捉3D眼镜的位置数据和角度数据,并将实时获取的3D眼镜位置数据和角度数据通过以太网发送至交换机,进一步通过以太网传送至工作站。
S120、根据所述佩戴设备数据的变化更新图像采集设备的参数数据,根据更新的图像采集设备的参数数据更新所述图像采集设备投影于显示屏的投影矩阵和视场角。
具体的,图像采集设备为参数数据为相机camera的参数数据,当获取到的 3D眼镜的位置数据和角度数据时,将3D眼镜的位置数据赋值于相机的父节点,将3D眼镜的角度数据赋值于相机,从而更新相机的参数数据,进而更新投影于显示屏的投影矩阵和视场角。可选的,根据所述佩戴设备数据的变化更新图像采集设备的参数数据,根据更新的图像采集设备的参数数据确定所述图像采集设备投影于显示屏的投影矩阵和视场角,包括:将变化后的佩戴设备数据赋值于图像采集设备,再根据变化后的佩戴设备数据计算更新所述图像采集设备的近剪裁平面距离和远剪裁平面距离;根据更新后的近剪裁平面距离、远剪裁平面距离以及显示屏的参数数据计算图像采集设备的投影矩阵和视场角。示例性的,当将3D眼镜的位置数据赋值于相机的父节点,将3D眼镜的角度数据赋值于相机,进一步更新相机的参数数据中的近剪裁平面距离和远剪裁平面距离,根据更新后的近剪裁平面距离、远剪裁平面距离和显示屏的参数数据,计算更新当前相机投影于显示屏的投影矩阵和视场角。
S130、根据所述投影矩阵与所述视场角更新显示于显示屏上的图像。
根据更新后的投影矩阵和视场角,将影像于显示屏上进行显示,从而实现根据用户的活动以及佩戴3D眼镜的位置和角度变化,实时改变投影矩阵和视场角,进而改变投影于显示屏上的影像,当用户的位置和视角发生变化时,用户通过3D眼镜可以观看到于3D空间的相对应的位置和视角变化,从而实现身临其境的沉浸感体验。
本实施例的技术方案,实时获取佩戴设备数据,所述佩戴设备数据包括所述佩戴设备的位置数据和角度数据;根据所述佩戴设备数据的变化更新图像采集设备的参数数据,根据更新的图像采集设备的参数数据更新所述图像采集设备投影于显示屏的投影矩阵和视场角;根据所述投影矩阵与所述视场角更新显示于显示屏上的图像。通过根据佩戴设备的位置和角度变化得到变化的位置数据和角度数据,再根据变化的数据更新图像采集设备的配置参数数据,从而进一步根据更新后的图像采集设备的配置参数数据计算投影矩阵和视场角,并于显示屏上进行显示。实现了根据用户在空间位置的实时改变从而立体显示角度,提高了用户体验。
实施例二
图2c是本发明实施例二中的一种立体显示方法的流程图。本实施例在上述实施例的基础上进行了优化,未在本实施例中详细描述的细节详见上述实施例。参见图2c,本实施例提供的立体显示方法包括:
S210、根据所述显示屏的参数数据与所述图像采集设备的参数数据建立配置文件,所述显示屏的参数数据包括屏幕个数、分辨率、尺寸、位置和角度,所述图像采集设备的参数数据包括近剪裁平面距离和远剪裁平面距离。
具体的,对显示屏的参数数据和图像采集设备的参数数据建立配置文件,如图2a和图2b所示,得到显示屏和相机的参数,包括显示屏的名称、个数、位置、角度、尺寸、分辨率等参数,以及相机的近裁剪平面距离和远裁剪平面距离,可选的,还包括渲染机名称、渲染机的IP地址、左右眼眼间距、3D眼镜的名称和类型等。
S220、根据所述显示屏的参数数据和所述图像采集设备的参数数据确定所述图像采集设备投影于显示屏的投影矩阵和视场角。
相机的可见范围是个四凌锥,近裁剪平面距离和远裁剪平面距离是指相机能看见的最近距离和最远距离,这个范围之外的物体都不可见。视场角为以相机为顶点,以被测目标的物像可通过镜头的最大范围的两条边缘构成的夹角。视场角的大小决定了相机的视野范围,视场角越大。若要实现3D的立体显示效果需要进行透视投影,透视投影使用一组由投影中心产生的放射投影线,将三维对象投影到投影平面上去。透视投影的观察体是视锥体,它具有通过物体远近来缩放的能力,需要把视锥体包含的物体投影成画面,即投影变换。通过显示屏的近裁剪平面距离和远裁剪平面距离和相机的参数数据可以确定投影矩阵和视场角,从而实现将三维空间物体投影到二维屏幕图像。
S230、实时获取佩戴设备数据,所述佩戴设备数据包括所述佩戴设备的位置数据和角度数据。
S240、将变化后的佩戴设备数据赋值于图像采集设备,再根据变化后的佩戴设备数据计算更新所述图像采集设备的近剪裁平面距离和远剪裁平面距离。
S250、根据更新后的近剪裁平面距离、远剪裁平面距离以及显示屏的参数数据计算图像采集设备的投影矩阵和视场角。
S260、根据所述投影矩阵与所述视场角更新显示于显示屏上的图像。
本实施例的技术方案,根据所述显示屏的参数数据与所述图像采集设备的参数数据建立配置文件,所述显示屏的参数数据包括屏幕个数、分辨率、尺寸、位置和角度,所述图像采集设备的参数数据包括近剪裁平面距离和远剪裁平面距离。根据所述显示屏的参数数据和所述图像采集设备的参数数据确定所述图像采集设备投影于显示屏的投影矩阵和视场角。实时获取佩戴设备数据,所述佩戴设备数据包括所述佩戴设备的位置数据和角度数据。将变化后的佩戴设备数据赋值于图像采集设备,再根据变化后的佩戴设备数据计算更新所述图像采集设备的近剪裁平面距离和远剪裁平面距离。根据更新后的近剪裁平面距离、远剪裁平面距离以及显示屏的参数数据计算图像采集设备的投影矩阵和视场角。根据所述投影矩阵与所述视场角更新显示于显示屏上的图像,使显示的图像视角用户的位置和角度变化随之改变,给用户沉浸感体验。
实施例三
图3是本发明实施例三中的一种立体显示方法的流程图。本实施例在上述实施例的基础上进行了优化,未在本实施例中详细描述的细节详见上述实施例。参见图3,本实施例提供的立体显示方法包括:
S310、根据所述显示屏的参数数据与所述图像采集设备的参数数据建立配置文件,所述显示屏的参数数据包括屏幕个数、分辨率、尺寸、位置和角度,所述图像采集设备的参数数据包括近剪裁平面距离和远剪裁平面距离。
S320、根据所述显示屏的参数数据和所述图像采集设备的参数数据确定所述图像采集设备投影于显示屏的投影矩阵和视场角。
S330、设置左眼相机为立体显示左眼遮罩,设置右眼相机为立体显示右眼遮罩。
具体的,所述相机包括左眼相机和右眼相机,以产生视差从而产生立体性。设置左眼相机为立体显示左眼遮罩,设置右眼相机为立体显示右眼遮罩。设置遮罩层可以按照层来有选择性的渲染场景中的物体。有选择性渲染物体之前,需要先对场景中的物体的层次进行设置。把左眼相机设置为立体显示左眼遮罩,可以渲染左眼相机所可视的画面,把右眼相机设置为立体显示右眼遮罩,可以渲染右眼相机所可视的画面,通过分别渲染左眼相机和右眼相机的可是画面,从而使画面产生左眼和右眼两种不同的视觉效果,从而产生立体感。
S340、当所述显示屏个数大于一个时,根据各显示屏的参数数据确定各显示屏于显示区域的所占比例,根据所占比例确定各显示屏相对于所述图像采集设备的视图区域。
具体的,显示屏往往是有两个以上的显示屏拼接而成的,当显示屏的个数大于一个时,则需要在各个显示屏上展示相对应位置的大小的图像,以共同显示整个图像。示例性的通过各显示屏的参数数据计算各显示屏占总显示区域的比例,从而根据各显示屏占显示显示区域的比例确定待显示图像显示于铬显示屏的视图区域。可选的,可以根据各显示屏的个数、尺寸以及分辨率计算各显示屏占总显示区域的比例。
S350、实时获取佩戴设备数据,所述佩戴设备数据包括所述佩戴设备的位置数据和角度数据。
S360、将变化后的佩戴设备数据赋值于图像采集设备,再根据变化后的佩戴设备数据计算更新所述图像采集设备的近剪裁平面距离和远剪裁平面距离。
S370、根据更新后的近剪裁平面距离、远剪裁平面距离以及显示屏的参数数据计算图像采集设备的投影矩阵和视场角。
S380、根据所述投影矩阵与所述视场角更新显示于显示屏上的图像。
本实施例的技术方案,根据所述显示屏的参数数据与所述图像采集设备的参数数据建立配置文件,所述显示屏的参数数据包括屏幕个数、分辨率、尺寸、位置和角度,所述图像采集设备的参数数据包括近剪裁平面距离和远剪裁平面距离。根据所述显示屏的参数数据和所述图像采集设备的参数数据确定所述图像采集设备投影于显示屏的投影矩阵和视场角。设置左眼相机为立体显示左眼遮罩,设置右眼相机为立体显示右眼遮罩。当所述显示屏个数大于一个时,根据各显示屏的参数数据确定各显示屏于显示区域的所占比例,根据所占比例确定各显示屏相对于所述图像采集设备的视图区域,实现了多屏的无缝拼接显示,并使显示的图像视角用户的位置和角度变化随之改变,给用户沉浸感体验。
实施例四
图4是本发明实施例四中的一种立体显示装置的结构示意图。本实施例提供的立体显示装置可适用于通过佩戴3D眼镜观看立体显示影响的情况。本实施例提供一种立体显示装置,参见图4,具体包括:
数据获取模块410,用于实时获取佩戴设备数据,所述佩戴设备数据包括所述佩戴设备的位置数据和角度数据;
数据更新模块420,用于根据所述佩戴设备数据的变化更新图像采集设备的参数数据,根据更新的图像采集设备的参数数据更新所述图像采集设备投影于显示屏的投影矩阵和视场角;
显示更新模块430,用于根据所述投影矩阵与所述视场角更新显示于显示屏上的图像。
可选的,还包括:
配置模块,用于根据所述显示屏的参数数据与所述图像采集设备的参数数据建立配置文件,所述显示屏的参数数据包括屏幕个数、分辨率、尺寸、位置和角度,所述图像采集设备的参数数据包括近剪裁平面距离和远剪裁平面距离;
计算模块,用于根据所述显示屏的参数数据和所述图像采集设备的参数数据确定所述图像采集设备投影于显示屏的投影矩阵和视场角。
可选的,所述图像采集设备包括左眼相机和右眼相机;
相应地,还包括:遮罩设置模块,用于设置左眼相机为立体显示左眼遮罩,设置右眼相机为立体显示右眼遮罩。
可选的,还包括;
视图区域确定模块,用于当所述显示屏个数大于一个时,根据各显示屏的参数数据确定各显示屏于显示区域的所占比例,根据所占比例确定各显示屏相对于所述图像采集设备的视图区域。
可选的,所述数据更新模块420,包括:
第一计算单元,用于将变化后的佩戴设备数据赋值于图像采集设备的对应参数数据,再根据所述对应参数数据计算更新所述图像采集设备的近剪裁平面距离和远剪裁平面距离;
第二计算单元,用于根据更新后的近剪裁平面距离、远剪裁平面距离以及显示屏的参数数据计算图像采集设备的投影矩阵和视场角。
本实施例的技术方案,通过数据获取模块实时获取佩戴设备数据,所述佩戴设备数据包括所述佩戴设备的位置数据和角度数据;数据更新模块根据所述佩戴设备数据的变化更新图像采集设备的参数数据,根据更新的图像采集设备的参数数据更新所述图像采集设备投影于显示屏的投影矩阵和视场角;显示更新模块、根据所述投影矩阵与所述视场角更新显示于显示屏上的图像。通过根据佩戴设备的位置和角度变化得到变化的位置数据和角度数据,再根据变化的数据更新图像采集设备的配置参数数据,从而进一步根据更新后的图像采集设备的配置参数数据计算投影矩阵和视场角,并于显示屏上进行显示,使显示的图像视角用户的位置和角度变化随之改变,给用户沉浸感体验。
实施例五
图5是本发明实施例五中的一种设备的结构示意图。图5示出了适于用来实现本发明实施方式的示例性设备512的框图。图5显示的设备512仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图5所示,设备512以通用计算设备的形式表现。设备512的组件可以包括但不限于:一个或者多个处理器或者处理器516,设备存储器528,连接不同设备组件(包括设备存储器528和处理器516)的总线518。
总线518表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构 (ISA)总线,微通道体系结构(MAC)总线,增强型ISA总线、视频电子标准协会(VESA)局域总线以及外围组件互连(PCI)总线。
设备512典型地包括多种计算机设备可读介质。这些介质可以是任何能够被设备512访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
设备存储器528可以包括易失性存储器形式的计算机设备可读介质,例如随机存取存储器(RAM)530和/或高速缓存存储器532。设备512可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机设备存储介质。仅作为举例,存储设备534可以用于读写不可移动的、非易失性磁介质(图5未显示,通常称为“硬盘驱动器”)。尽管图5中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如 CD-ROM,DVD-ROM或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线518相连。存储器528可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明各实施例的功能。
具有一组(至少一个)程序模块542的程序/实用工具540,可以存储在例如存储器528中,这样的程序模块542包括但不限于操作设备、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块542通常执行本发明所描述的实施例中的功能和/或方法。
设备512也可以与一个或多个外部设备514(例如键盘、指向设备、显示器524等)通信,还可与一个或者多个使得用户能与该设备512交互的设备通信,和/或与使得该设备512能与一个或多个其它计算设备进行通信的任何设备 (例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口 522进行。并且,设备512还可以通过网络适配器520与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器520通过总线518与设备512的其它模块通信。应当明白,尽管图中未示出,可以结合设备512使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID设备、磁带驱动器以及数据备份存储设备等。
处理器516通过运行存储在设备存储器528中的多个程序中其他程序的至少一个,从而执行各种功能应用以及数据处理,例如实现本发明实施例所提供的一种立体显示方法,包括:
实时获取佩戴设备数据,所述佩戴设备数据包括所述佩戴设备的位置数据和角度数据;
根据所述佩戴设备数据的变化更新图像采集设备的参数数据,根据更新的图像采集设备的参数数据更新所述图像采集设备投影于显示屏的投影矩阵和视场角;
根据所述投影矩阵与所述视场角更新显示于显示屏上的图像。
本实施例提供的设备,通过处理器执行程序实现实时获取佩戴设备数据,所述佩戴设备数据包括所述佩戴设备的位置数据和角度数据;根据所述佩戴设备数据的变化更新图像采集设备的参数数据,根据更新的图像采集设备的参数数据更新所述图像采集设备投影于显示屏的投影矩阵和视场角;根据所述投影矩阵与所述视场角更新显示于显示屏上的图像。通过根据佩戴设备的位置和角度变化得到变化的位置数据和角度数据,再根据变化的数据更新图像采集设备的配置参数数据,从而进一步根据更新后的图像采集设备的配置参数数据计算投影矩阵和视场角,并于显示屏上进行显示,使显示的图像视角用户的位置和角度变化随之改变,给用户沉浸感体验。
实施例六
本发明实施例六还提供了一种包含计算机可执行指令的存储介质,计算机可执行指令在由计算机处理器执行时用于执行一种立体显示方法,包括:
实时获取佩戴设备数据,所述佩戴设备数据包括所述佩戴设备的位置数据和角度数据;
根据所述佩戴设备数据的变化更新图像采集设备的参数数据,根据更新的图像采集设备的参数数据更新所述图像采集设备投影于显示屏的投影矩阵和视场角;
根据所述投影矩阵与所述视场角更新显示于显示屏上的图像。
本发明实施例的计算机存储介质,可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的设备、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行设备、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行设备、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括——但不限于无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或设备上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。
Claims (10)
1.一种立体显示方法,其特征在于,所述方法包括:
实时获取佩戴设备数据,所述佩戴设备数据包括所述佩戴设备的位置数据和角度数据;
根据所述佩戴设备数据的变化更新图像采集设备的参数数据,根据更新的图像采集设备的参数数据更新所述图像采集设备投影于显示屏的投影矩阵和视场角;
根据所述投影矩阵与所述视场角更新显示于显示屏上的图像。
2.根据权利要求1所述的方法,其特征在于,实时获取佩戴设备数据,所述佩戴设备数据包括所述佩戴设备的位置数据和角度数据之前,所述方法包括:
根据所述显示屏的参数数据与所述图像采集设备的参数数据建立配置文件,所述显示屏的参数数据包括屏幕个数、分辨率、尺寸、位置和角度,所述图像采集设备的参数数据包括近剪裁平面距离和远剪裁平面距离;
根据所述显示屏的参数数据和所述图像采集设备的参数数据确定所述图像采集设备投影于显示屏的投影矩阵和视场角。
3.根据权利要求2所述的方法,其特征在于,所述图像采集设备包括左眼相机和右眼相机;
相应地,还包括:设置左眼相机为立体显示左眼遮罩,设置右眼相机为立体显示右眼遮罩。
4.根据权利要求3所述的方法,其特征在于,还包括:
当所述显示屏个数大于一个时,根据各显示屏的参数数据确定各显示屏于显示区域的所占比例,根据所占比例确定各显示屏对应于所述图像采集设备的视图区域。
5.根据权利要求4所述的方法,其特征在于,根据所述佩戴设备数据的变化更新图像采集设备的参数数据,根据更新的图像采集设备的参数数据确定所述图像采集设备投影于显示屏的投影矩阵和视场角,包括:
将变化后的佩戴设备数据赋值于图像采集设备的对应参数数据,再根据所述对应参数数据计算更新所述图像采集设备的近剪裁平面距离和远剪裁平面距离;
根据更新后的近剪裁平面距离、远剪裁平面距离以及显示屏的参数数据计算图像采集设备的投影矩阵和视场角。
6.一种立体显示装置,其特征在于,包括:
数据获取模块,用于实时获取佩戴设备数据,所述佩戴设备数据包括所述佩戴设备的位置数据和角度数据;
数据更新模块,用于根据所述佩戴设备数据的变化更新图像采集设备的参数数据,根据更新的图像采集设备的参数数据更新所述图像采集设备投影于显示屏的投影矩阵和视场角;
显示更新模块,用于根据所述投影矩阵与所述视场角更新显示于显示屏上的图像。
7.根据权利要求6所述的装置,其特征在于,还包括:
配置模块,用于根据所述显示屏的参数数据与所述图像采集设备的参数数据建立配置文件,所述显示屏的参数数据包括屏幕个数、分辨率、尺寸、位置和角度,所述图像采集设备的参数数据包括近剪裁平面距离和远剪裁平面距离;
计算模块,用于根据所述显示屏的参数数据和所述图像采集设备的参数数据确定所述图像采集设备投影于显示屏的投影矩阵和视场角。
8.根据权利要求7所述的装置,其特征在于,所述图像采集设备包括左眼相机和右眼相机;
相应地,还包括:遮罩设置模块,用于设置左眼相机为立体显示左眼遮罩,设置右眼相机为立体显示右眼遮罩。
9.一种设备,其特征在于,所述设备包括:
一个或多个处理器;
存储器,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-5中任一所述的一种立体显示方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-5中任一所述的一种立体显示方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811647708.0A CN109640070A (zh) | 2018-12-29 | 2018-12-29 | 一种立体显示方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811647708.0A CN109640070A (zh) | 2018-12-29 | 2018-12-29 | 一种立体显示方法、装置、设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109640070A true CN109640070A (zh) | 2019-04-16 |
Family
ID=66054983
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811647708.0A Pending CN109640070A (zh) | 2018-12-29 | 2018-12-29 | 一种立体显示方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109640070A (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110610454A (zh) * | 2019-09-18 | 2019-12-24 | 上海云绅智能科技有限公司 | 透视投影矩阵的计算方法及装置、终端设备、存储介质 |
CN111142825A (zh) * | 2019-12-27 | 2020-05-12 | 杭州拓叭吧科技有限公司 | 多屏视野的显示方法、系统及电子设备 |
CN112235562A (zh) * | 2020-10-12 | 2021-01-15 | 聚好看科技股份有限公司 | 一种3d显示终端、控制器及图像处理方法 |
CN112308768A (zh) * | 2020-10-19 | 2021-02-02 | 武汉中科通达高新技术股份有限公司 | 一种数据处理方法、装置、电子设备以及存储介质 |
CN113612978A (zh) * | 2021-07-01 | 2021-11-05 | 江西科骏实业有限公司 | 几何失真校正方法、装置、系统与计算机可读存储介质 |
CN113992906A (zh) * | 2021-09-22 | 2022-01-28 | 上海船舶工艺研究所(中国船舶工业集团公司第十一研究所) | 一种基于Unity3D的CAVE系统多通道同步仿真方法 |
CN114615487A (zh) * | 2022-02-22 | 2022-06-10 | 聚好看科技股份有限公司 | 一种三维模型的显示方法及设备 |
CN115457200A (zh) * | 2022-08-31 | 2022-12-09 | 北京四维远见信息技术有限公司 | 2.5维图像自动真立体显示方法、装置、设备及存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101800907A (zh) * | 2010-04-14 | 2010-08-11 | 北京伟景行数字城市科技有限公司 | 一种展现三维图像的方法及装置 |
CN104536714A (zh) * | 2015-01-07 | 2015-04-22 | 深圳市众进思创科技开发有限公司 | 一种设备间对显示信息分屏显示的方法及系统 |
JP2015187649A (ja) * | 2014-03-26 | 2015-10-29 | 船井電機株式会社 | 立体画像を提示する立体ディスプレイ |
CN105282532A (zh) * | 2014-06-03 | 2016-01-27 | 天津拓视科技有限公司 | 3d显示方法和装置 |
CN106993179A (zh) * | 2017-02-24 | 2017-07-28 | 杭州电子科技大学 | 一种3d模型转立体双视点视图的方法 |
CN107678722A (zh) * | 2017-10-11 | 2018-02-09 | 广州凡拓数字创意科技股份有限公司 | 多屏幕拼接方法、装置以及多投影拼接大屏幕 |
-
2018
- 2018-12-29 CN CN201811647708.0A patent/CN109640070A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101800907A (zh) * | 2010-04-14 | 2010-08-11 | 北京伟景行数字城市科技有限公司 | 一种展现三维图像的方法及装置 |
JP2015187649A (ja) * | 2014-03-26 | 2015-10-29 | 船井電機株式会社 | 立体画像を提示する立体ディスプレイ |
CN105282532A (zh) * | 2014-06-03 | 2016-01-27 | 天津拓视科技有限公司 | 3d显示方法和装置 |
CN104536714A (zh) * | 2015-01-07 | 2015-04-22 | 深圳市众进思创科技开发有限公司 | 一种设备间对显示信息分屏显示的方法及系统 |
CN106993179A (zh) * | 2017-02-24 | 2017-07-28 | 杭州电子科技大学 | 一种3d模型转立体双视点视图的方法 |
CN107678722A (zh) * | 2017-10-11 | 2018-02-09 | 广州凡拓数字创意科技股份有限公司 | 多屏幕拼接方法、装置以及多投影拼接大屏幕 |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110610454A (zh) * | 2019-09-18 | 2019-12-24 | 上海云绅智能科技有限公司 | 透视投影矩阵的计算方法及装置、终端设备、存储介质 |
CN111142825A (zh) * | 2019-12-27 | 2020-05-12 | 杭州拓叭吧科技有限公司 | 多屏视野的显示方法、系统及电子设备 |
CN111142825B (zh) * | 2019-12-27 | 2024-04-16 | 杭州拓叭吧科技有限公司 | 多屏视野的显示方法、系统及电子设备 |
CN112235562B (zh) * | 2020-10-12 | 2023-09-15 | 聚好看科技股份有限公司 | 一种3d显示终端、控制器及图像处理方法 |
CN112235562A (zh) * | 2020-10-12 | 2021-01-15 | 聚好看科技股份有限公司 | 一种3d显示终端、控制器及图像处理方法 |
CN112308768A (zh) * | 2020-10-19 | 2021-02-02 | 武汉中科通达高新技术股份有限公司 | 一种数据处理方法、装置、电子设备以及存储介质 |
CN112308768B (zh) * | 2020-10-19 | 2023-09-08 | 武汉中科通达高新技术股份有限公司 | 一种数据处理方法、装置、电子设备以及存储介质 |
CN113612978A (zh) * | 2021-07-01 | 2021-11-05 | 江西科骏实业有限公司 | 几何失真校正方法、装置、系统与计算机可读存储介质 |
CN113612978B (zh) * | 2021-07-01 | 2024-06-25 | 江西科骏实业有限公司 | 几何失真校正方法、装置、系统与计算机可读存储介质 |
CN113992906A (zh) * | 2021-09-22 | 2022-01-28 | 上海船舶工艺研究所(中国船舶工业集团公司第十一研究所) | 一种基于Unity3D的CAVE系统多通道同步仿真方法 |
CN113992906B (zh) * | 2021-09-22 | 2024-04-05 | 上海船舶工艺研究所(中国船舶集团有限公司第十一研究所) | 一种基于Unity3D的CAVE系统多通道同步仿真方法 |
CN114615487A (zh) * | 2022-02-22 | 2022-06-10 | 聚好看科技股份有限公司 | 一种三维模型的显示方法及设备 |
CN114615487B (zh) * | 2022-02-22 | 2023-04-25 | 聚好看科技股份有限公司 | 一种三维模型的显示方法及设备 |
CN115457200B (zh) * | 2022-08-31 | 2023-04-14 | 北京四维远见信息技术有限公司 | 2.5维图像自动真立体显示方法、装置、设备及存储介质 |
CN115457200A (zh) * | 2022-08-31 | 2022-12-09 | 北京四维远见信息技术有限公司 | 2.5维图像自动真立体显示方法、装置、设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11010958B2 (en) | Method and system for generating an image of a subject in a scene | |
CN109640070A (zh) | 一种立体显示方法、装置、设备及存储介质 | |
JP6643357B2 (ja) | 全球状取込方法 | |
US9818228B2 (en) | Mixed reality social interaction | |
US11880956B2 (en) | Image processing method and apparatus, and computer storage medium | |
US20160371884A1 (en) | Complementary augmented reality | |
US7907167B2 (en) | Three dimensional horizontal perspective workstation | |
US8933965B2 (en) | Method for calculating light source information and generating images combining real and virtual images | |
US8717423B2 (en) | Modifying perspective of stereoscopic images based on changes in user viewpoint | |
US20050275913A1 (en) | Binaural horizontal perspective hands-on simulator | |
US20110306413A1 (en) | Entertainment device and entertainment methods | |
KR20180111798A (ko) | 파노라마 프레임 생성 프로세스에서 프레임의 적응적 스티칭 | |
CN106157359A (zh) | 一种虚拟场景体验系统的设计方法 | |
CN109660783A (zh) | 虚拟现实视差校正 | |
CN105611267B (zh) | 现实世界和虚拟世界图像基于深度和色度信息的合并 | |
CN104536579A (zh) | 交互式三维实景与数字图像高速融合处理系统及处理方法 | |
CN107168534B (zh) | 一种基于cave系统的渲染优化方法及投影方法 | |
CN105894571A (zh) | 一种处理多媒体信息的方法及装置 | |
EP3665656B1 (en) | Three-dimensional video processing | |
CN105893452A (zh) | 一种呈现多媒体信息的方法及装置 | |
CN113485547B (zh) | 一种应用于全息沙盘的交互方法及装置 | |
CN109949396A (zh) | 一种渲染方法、装置、设备和介质 | |
CN116866541A (zh) | 一种虚实结合的实时视频交互系统及方法 | |
CN105894581B (zh) | 一种呈现多媒体信息的方法及装置 | |
KR101893038B1 (ko) | 개별 영상신호 출력을 이용한 매핑 유사홀로그램 제공 장치 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190416 |
|
RJ01 | Rejection of invention patent application after publication |