CN102662292A - 一种3d场景成像方法、装置及显示终端 - Google Patents
一种3d场景成像方法、装置及显示终端 Download PDFInfo
- Publication number
- CN102662292A CN102662292A CN2012101184215A CN201210118421A CN102662292A CN 102662292 A CN102662292 A CN 102662292A CN 2012101184215 A CN2012101184215 A CN 2012101184215A CN 201210118421 A CN201210118421 A CN 201210118421A CN 102662292 A CN102662292 A CN 102662292A
- Authority
- CN
- China
- Prior art keywords
- scene
- width
- cloth
- image
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
Abstract
本发明适用于3D显示技术领域,提供了一种3D场景成像方法、装置及显示终端,所述方法包括下述步骤:在虚拟3D场景中创建两个摄像节点;根据预设摄像参数,确定该两个摄像节点同时采集到的两幅3D场景图像的图像间距;将该两幅3D场景图像集成在同一显示窗口中,该两幅3D场景图像的显示间距值为该图像间距;将集成后的该两幅3D场景图像输出到支持3D显示功能的显示设备上显示。本发明提高了3D成像的准确度,也增强了成像后的3D效果。
Description
技术领域
本发明属于3D显示技术领域,尤其涉及一种3D场景成像方法、装置及显示终端。
背景技术
3D成像技术的发展,基本上已经得到大众的肯定,主要是因为它比传统的电视能够带给观众更大的真实感与现场感受,能够把人的眼睛、耳朵甚至于思想完全带入一个虚拟的世界中去,不仅能够使观众获得精神与思想上的最大放松,还可以体现不一样的生活方式。三维显示是一种能够在一个真正具有宽度、高度和深度的真实三维空间内进行图像信息再现的技术,当前成为国内各大电视厂家吸引用户的第一把利器。为了在市场竞争中能让用户有一种全新的视觉及应用体验,三维显示的UI界面将是UI开发的另一个重点。然而,现有的3D场景的成像处理技术仍然存在成像不够准确,3D效果不够好的问题。
发明内容
本发明实施例的目的在于提供一种3D场景成像方法、装置及显示终端,旨在解决由于现有的3D场景的成像处理技术存在成像准确度不高、处理后的3D效果不够好的问题。
本发明实施例是这样实现的,一种3D场景成像方法,所述方法包括下述步骤:
在虚拟3D场景中创建两个摄像节点;
根据预设摄像参数,确定所述两个摄像节点同时采集到的两幅3D场景图像的图像间距;
将所述两幅3D场景图像集成在同一显示窗口中,所述两幅3D场景图像的显示间距值为所述图像间距;
将集成后的所述两幅3D场景图像输出到支持3D显示功能的显示设备上显示。
本发明实施例的另一目的在于提供一种3D场景成像装置,所述装置包括:
摄像节点创建单元,用于在虚拟3D场景中创建两个摄像节点;
间距确定单元,用于根据预设摄像参数,确定所述两个摄像节点同时采集到的两幅3D场景图像的图像间距;
间距设置单元,用于将所述两幅3D场景图像集成在同一显示窗口中,所述两幅3D场景图像的显示间距值为所述图像间距;以及
输出单元,用于将集成后的所述两幅3D场景图像输出到支持3D显示功能的显示设备上显示。
本发明实施例的另一目的在于提供一种包括上述3D场景成像装置的显示终端。
本发明实施例通过在虚拟3D场景中创建两个摄像节点,根据预设摄像参数确定该两个摄像节点同时采集到的两幅3D场景图像的图像间距,将该两幅3D场景图像集成在同一显示窗口中,且该两幅3D场景图像的显示间距值为该图像间距,最后将集成后的该两幅3D场景图像输出到支持3D显示功能的显示设备上显示,解决了由于现有的3D场景的成像处理技术存在成像准确度不高、处理后的3D效果不够好的问题,使得3D成像结果更准确,3D成像效果得到提升。
附图说明
图1是本发明第一实施例提供的3D场景成像方法的实现流程图;
图2是本发明实施例提供的单个用户眼睛视锥角的示意图;
图3是本发明实施例提供的基于平行模式的3D成像原理示意图;
图4是本发明实施例提供的搭建好的3D场景的显示效果图;
图5是本发明实施例提供的两个摄像节点采集同一场景得到的两幅图像示意图;
图6是本发明实施例提供的平移后的两幅图像在不开启3D功能时的显示效果图;
图7是本发明实施例提供的平移后的两幅图像在开启3D功能后的显示效果图;
图8是本发明实施例提供的从场景上方观察的3D场景循环成像效果示意图;
图9是本发明实施例提供的从场景前方观察的3D场景循环成像效果示意图;
图10是本发明第二实施例提供的3D场景成像方法的实现流程图。
图11是本发明第三实施例提供的3D场景成像装置的结构图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
以下结合具体实施例对本发明的具体实现进行详细描述:
实施例一:
图1示出了本发明第一实施例提供的3D场景成像方法的实现流程,详述如下:
在现实生活中,人们通过眼睛观察的周围环境之所以是3D的,是因为人的两只眼睛所处的空间位置不同,可以从两个不同的视角同时获得两幅不同的场景图像,而人的大脑可以根据两幅图像的差异判断出物体与双眼的距离等空间信息,形成一幅3D的画面呈现在脑海中。为了使三维场景中的事物具有3D显示的效果,就需要模拟人眼的成像方式,为人眼提供左右两幅具有差异的图像信息。理论和实验表明,两个目标摄像机与三维模型的位置关系、两个目标摄像机之间的距离、人眼视锥角等是影响3D成像效果的重要因素。
在本发明实施例中,平行模式的3D成像原理如下所述:对于单个人眼来说,如图2所示的视锥角θ是影响立体显示的一个因素,视锥角为视线的上下两条边界所成的夹角,视锥角范围内的区域为可视区域,视锥角范围外的区域为不可见区域。如图3所示为本发明实施例提供的基于平行模式的3D成像原理示意图,其中,e为用户双眼之间的间距,一般为65mm;L为双眼视线重叠的范围内某一交点O所在水平平面(实际的屏幕所在平面)距离该双眼中任意一只眼睛的距离(即观看距离);Q1和Q2两点分别是用户眼前的两个物体;L1、L2、R1、R2分别为通过左眼和右眼分别看Q1、Q2时,在视线交点所在水平平面所成的像。L1、R1是Q1的左、右眼成像,Q1位于水平平面后与水平平面距离为v1处的位置上,因此左右眼的图像经过大脑合成后构成Q1在平面后方的效果;L2、R2是Q2的左、右眼成像,左眼的成像位于右眼的成像的右边,Q2位于水平平面前与水平平面距离为v2处的位置上,因此给人的感觉是Q2位于平面前接近人眼的地方。对于人眼来说,最佳的3D成像距离是位于人眼前7m的距离范围内,当物体离人眼越来越远时,3D的感觉也会越来越弱。
综合以上结果可以得出这样的结论,以视线交点的所在水平平面为基准面,若要让物体的成像效果位于眼睛到基准面的范围内,物体的左右成像需要呈现颠倒的效果,即左眼图像要在右眼图像的右边;反之,若要让物体的成像效果位于基准面之外并远离眼睛,物体的左眼图像就需要在右眼图像的左边;当左右眼的图像在都处于基准面内相同位置,即视线的交点所在水平平面时,则成像效果就在基准面上。
在步骤S101中,在虚拟3D场景中创建两个摄像节点。
在具体实施过程中,以通过OpenGL(Open Graphics Library,底层图形库)搭建的一个城堡漫游的3D场景为例,如图4所示为该搭建好的3D场景的显示效果图,该3D场景的搭建方法为:将场景中用到的事物通过3D模型制作软件,做成若干个独立的模型文件,在本例中,模型都是以3ds格式存在,分别为整个城堡建筑,城堡中的火焰、灯光及天空等。通过使用OpenGL,加载已经做好的模型文件到该场景中,并调整每个模型各自的坐标、旋转、大小等属性,使各个模型拼接合成为一个整体的三维城堡场景。接着在该3D场景中添加两个摄像节点或称两个Camera节点,即第一摄像节点以及第二摄像节点,通过该两个Camera节点来模拟人的双眼。
具体地,通过上述平行模式的3D成像原理,设置场景中的两个Camera节点,以使得该两个Camera节点模拟人的双眼,则分别可以获取左眼和右眼看到的图像,并将这两幅图像分别放置在同一显示窗口的左右两边。
在步骤S102中,根据预设摄像参数,确定该两个摄像节点同时采集到的两幅3D场景图像的图像间距。
在本实施例中,该步骤S102具体包括:
A1、根据预先创建的两个摄像节点间的位置间距与摄像参数的映射关系,确定该两个摄像节点之间的位置间距;
A2、根据预先创建的图像间距与摄像参数、位置间距之间的映射关系,确定该两个摄像节点同时采集到的两幅3D场景图像的图像间距。
其中,该预设摄像参数包括该3D场景中最靠近用户眼睛的物体成像后的3D深度、用户双眼之间的距离、该两个摄像节点中任意摄像节点距离该两个摄像节点的视线交点所在水平平面的距离、最靠近用户眼睛的物体距离该两个摄像节点连线的距离、该显示设备屏幕的水平方向分辨率、该屏幕单个像素的宽度值和/或用户最佳的观看距离。
具体地,在本发明实施例中,3D场景中安置两个摄像节点分别模拟人的双眼提供左眼和右眼的成像结果,该两个Camera的摆放受到了众多因素的影响,而两个Camera之间的位置间距也对3D成像效果产生极大地影响。则以平行模式的3D成像原理为基础的Camera摆放位置计算方法如下公式(1)所示,且该公式(1)也为预先创建的两个摄像节点间的位置间距与摄像参数的映射关系:
其中,dis_camera表示两个Camera之间的位置间距;dep_view表示3D场景中最靠近用户眼睛的物体成像后的3D深度;dis_eye表示人双眼之间的距离;dis_focus两个Camera的视线交点所在水平平面距离该两个Camera中任意摄像节点的距离;dis_close表示最靠近用户眼睛的物体距离两个Camera连线之间的距离;X_resolution表示显示设备屏幕的水平方向分辨率;wid_pixel表示屏幕单个像素的宽度值;dis_person表示最佳的观看距离。在这些摄像参数中,通常取dis_eye为65mm,dis_person取值为2000mm,而X_resolution与wid_pixel则根据当前显示设备属性有关,其他摄像参数则是根据虚拟出来的3D场景的特性来设定。由于采用了平行模式的Camera摆放方法,可以认为两个Camera的视线交点是位于场景中无穷远的位置上,因此参考图3就可以认为两个Camera的基准面是位于无穷远的位置上,而两个Camera的成像则是位于该两个Camera和该基准面之间,此时3D场景中的所有物体都具有“出屏”效果。
在对基准面所在的位置做了定义,也即定义了两个Camera的视线交点所在水平平面为基准平面之后,为了让整个场景既有“出屏”效果,又有“入屏”效果,就需要对取得的左右两幅图像进行叠加,使需要做基准平面的点相互重合。重合后,位于基准面与双眼之间的部分将呈现“出屏”的效果,位于基准面之后且远离双眼的部分呈现“入屏”的效果,两幅图像重合的部分呈现在屏幕上的效果。叠加过程是要将左眼的图像向左边方向移动,而右眼的图像向右边方向移动,叠加过程根据dis_focus的取值对两个camera同时采集到的图像作相应的平移,确定该两个camera节点同时采集到的两幅3D场景图像的图像间距,图像间距的计算公式如下(2)所示,且该公式(2)也为预先创建的图像间距与摄像参数的映射关系以及位置间距的映射关系:
从而,利用上述公式(1)及(2),结合预设摄像参数,最终可以确定该两个摄像节点同时采集到的两幅3D场景图像平移后的图像间距dis_mov。
以本发明实施例提供的城堡漫游场景中的一处场景为例,如图5(a)所示,选取墙壁的左右两个烛火(粗黑圈标注的位置)连线所处的垂直平面为两个Camera的视线交点所处的平面,即可以认为是立体显示后屏幕所处的平面,在本发明实施例中,立体显示后,场景中的所有物体都是以屏幕为参照系,分为出屏和入屏两种效果。如图5(b)所示,从上方观察,图中粗黑色连线即为墙壁的左右两个烛火的连线,图中两个粗黑色边框的方块为两个camera节点的位置,且该两个粗黑色边框的方块到该粗黑色连线的距离即为dis_focus的值,本发明实施例中,设置该dis_focus的值为2000mm。dis_close表示最靠近用户眼睛的物体距离两个Camera节点的距离,在本发明实施例中,选取该参数值为100000mm,该最靠近用户眼睛的物体位于上图粗黑色直线和粗黑色边框方块中间的位置。立体成像后,该位置上的物体将会以屏幕为参照面,位于屏幕外距离为dep_view的位置上,本例中dep_view取值为500mm,可以认为该位置上的物体距离屏幕0.5m。公式(1)中其他的参数可以由现实事物的客观属性来设定,本发明实施例中,设点dis_eye(用户双眼间距)为65mm,屏幕的水平方向分辨率X_resolution为1280,屏幕上的每个像素宽度wid_pixel为0.264mm。当使用其他屏幕,如其他分辨率或其他尺寸的显示设备时,X_resolution和wid_pixel则需要实际情况重新设定。根据以上设定的参数取值,再运用上述公式(1),即可算出该两个Camera节点之间的位置间距dis_camera值为17510mm,由毫米mm转换到米为17.51m,即为上图5(b)中两个粗黑色边框的方块之间的距离。
进一步地,该预设摄像参数分别为dep_view=500mm,dis_eye=65mm,dis_focus=200000mm,dis_close=100000mm,X_resolution=1280,wid_pixel=0.264mm,dis_person=2000mm,θ=80°,则根据上述公式(2)可以获取该两个摄像camera节点同时采集到的两幅3D场景图像的图像间距为1.042cm。
在步骤S103中,将该两幅3D场景图像集成在同一显示窗口中,该两幅3D场景图像的显示间距值为该图像间距。
其中,该步骤S103具体包括:
B1、将该两幅3D场景图像中位于显示窗口左边的一幅3D场景图像按照该图像间距值的一半的偏移量向左平移;
B2、将该两幅3D场景图像中位于显示窗口右边的一幅3D场景图像按照该图像间距值的一半的偏移量向右平移。
在具体实施过程中,基于平行模式的3D成像原理,为了使该两个摄像节点同时采集到的两幅3D场景图像在立体成像后有一个视线的焦点,需要对该两幅图像进行水平方向的平移,使位于显示窗口或者屏幕左边的一幅3D场景图像按照所述图像间距值的一半的偏移量向左平移,使位于显示窗口右边的一幅3D场景图像按照该图像间距值的一半的偏移量向右平移。需要说明的是,当该两幅图像处于上下模式显示时,该位于显示窗口上面的图相当于左图,该位于显示窗口下面的图相当于右图,同理,进行相应的水平方向平移。
在步骤S104中,将集成后的该两幅3D场景图像输出到支持3D显示功能的显示设备上进行显示。
在具体实施过程中,将设置好该显示间距值的该两幅3D场景图像输出到支持3D显示功能的显示设备上。若使用左右模式作为输出格式,采用具有3D功能的液晶电视作为显示设备,在不开启3D功能时,电视成像效果如图6所示,其中左右两幅图之间的竖条即为图像平移后留下的空隙。而当开启电视3D功能后,该成像效果如图7所示。需要说明的是,图7中的成像并没有完全与6中的图像对应,因为用户需要佩戴立体眼镜才能使左眼的图像进入左眼,右眼的图像进入右眼,从而使用户看到完整、准确的立体场景。在图7所示的立体成像的效果中,两个烛火的位置是位于屏幕位置上的,而远离两个烛火的物体是在屏幕的后方,如远处的黑色边框内的光球和该光球后面的窄门;而位于Camera节点和烛火之间的物体则会位于屏幕前方,并且最近的物体位于屏幕前0.5m处。
为了更好的体现该立体成像方法的可行性,本发明实施例在该3D场景中加入了循环出现的人物动画,人物从黑色边框的光球处出现,经过两个烛火,到Camera节点附近消失,从上方观察的效果如图8中(a)、(b)、(c)、(d)所示。而立体成像后的效果为人物从电视屏幕的后面出现,并逐渐冲出屏幕,最后消失在屏幕前0.5m的位置,使观察者能感觉到人物动画冲出屏幕的视觉效果,立体成像后人物动画效果如图9中(a)、(b)、(c)、(d)所示,也即具有更佳的“出屏”或者“入屏”效果。
该3D场景成像方法还包括:通过安装在显示终端的显示器上的深度摄像头,实时获取该显示器屏幕前运动目标与该屏幕的距离值;判断3D场景中预设交互对象成像后的3D深度与该距离值的差值是否在预设范围内,是,则对该预设交互对象的成像进行预设的响应处理,否,则不作响应,其中,该交互对象可以为3D场景中的某个实体(例如运动的人物)或虚拟按键等,预设的响应处理可以为发出声光信号或执行人机交互步骤等。具体过程如下述实施例二所述,在此不再赘述。
本发明实施例通过根据预设的摄像参数,确定该两个摄像节点同时采集到的两幅3D场景图像的图像间距,进而利用该图像间距设置该两幅3D场景图像集成在同一显示窗口内时的显示间距值,将设置好显示间距值的该两幅3D场景图像到支持3D显示功能的显示设备上,使得3D成像相对于现有显示技术成像的效果,具有成像速度更快、更准确,3D成像后的立体感得到增强。
实施例二:
图10示出了本发明第二实施例提供的3D场景成像方法的实现流程,详述如下:
在步骤S1001中,在虚拟3D场景中创建两个摄像节点。
在步骤S1002中,根据预设摄像参数,确定该两个摄像节点同时采集到的两幅3D场景图像的图像间距。
在步骤S1003中,将该两幅3D场景图像集成在同一显示窗口中,该两幅3D场景图像的显示间距值为该图像间距。
在步骤S1004中,将集成后的该两幅3D场景图像输出到支持3D显示功能的显示设备上进行显示。
在本发明实施例中,该步骤S1001、步骤S1002、步骤S1003、步骤S1004与上述实施例一中步骤S101、步骤S102、步骤S103、步骤S104一一对应,在此不再赘述。
则在基于预先创建的两个摄像节点间的位置间距与摄像参数的映射关系,图像间距与摄像参数、位置间距之间的映射关系,最终可以确定该两个摄像节点同时采集到的两幅3D场景图像的图像间距,并进一步根据该图像间距,将该两幅3D场景图像集成在同一显示窗口中显示,使得在支持3D功能的显示设备的屏幕上显示时该集成后的3D场景图像,之后,该3D场景成像方法还包括下述步骤:
在步骤S1005中,通过安装在显示终端的显示器上的深度摄像头,实时获取该显示器屏幕前运动目标与该屏幕的距离值。
在具体实施过程中,深度摄像头是通过给运动目标连续发送光脉冲,然后用传感器接收从物体返回的光,通过探测光脉冲的往返时间来计算得到运动目标距离。深度摄像头是由光源、光学部件、传感器、控制电路以及处理电路等几部单元组成,且可以安装在显示终端的显示器上,并使该摄像头面向用户,通过调用摄像头的启动接口开启摄像头,实时读取摄像头获得的视野范围内运动目标的深度信息,具体为该显示器屏幕前指定物体(例如遥控器等)或者用户、用户的肢体等与该屏幕的距离值,例如获取指定用户所处的位置与显示器屏幕之间的距离,或者用户伸出手臂,用户手到该深度摄像头的距离,或者指定物体与显示器屏幕之间的距离等等。
在步骤S1006中,判断3D场景中预设交互对象成像后的3D深度与该距离值的差值是否在预设范围内,是则执行步骤S1007,否则执行步骤S1008,不作响应。其中,该交互对象可以为3D场景中的某个实体(例如运动的人物)或虚拟按键等,预设的响应处理可以为发出声光信号或执行人机交互步骤等。
在步骤S1007中,对该预设交互对象的成像进行预设的响应处理。
在具体实施过程中,继续判断3D场景中预设交互对象成像后的3D深度与该距离值之间的差值是否在预设范围内,其中,该预设范围的最小值大于等于0,具体范围可以根据实际情况设定,比如,判断当该距离值小于等于3D场景中预设交互对象成像后的3D深度,则对该预设交互对象的成像进行预设的响应处理,具体可以预先设置好该指定物体或者用户的动作或者位置信息等于预设交互对象的成像之间的响应处理关系,然后根据该响应处理关系以及该指定物体或者用户的动作或者位置信息等,做出相应的场景处理操作等,实现交互,否则可以不做任何处理操作。
具体地,基于平行模式的3D成像可以实现将计算机建立的3D场景3D化地成像出来,实现了将场景中靠近摄像节点的物体成像在屏幕前深度为dep_view的位置上,例如,需要将3D场景中最靠近摄像节点的物体显示在屏幕前深度为0.5m的地方,那么通过本发明实施例提供的3D成像方法进行3D成像后,该物体就会在屏幕前0.5m的位置出现3D效果,成像准确度大大提高。而借助于深度摄像头的深度检测,比如,当用户伸出手臂去触摸这个3D成像后,深度摄像头会实时地检测用户的手和屏幕之间的距离,当用户的手与屏幕之间的距离正好和3D显示后物体深度相同或者小于该物体深度时,就可以认为此时用户的手已经触摸到了3D显示的物体,系统可以根据这个信息的反馈,结合用户手的动作等做出相应的响应处理,从而达到在3D成像的环境下3D交互的效果。
该3D场景成像方法的3D交互方式可以应用于各种需要人机交互的案例中,例如可以应用于用户和电视机之间的交互,用户可以通过自己设定的动作实现对电视机的操作,从而不同于传统的遥控器操作,且在实现显示屏幕前用户或者物体与3D虚拟场景中物体成像之间的交互的基础上,极大地提升了用户操作体验以及成像效果。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,所述的程序可以存储于一计算机可读取存储介质中,所述的存储介质,如ROM/RAM、磁盘、光盘等。
实施例三:
图11示出了本发明第三实施例提供的3D场景成像装置的结构,为了便于说明,仅示出了与本发明实施例相关的部分。
该3D场景成像装置可以用于显示终端,或者具有3D显示功能的其他显示终端,例如电视机等中,可以是运行于这些显示终端内的软件单元,也可以作为独立的挂件集成到这些显示终端中或者运行于这些显示终端的应用系统中,该3D场景成像装置包括摄像节点创建单元111、间距确定单元112、间距设置单元113、输出单元114、深度值获取115、判断单元116以及判断结果处理单元117,其中:
摄像节点创建单元111,用于在虚拟3D场景中创建两个摄像节点。
在本发明实施例中,以图4所示的虚拟3D场景为例,利用该摄像节点创建单元111在虚拟3D场景中添加两个摄像节点或称两个Camera节点,即第一摄像节点以及第二摄像节点,其中,该第一摄像节点可以观察浏览整个场景,该第二摄像节点可以用于显示,并通过后续步骤,调整两个Camera节点到合适的位置,也即设置场景中的两个Camera节点,通过该两个Camera节点来模拟人的双眼。具体地,通过上述平行模式的3D成像原理,设置场景中的两个Camera节点,以使得该两个Camera节点模拟人的双眼,则分别可以获取左眼和右眼看到的图像,并将这两幅图像分别放置在同一显示窗口的左右两边显示。
间距确定单元112,用于根据预设摄像参数,确定该两个摄像节点同时采集到的两幅3D场景图像的图像间距。
该间距确定单元112具体包括:
位置间距获取子单元1121,用于根据预先创建的两个摄像节点间的位置间距与摄像参数的映射关系,确定该两个摄像节点之间的位置间距;以及
图像间距获取子单元1122,用于根据预先创建的图像间距与摄像参数、位置间距之间的映射关系,确定该两个摄像节点同时采集到的两幅3D场景图像的图像间距。
其中,该预设摄像参数包括该3D场景中最靠近用户眼睛的物体成像后的3D深度、用户双眼之间的距离、该两个摄像节点中任意摄像节点距离该两个摄像节点的视线交点所在水平平面的距离、最靠近用户眼睛的物体距离该两个摄像节点连线的距离、该显示设备屏幕的水平方向分辨率、该屏幕单个像素的宽度值、用户最佳的观看距离。
在本发明实施例中,在计算机3D场景中安置两个摄像节点或称两个Camera之后,也即第一摄像节点与第二摄像节点,分别模拟人的双眼提供左眼和右眼的成像结果,该两个Camera的摆放受到了众多因素的影响,而两个Camera之间的位置间距也对3D成像效果产生极大地影响,则基于上述平行模式的3D成像原理,利用上述公式(1)可以确定两个Camera摆放位置距离,且该公式(1)也代表了该两个摄像节点间的位置间距与摄像参数的映射关系。由于采用了平行模式的Camera摆放方法,可以认为两个Camera的视线交点是位于场景中无穷远的位置上,因此参考图2就可以认为两个Camera的基准面是位于无穷远的位置上,而两个Camera的成像则是位于该两个Camera和该基准面之间,此时3D场景中的所有物体都具有“出屏”效果。在定义了两个Camera的视线交点所在水平平面为基准平面之后,为了让整个场景既有“出屏”效果,又有“入屏”效果,就需要对取得的左右两幅图像进行叠加,使需要做基准平面的点相互重合。重合后,位于基准面与双眼之间的部分将呈现“出屏”的效果,位于基准面之后且远离双眼的部分呈现“入屏”的效果,两幅图像重合的部分呈现在屏幕上的效果。叠加过程是要将左眼的图像向左边方向移动,而右眼的图像向右边方向移动,叠加过程根据预设摄像参数的取值对两个camera同时采集到的图像作相应的平移,确定该两个camera节点同时采集到的两幅3D场景图像的图像间距,图像间距的计算公式如公式(2)所示,且该公式(2)也代表了预先创建的图像间距与摄像参数的映射关系以及位置间距的映射关系。利用上述公式(1)及(2),结合预设摄像参数,最终可以确定该两个摄像节点同时采集到的两幅3D场景图像平移后的图像间距。
间距设置单元113,用于将该两幅3D场景图像集成在同一显示窗口中,该两幅3D场景图像显示间距值为该图像间距。
该间距设置单元113具体包括:
第一间距设置子单元1131,用于将该两幅3D场景图像中位于显示窗口左边的一幅3D场景图像按照该图像间距值的一半的偏移量向左平移;以及
第二间距设置子单元1132,用于将该两幅3D场景图像中位于显示窗口右边的一幅3D场景图像按照该图像间距值的一半的偏移量向右平移。
在本发明实施例中,基于平行模式的3D成像原理,为了使该两个摄像节点同时采集到的两幅3D场景图像在立体成像后有一个视线的焦点,需要对该两幅图像进行水平方向的平移,也即利用第一间距设置单元使位于显示窗口或者屏幕左边的一幅3D场景图像按照一半所述图像间距值的偏移量向左平移,利用第二间距设置单元使位于显示窗口右边的一幅3D场景图像按照一半该图像间距值的偏移量向右平移。需要说明的是,当该两幅图像处于上下模式显示时,该位于显示窗口上面的图相当于左图,该位于显示窗口下面的图相当于右图,同理,进行相应的水平方向平移。
输出单元114,用于将集成后的该两幅3D场景图像输出到支持3D显示功能的显示设备上进行显示。
在本发明实施例中,该输出单元104输出设置好该显示间距值的该两幅3D场景图像到支持3D显示功能的显示设备上。若使用左右模式作为输出格式,采用具有3D功能的液晶电视作为显示设备,在不开启3D功能时,电视成像效果如图6所示,其中左右两幅图之间的竖条即为图像平移后留下的空隙。而当开启电视3D功能后,该成像效果如图7所示。从而,通过佩戴立体显示眼镜,就可以看到立体的场景。在图7所示的立体成像的效果中,两个烛火的位置是位于屏幕位置上的,而远离两个烛火的事物是在屏幕的后方,如远处的黑色边框内的光球和该光球后面的窄门;而位于Camera节点和烛火之间的事物则会位于屏幕前方,并且最近的物体位于屏幕前0.5m处。
该3D场景成像装置还包括:
深度值获取单元115,用于通过安装在显示终端的显示器上的深度摄像头,实时获取该显示器屏幕前运动目标与该屏幕的距离值;
判断单元116,用于判断3D场景中预设交互对象成像后的3D深度与该距离值的差值是否在预设范围内;以及
判断结果处理单元117,用于当该判断单元输出结果为是时,对该预设交互对象的成像进行预设的响应处理,当该判断单元116输出结果为否时,不作响应。
其中,该交互对象可以为3D场景中的某个实体(例如运动的人物)或虚拟按键等,预设的响应处理可以为发出声光信号或执行人机交互步骤等。
在本发明实施例中,在显示设备的显示器上安装深度摄像头,并使该摄像头面向用户,通过调用摄像头的启动接口开启摄像头,实时读取摄像头获得的视野范围内运动目标的深度信息,具体为该显示器屏幕前交互对象与该屏幕的距离值,例如获取指定用户所处的位置与显示器屏幕之间的距离,或者用户伸出手臂,用户手到该深度摄像头的距离,或者指定物体(例如遥控器等)与显示器屏幕之间的距离等等。继续判断3D场景中预设交互对象成像后的3D深度与该距离值之间的差值是否在预设范围内,其中,该预设范围的最小值大于等于0,当判断结果为是时,则做出相应的场景处理操作等,实现交互,否则可以不做任何处理操作。例如,借助于深度摄像头的深度检测,当用户伸出手臂去触摸这个3D成像后,显示在屏幕前的物体时,深度摄像头会实时地检测用户的手和屏幕之间的距离,当用户的手与屏幕之间的距离正好和3D显示后物体深度相同或者小于该物体深度时,就可以认为此时用户的手已经触摸到了3D显示的物体,系统可以根据这个信息的反馈做出相应的响应处理,从而达到在3D成像的环境下3D交互的效果。
本发明实施例提供了一种3D成像装置,通过摄像节点创建单元在虚拟3D场景中创建两个摄像节点,间距确定单元根据预设摄像参数,确定该两个摄像节点同时采集到的两幅3D场景图像的图像间距,间距设置单元将该两幅3D场景图像集成在同一显示窗口中,该两幅3D场景图像的显示间距值为该图像间距,输出单元将集成后的该两幅3D场景图像输出到支持3D显示功能的显示设备上进行显示,实现了基于预设摄像参数,确定该两个摄像节点同时采集到的两幅3D场景图像的图像间距,从而设置该两幅3D场景图像集成在同一显示窗口内时的显示间距值,使得显示在屏幕上的3D成像效果较佳。
本发明实施例通过虚拟3D场景中的两个摄像节点采集两幅3D场景图像,该两个摄像节点可以模拟人的双眼工作原理,能够根据预设摄像参数,确定该两个摄像节点同时采集到的两幅3D场景图像的图像间距,进一步将该两幅3D场景图像集成在同一显示窗口中,且该两幅3D场景图像的显示间距值为该图像间距,将设置好显示间距值的该两幅3D场景图像到支持3D显示功能的显示设备上,以显示该3D场景的3D成像,解决了现有的3D场景的成像处理技术存在成像准确度不高、处理后的3D效果不够好的问题,使得3D成像结果更准确,3D成像效果得到提升。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种3D场景成像方法,其特征在于,所述方法包括下述步骤:
在虚拟3D场景中创建两个摄像节点;
根据预设摄像参数,确定所述两个摄像节点同时采集到的两幅3D场景图像的图像间距;
将所述两幅3D场景图像集成在同一显示窗口中,所述两幅3D场景图像的显示间距值为所述图像间距;
将集成后的所述两幅3D场景图像输出到支持3D显示功能的显示设备上显示。
2.如权利要求1所述的方法,其特征在于,所述预设摄像参数包括所述3D场景中最靠近用户眼睛的物体成像后的3D深度、用户双眼之间的距离、所述两个摄像节点中任意摄像节点距离所述两个摄像节点的视线交点所在水平平面的距离、最靠近用户眼睛的物体距离所述两个摄像节点连线的距离、所述显示设备屏幕的水平方向分辨率、所述屏幕单个像素的宽度值和/或用户最佳的观看距离。
3.如权利要求2所述的方法,其特征在于,所述根据预设摄像参数,确定所述两个摄像节点同时采集到的两幅3D场景图像的图像间距的步骤具体包括:
根据预先创建的两个摄像节点间的位置间距与摄像参数的映射关系,确定所述两个摄像节点之间的位置间距;
根据预先创建的图像间距与摄像参数、位置间距的映射关系,确定所述两个摄像节点同时采集到的两幅3D场景图像的图像间距。
4.如权利要求1所述的方法,其特征在于,所述将所述两幅3D场景图像集成在同一显示窗口内时的显示间距值设置为所述图像间距的步骤具体为:
将所述两幅3D场景图像中位于显示窗口左边的一幅3D场景图像按照所述图像间距值的一半的偏移量向左平移;
将所述两幅3D场景图像中位于显示窗口右边的一幅3D场景图像按照所述图像间距值的一半的偏移量向右平移。
5.如权利要求1所述的方法,其特征在于,所述方法还包括:
通过安装在显示终端的显示器上的深度摄像头,实时获取所述显示器屏幕前运动目标与所述屏幕的距离值;
判断3D场景中预设交互对象成像后的3D深度与所述距离值的差值是否在预设范围内,是,则对所述预设交互对象的成像进行预设的响应处理。
6.一种3D场景成像装置,其特征在于,所述装置包括:
摄像节点创建单元,用于在虚拟3D场景中创建两个摄像节点;
间距确定单元,用于根据预设摄像参数,确定所述两个摄像节点同时采集到的两幅3D场景图像的图像间距;
间距设置单元,用于将所述两幅3D场景图像集成在同一显示窗口中,所述两幅3D场景图像的显示间距值为所述图像间距;以及
输出单元,用于将集成后的所述两幅3D场景图像输出到支持3D显示功能的显示设备上显示。
7.如权利要求6所述的装置,其特征在于,所述间距确定单元具体包括:
位置间距获取子单元,用于根据预先创建的两个摄像节点间的位置间距与摄像参数的映射关系,确定所述两个摄像节点之间的位置间距;以及
图像间距获取子单元,用于根据预先创建的图像间距与摄像参数、位置间距的映射关系,确定所述两个摄像节点同时采集到的两幅3D场景图像的图像间距。
8.如权利要求6所述的装置,其特征在于,所述间距设置单元具体包括:
第一间距设置子单元,用于将所述两幅3D场景图像中位于显示窗口左边的一幅3D场景图像按照所述图像间距值的一半的偏移量向左平移;以及
第二间距设置子单元,用于将所述两幅3D场景图像中位于显示窗口右边的一幅3D场景图像按照所述图像间距值的一半的偏移量向右平移。
9.如权利要求6所述的装置,其特征在于,所述装置还包括:
深度值获取单元,用于通过安装在显示终端的显示器上的深度摄像头,实时获取所述显示器屏幕前运动目标与该屏幕的距离值;
判断单元,用于3D场景中预设交互对象成像后的3D深度与所述距离值的差值是否在预设范围内;以及
判断结果处理单元,用于当所述判断单元输出结果为是时,对所述预设交互对象的成像进行预设的响应处理。
10.一种显示终端,其特征在于,所述显示终端包括权利要求6至9任一项所述的3D场景成像装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210118421.5A CN102662292B (zh) | 2012-04-20 | 2012-04-20 | 一种3d场景成像方法、装置及显示终端 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210118421.5A CN102662292B (zh) | 2012-04-20 | 2012-04-20 | 一种3d场景成像方法、装置及显示终端 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102662292A true CN102662292A (zh) | 2012-09-12 |
CN102662292B CN102662292B (zh) | 2016-03-02 |
Family
ID=46771806
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201210118421.5A Expired - Fee Related CN102662292B (zh) | 2012-04-20 | 2012-04-20 | 一种3d场景成像方法、装置及显示终端 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102662292B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103442104A (zh) * | 2013-08-21 | 2013-12-11 | 上海鼎为通讯电子有限公司 | 移动终端及其显示控制方法 |
CN107067456A (zh) * | 2017-05-16 | 2017-08-18 | 四川长虹电器股份有限公司 | 一种基于深度图优化的虚拟现实呈现方法 |
CN107233733A (zh) * | 2017-05-11 | 2017-10-10 | 腾讯科技(深圳)有限公司 | 目标对象的处理方法和装置 |
CN108924531A (zh) * | 2017-03-31 | 2018-11-30 | 深圳市易快来科技股份有限公司 | 一种3d出屏及入屏实现的方法、装置及移动端 |
CN110335360A (zh) * | 2019-05-24 | 2019-10-15 | 深圳大学 | 三维元素布局可视化方法和装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006293792A (ja) * | 2005-04-13 | 2006-10-26 | Hitachi Displays Ltd | 立体映像生成装置 |
CN1956554A (zh) * | 2005-09-03 | 2007-05-02 | 三星电子株式会社 | 三维图像处理装置和方法 |
CN101266546A (zh) * | 2008-05-12 | 2008-09-17 | 深圳华为通信技术有限公司 | 一种实现操作系统三维显示的方法和一种三维操作系统 |
CN101600123A (zh) * | 2009-07-06 | 2009-12-09 | 四川大学 | 获取视差图像的平行摄像机阵列移位法 |
EP2395765A2 (en) * | 2010-06-14 | 2011-12-14 | Nintendo Co., Ltd. | Storage medium having stored therein stereoscopic image display program, stereoscopic image display device, stereoscopic image display system, and stereoscopic image display method |
-
2012
- 2012-04-20 CN CN201210118421.5A patent/CN102662292B/zh not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006293792A (ja) * | 2005-04-13 | 2006-10-26 | Hitachi Displays Ltd | 立体映像生成装置 |
CN1956554A (zh) * | 2005-09-03 | 2007-05-02 | 三星电子株式会社 | 三维图像处理装置和方法 |
CN101266546A (zh) * | 2008-05-12 | 2008-09-17 | 深圳华为通信技术有限公司 | 一种实现操作系统三维显示的方法和一种三维操作系统 |
CN101600123A (zh) * | 2009-07-06 | 2009-12-09 | 四川大学 | 获取视差图像的平行摄像机阵列移位法 |
EP2395765A2 (en) * | 2010-06-14 | 2011-12-14 | Nintendo Co., Ltd. | Storage medium having stored therein stereoscopic image display program, stereoscopic image display device, stereoscopic image display system, and stereoscopic image display method |
Non-Patent Citations (1)
Title |
---|
王爱红,王琼华等: "立体显示中立体深度与视差图获取的关系", 《光学 精密工程》 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103442104A (zh) * | 2013-08-21 | 2013-12-11 | 上海鼎为通讯电子有限公司 | 移动终端及其显示控制方法 |
CN103442104B (zh) * | 2013-08-21 | 2016-07-06 | 上海鼎为通讯电子有限公司 | 移动终端及其显示控制方法 |
CN108924531A (zh) * | 2017-03-31 | 2018-11-30 | 深圳市易快来科技股份有限公司 | 一种3d出屏及入屏实现的方法、装置及移动端 |
CN107233733A (zh) * | 2017-05-11 | 2017-10-10 | 腾讯科技(深圳)有限公司 | 目标对象的处理方法和装置 |
CN107067456A (zh) * | 2017-05-16 | 2017-08-18 | 四川长虹电器股份有限公司 | 一种基于深度图优化的虚拟现实呈现方法 |
CN107067456B (zh) * | 2017-05-16 | 2019-11-26 | 四川长虹电器股份有限公司 | 一种基于深度图优化的虚拟现实呈现方法 |
CN110335360A (zh) * | 2019-05-24 | 2019-10-15 | 深圳大学 | 三维元素布局可视化方法和装置 |
US11900612B2 (en) | 2019-05-24 | 2024-02-13 | Shenzhen University | Three-dimensional element layout visualization method and apparatus |
Also Published As
Publication number | Publication date |
---|---|
CN102662292B (zh) | 2016-03-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103337095B (zh) | 一种真实空间三维地理实体的立体虚拟显示方法 | |
US7796134B2 (en) | Multi-plane horizontal perspective display | |
CN101587386B (zh) | 光标处理方法、装置及系统 | |
CN103402106A (zh) | 三维图像显示方法及装置 | |
TWI547901B (zh) | 模擬立體圖像顯示方法及顯示設備 | |
US10560683B2 (en) | System, method and software for producing three-dimensional images that appear to project forward of or vertically above a display medium using a virtual 3D model made from the simultaneous localization and depth-mapping of the physical features of real objects | |
CN104102013A (zh) | 影像显示装置和影像显示方法 | |
WO2006104493A2 (en) | Horizontal perspective display | |
CN102662292B (zh) | 一种3d场景成像方法、装置及显示终端 | |
CN109493760B (zh) | 一种多源同步展示数字沙盘系统 | |
JPH09238369A (ja) | 3次元像表示装置 | |
KR101177058B1 (ko) | 마커 기반 3차원 입체 시스템 | |
WO2017062730A1 (en) | Presentation of a virtual reality scene from a series of images | |
CN107948631A (zh) | 一种基于集群和渲染的裸眼3d系统 | |
CN102799378B (zh) | 一种立体碰撞检测物体拾取方法及装置 | |
TWI486052B (zh) | 立體影像處理裝置以及立體影像處理方法 | |
CN101655747B (zh) | 一种三维立体鼠标 | |
JP6168597B2 (ja) | 情報端末装置 | |
Zhang et al. | An interactive multiview 3D display system | |
Louis et al. | Rendering stereoscopic augmented reality scenes with occlusions using depth from stereo and texture mapping | |
KR101883883B1 (ko) | 플립영상을 차단하는 무안경 원통형 홀로그램 디스플레이 방법 | |
CN113382225B (zh) | 一种基于全息沙盘的双目全息展示方法及装置 | |
WO2018187743A1 (en) | Producing three-dimensional images using a virtual 3d model | |
KR101341597B1 (ko) | 카메라의 위치 및 각도에 따른 2차원 영상의 깊이 맵 자동 생성 방법 및 이를 이용한 양안 및 다시점 입체영상 제작 방법 | |
Alam et al. | 3D visualization of 2D/360° image and navigation in virtual reality through motion processing via smartphone sensors |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20160302 |