CN104409032B - 显示设备、终端设备和显示方法 - Google Patents
显示设备、终端设备和显示方法 Download PDFInfo
- Publication number
- CN104409032B CN104409032B CN201410718630.2A CN201410718630A CN104409032B CN 104409032 B CN104409032 B CN 104409032B CN 201410718630 A CN201410718630 A CN 201410718630A CN 104409032 B CN104409032 B CN 104409032B
- Authority
- CN
- China
- Prior art keywords
- display
- pixel
- display device
- observer
- example embodiment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/302—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
- H04N13/31—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
- H04N13/315—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers the parallax barriers being time-variant
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B30/00—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
- G02B30/20—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
- G02B30/26—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
- G02B30/27—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving lenticular arrays
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B30/00—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
- G02B30/20—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
- G02B30/26—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
- G02B30/27—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving lenticular arrays
- G02B30/28—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving lenticular arrays involving active lenticular arrays
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B30/00—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
- G02B30/20—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
- G02B30/26—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
- G02B30/30—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving parallax barriers
- G02B30/31—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving parallax barriers involving active parallax barriers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/356—Image reproducers having separate monoscopic and stereoscopic modes
- H04N13/359—Switching between monoscopic and stereoscopic modes
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- General Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
根据本发明,检测显示设备的移动,并根据检测到的移动,以立体显示或平面显示来显示图像。
Description
本申请是申请号为200980155402.6(“显示设备、终端设备和显示方法”)的中国专利申请的分案申请。
技术领域
本发明涉及用于显示图像的显示设备和显示方法,更具体地,涉及用于显示立体图像的显示设备、终端设备和显示方法。
背景技术
随着近年来移动电话和PDA(个人数字助理)的发展,本领域中已经做出了努力以生产更小尺寸和更高清晰度的显示设备。立体显示设备,作为可以添加至移动设备的新的额外价值,已经引起注意。一般地,用于显示立体图像的装置依赖于将具有双眼像差的图像分别投影至左眼和右眼的过程。存在一种立体显示设备,包括显示面板,该显示面板具有柱状透镜或视差屏障作为图像交换装置。另一立体显示设备是时分类型,包括两个光源,用于将光施加于右眼和左眼,以将左和右视差图像投影至右眼和左眼(见例如专利文献1)。
上述类型的立体显示设备适用于移动设备,因为它们不需要观察者佩戴特殊眼镜从而具有佩戴眼镜的麻烦。实际上,使用视差屏障立体显示设备的移动电话作为商用产品可用(见例如非专利文献1)。
然而,根据上述原理,由于对空间上分离的视差图像进行投影,观察者可以在有限的区域中看到立体图像。观察者可以看到立体图像的区域称为立体观看区域,并且是在设计立体显示设备时确定的。如果观察者的眼睛的位置偏离于立体观看区域,则出现以下问题:左图像和右图像可能看起来重叠(所谓双重图像),并且可以观察到具有反转的突起深度的图像(所谓伪立体图像)。
以下将描述立体观看区域。
首先,以下描述将视差屏障用作图像交换装置时实现的立体观看区域。
图1通过示例示出了一种光学模型,其中,在视差屏障立体显示设备中,将视差图像投影至观察者的左眼和右眼上。图1是从观察者的头上看去的截面图,示出了以下位置关系:其中,观察者的双眼(右眼55R和左眼55L)位于观察平面30上,观察平面30与显示设备的显示表面间隔最优观察距离OD,并且观察者的眼睛之间的中心与显示面板的中心对齐。
显示面板(未示出)包括一组光调制元件作为像素矩阵(例如液晶面板)。图1仅示出了交替排列的右眼像素4R和左眼像素4L中在显示面板的两端和中心处的像素。从观察者看来,用作图像交换装置的视差屏障6位于显示面板后方。视差屏障6是具有多个窄带形垂直缝隙6a的屏障(遮光板),并被布置为使其纵向垂直于显示面板的左眼像素4L和右眼像素4R所排列的方向。光源(未示出:所谓背光)进一步位于视差屏障后方。从光源发出的光穿过缝隙6a,其强度被显示面板的像素所调制,然后投影向观察者。从右眼像素4R和左眼像素4L投影的光的方向受到缝隙6a的存在的限制。从缝隙6a发出并穿过最接近像素的光线的路径被示为光线20。这些光线20定义了从所有右眼像素4R投影的图像叠加的右眼区域70R和从所有左眼像素4L投影的图像叠加的左眼区域70L。在右眼区域70R中,观察者只能观察到从所有右眼像素4R投影的图像。在左眼区域70L中,观察者只能看到从所有左眼像素4L投影的图像。因此,当观察者的右眼55R位于右眼区域70R并且观察者的左眼55L位于左眼区域70L时,观察者在视觉上将投影至其右眼和左眼的视差图像识别为立体图像。换言之,当观察者的右眼55R位于右眼区域70R并且观察者的左眼55L位于左眼区域70L时,观察者可以观察到所需立体图像。
图1所示的显示设备被设计为使得在距离OD处从右眼像素4R和左眼像素4L(宽度P)投影的所有图像(宽度P’)叠加,以最大化右眼区域70R和左眼区域70L的最大宽度L。投影的图像的宽度P’主要根据缝隙6a与像素之间的距离h、像素间距P以及最优观察距离OD来确定。如果P’增大,则右眼区域70R和左眼区域70L的宽度也增大,但是观察者可以在视觉上识别立体图像的立体观看区域不一定增大,因为不可能将观察者的眼睛置于任何所需位置。如果假定眼睛之间的距离由e表示,则优选地显示设备应当被设计为使得P’等于眼间距离e。如果P’小于眼间距离e,则立体观看区域限于P’。如果P’大于眼间距离e,则只有双眼均位于右眼区域70R或左眼区域70L的区域增大。观察者可以看到立体图像的直至显示面板的最小距离ND和最大距离FD也由眼间距离e、右眼区域70R和左眼区域70L确定。
如上所述,观察者看到基于投影的视差图像的立体图像的区域不仅由图像交换装置在光学上确定的右眼区域70R和左眼区域70L来确定,还由观察者的眼间距离e来确定。因此,立体观看区域可以由观察者的右眼55R与左眼55L之间的中点M附近的区域来表示。
如图2所示,所定义的立体观看区域71是菱形的矩形。然而,图2所示的立体观看区域71仅当包括观察者眼睛的平面与显示面板的表面位于互相平行时才有效。
图3示出了一种光学模型,其中,从观察者看来,用作图像交换装置的视差屏障6位于显示面板前方。与视差屏障6位于显示面板后方的示例的情况相同,显示设备被设计为使得观察者处于最优观察位置OD,并且从右和左像素(宽度P)投影的图像(宽度P’)叠加。从像素发出并且穿过最接近缝隙6a的光线的路径被示为光线20。这些光线20定义了从所有右眼像素4R投影的图像叠加的右眼区域70R和从所有左眼像素4L投影的图像叠加的左眼区域70L。
图4示出了通过使用柱状透镜作为图像交换装置来创建的立体观看区域。
图4与图3类似,只是图像交换装置不同。
以下描述使用柱状透镜的光学模型,其中观察者偏离于立体观看区域。
图5是从观察者头上看去的截面图,示出了向右偏离于立体观看区域71的观察者,立体观看区域71使用右眼55R和左眼55L之间的中点M来表示。观察者的右眼55R位于右眼区域70R之外,左眼55L位于右眼区域70R之内。此时,从右眼像素4R和左眼像素4L发出并穿过最接近的圆柱透镜3a的主点(顶点)的光线20不到达观察者的右眼55R的位置。从左眼像素4L发出并穿过次接近的圆柱透镜3a的光线21定义第二左眼区域72。在图5中,观察者利用右眼55R观察到从左眼像素4L投影的图像,并且利用左眼55L观察到从右眼像素4R投影的图像。因此,当观察者观察视差图像时,突起深度反转(所谓伪立体图像),观察者不能观察到所需立体图像。
为了解决上述问题,已经提出了始终检测观察者位置并根据检测到的位置来切换右眼像素和左眼像素的显示图像的过程(见例如专利文献2)。
此外,已经提出了利用摄像机来捕捉观察者的图像,根据所获得的观察者面部的图像来检测视点位置,并调整视差图像的过程(见例如专利文献3)。
为了检测视点位置,已经提出了利用红外辐照器和摄像机来检测瞳孔的过程(见例如专利文献4)。
现有技术文献:
专利文献:
专利文献1:JP 2001-66547A(3-4页,图6)
专利文献2:JP 9-152668A
专利文献3:JP 2000-152285A
专利文献4:JP 11-72697A
非专利文献:
非专利文献1:Nikkei Electronics,January 6,2003,No.838,p.26-27
发明内容
本发明要解决的问题:
尽管便携式立体显示设备允许观察者使用观察者自身的身体来将显示设备调整至对于立体观看最优的位置,但是显示设备本身可能由于外部因素(如对显示设备的操作以及使用显示设备的车辆的摇晃移动)而倾斜或移动。
由于显示设备的移动,观察者的眼睛的位置可能偏离于立体观看区域。在这种情况下,观察者可能不仅由于观看到双重图像和伪立体图像而感到不适,而且由于反复观看正常立体图像、双重图像和伪立体图像而感到疲惫,容易引起如眩晕和晕车之类的症状。
根据一般的视点跟踪系统,显示设备需要使用摄像机、用于检测视点位置的图像处理功能、以及红外辐照器,因此变得尺寸较大,并且必须满足复杂图像处理能力的要求。因此,一般的视点跟踪系统不适于在便携式立体显示设备上使用。
本发明的目的是提供解决上述问题的显示设备、终端设备和显示方法。
解决问题的方案:
根据本发明,提供了一种用于显示图像的显示设备,其中,检测显示设备的移动,并根据检测到的移动,以立体显示或平面显示来显示所述图像。
根据本发明,还提供了一种用于在显示设备上显示图像的显示方法,包括:
检测显示设备的移动;以及
根据检测到的移动,以立体显示或平面显示来显示图像。
本发明的优点:
根据本发明,如上所述,检测显示设备的移动,并根据检测到的移动,以立体显示或平面显示来显示图像。因此,即使显示设备的移动违背观察者的意愿,将观察者至于立体观看区域之外,也容易防止观察者观察到伪立体图像和双重图像,从而防止观察者感到不适和疲惫。
附图说明
图1是示出了具有位于显示面板后方的视差屏障的视差屏障立体显示设备的光学模型的图;
图2是示出了立体观看区域作为观察者的右眼和左眼之间的中点M附近的区域的图;
图3是示出了具有位于显示面板前方的视差屏障的视差屏障立体显示设备的光学模型的图;
图4是示出了具有柱状透镜的立体显示设备的光学模型的图;
图5是示出了观察者偏离于立体观看区域的光学模型的图;
图6是根据本发明的显示设备的正视图;
图7是根据本发明的显示设备的截面视图;
图8是根据本发明第一示例实施例的显示控制器的功能框图;
图9(a)是示出了根据本发明第一和第二示例实施例的图像数据的图;
图9(b)是示出了根据本发明第一和第二示例实施例的图像数据的图;
图10是示出了根据本发明,观察者在最优位置观察显示设备上的视差图像的光学模型的图;
图11是示出了根据本发明的显示设备中从像素投影的图像的宽度不等于观察者的眼间距离的光学模型的图;
图12(a)是示出了根据本发明的显示设备中图像交换装置的中心缝隙与端部缝隙之间的距离不等于观察者的眼间距离的光学模型的图;
图12(b)是示出了根据本发明的显示设备中图像交换装置的中心缝隙与端部缝隙之间的距离不等于观察者的眼间距离的光学模型的图;
图13(a)是示出了根据本发明的显示设备沿X轴移动的光学模型的图;
图13(b)是示出了根据本发明的显示设备沿X轴移动的光学模型的图;
图14(a)是示出了根据本发明的显示设备沿Z轴移动的光学模型的图;
图14(b)是示出了根据本发明的显示设备沿Z轴移动的光学模型的图;
图15(a)是示出了根据本发明的显示设备沿X轴和Z轴移动的光学模型的图;
图15(b)是示出了根据本发明的显示设备沿X轴和Z轴移动的光学模型的图;
图16(a)是示出了根据本发明的显示设备沿Y轴倾斜的光学模型的图;
图16(b)是示出了根据本发明的显示设备沿Y轴倾斜的光学模型的图;
图17是示出了根据本发明的显示设备的视图,其中使用了加速度传感器;
图18是示意了在根据本发明其中使用了加速度传感器的显示设备关于X轴转动时基于重力加速度来计算倾斜角度的图;
图19是示意了在根据本发明其中使用了加速度传感器的显示设备关于Y轴转动时基于重力加速度来计算倾斜角度的图;
图20是本发明的第一、第三、第四和第六示例实施例的操作序列的流程图;
图21是本发明第二示例实施例的功能框图;
图22是本发明的第二、第三、第五和第七示例实施例的操作序列的流程图;
图23是本发明第三和第四示例实施例的功能框图;
图24(a)是示出了根据本发明第三示例实施例的图像产生器产生的图像数据的图;
图24(b)是示出了根据本发明第三示例实施例的图像产生器产生的图像数据的图;
图25是本发明第三和第四示例实施例的功能框图;
图26(a)是示意了在本发明的第四示例实施例中使用的显示面板的像素结构的图;
图26(b)是示意了在本发明的第四示例实施例中使用的显示面板的像素结构的图;
图27是示出了在本发明第四示例实施例中使用的显示面板与柱状透镜之间的位置关系的图;
图28(a)是示出了根据本发明第四和第五示例实施例的图像产生器产生的图像数据的图;
图28(b)是示出了根据本发明第四和第五示例实施例的图像产生器产生的图像数据的图;
图28(c)是示出了根据本发明第四和第五示例实施例的图像产生器产生的图像数据的图;
图28(d)是示出了根据本发明第四和第五示例实施例的图像产生器产生的图像数据的图;
图29是示意了在本发明第六示例实施例中使用的显示面板的像素结构的图;
图30是示出了根据本发明第六示例实施例,将图像投影至间隔最优观察距离的平面上的光学模型的图;
图31是示出了根据本发明第六示例实施例,观察者的右眼位于区域74B,左眼位于区域74C的光学模型的图;
图32(a)是示出了根据本发明第六和第七示例实施例的图像产生器产生的图像数据的图;
图32(b)是示出了根据本发明第六和第七示例实施例的图像产生器产生的图像数据的图;以及
图33是示出了根据本发明第六示例实施例,观察者观察到各种组合的视差图像的光学模型的图。
具体实施方式
以下参照附图,具体描述本发明的示例实施例。
(第一示例实施例)
[结构描述]
图6是根据本发明的显示设备的正视图。
图7是从观察者头上看去,沿图6的线b取得的显示设备的截面视图。
根据本发明的显示设备包括在外壳10中容纳的:显示面板11、图像交换装置13、显示控制器12以及操作开关14。
显示面板11包括具有单位像素矩阵的透射液晶面板。为了显示立体图像,沿与观察者的双眼所排列的方向平行的水平方向排列的单位像素交替用作左眼像素4L和右眼像素4R。在图7中的示意中,省略了左眼像素4L和右眼像素4R中除了在显示面板11的相对端和中心处的像素之外的像素。
图像交换装置13是用于显示视差屏障图案的电光设备,可以包括例如透射液晶面板。图像交换装置13位于显示面板11上,使得当图像交换装置13显示视差屏障图案时,用作缝隙的透射区域相对于显示面板11垂直延伸并位于右眼像素4R和左眼像素4L之间。图像交换装置13与显示面板之间的距离以及缝隙的间距优选地应当被设计为使得,当针对观察者确定最优观察距离时,从显示面板11的右眼像素4R投影的图像被投影至观察者50的右眼55R上,从显示面板11的左眼像素4L投影的图像被投影至观察者50的左眼55L上。当图像交换装置13不显示视差屏障图案时,其不用作屏障,与普通面板显示器的情况相同,从右眼像素和左眼像素投影的图像被投影至观察者的双眼。因此,图像交换装置13控制显示面板11从显示面板11向外显示的图像的投影。
显示控制器12具有驱动显示面板11的功能、控制屏障的功能、以及检测外壳10的移动的功能,以确定立体视觉。
以下参照图8来描述显示控制器12。
图8是根据本发明第一示例实施例的显示控制器12的功能框图。
显示控制器12包括:图像产生器100、检测器80、判断部分90、显示面板驱动电路110以及图像交换控制电路111。
检测器80包括用于检测在外壳10移动时引起的位移的传感器。外壳10的位移表示倾斜角度的改变或移动。如果检测器80包括如加速度传感器、地磁传感器等传感器,则检测器80可以关于重力加速度或地磁来计算位移。
判断部分90包括:存储器91,用于存储检测器80的传感器产生的与倾斜角度或移动相关的信息以及与显示面板11的立体观看区域相关的信息;以及算术单元92,用于根据从检测器80的传感器获得的信息和存储器91中存储的信息来确定观察者的双眼是否在立体观看区域中。
图像产生器100具有产生要发送至显示面板11的图像数据的功能,并包括:算术单元101、数据存储器102、存储器103以及外部IF(接口)104。图像产生器100还具有以下功能:根据来自判断部分90的信号,产生具有视差的图像数据(3D数据)或没有视差的图像数据(2D数据)。
算术单元101产生图像数据,算术单元从数据存储器102中读取要显示的数据,并对读取的数据执行图像处理序列。由于要显示的数据是包括深度信息的三维数据,算术单元101应当优选地对三维数据执行渲染(rendering)过程,以产生二维图像数据。通过设置与观察者的左眼和右眼相对应的两个假想视点并执行渲染过程来产生用于立体显示的3D数据,即针对左眼和右眼具有视差的二维图像数据。通过设置与观察者的左眼与右眼之间的中心相对应的一个视点并执行渲染过程,来产生用于平面显示的2D数据,即没有视差的图像数据。然而,对于视差图像的立体显示,显示面板11的单位像素交替用作右眼像素和左眼像素。因此,要产生用于立体显示的二维图像数据的水平分辨率是显示面板11的一半。具体地,在图9(a)中示出了作为要产生的图像数据的3D数据,在图9(b)中示出了作为要产生的图像数据的2D数据。
如上所述,应当优选地根据包括深度信息的三维数据来产生图像数据。然而,经过渲染过程的、要显示的数据可以预先存储在数据存储器102中,然后可以从数据存储器102中选择性读出。换言之,可以存储与图9(a)和9(b)相对应的、不包括深度信息的二维图像,并根据立体显示或平面显示来选择并读取二维图像。根据该过程,由于不需要渲染过程,与使用渲染过程的情况相比,算术单元101可以具有较低的处理能力和较低的计算速率。因此,图像产生器100可以具有低成本的配置。
如上所述,图像产生器100根据来自判断部分90的信号产生2D/3D数据,并将所产生的2D/3D数据输出至显示面板驱动电路110。同时,图像产生器100具有以下功能:将使得屏障对立体显示有效或使得屏障对平面显示无效的信号发送至图像交换控制电路111。
显示面板驱动电路110具有产生驱动显示面板11所需的信号(同步信息等)的功能。图像交换控制电路111具有产生用于显示视差屏障图案的信号的功能。
图像交换装置13可以是电光设备,可以利用电信号来开启和关闭,例如包括由多个液晶透镜构成的柱状透镜,而不是用于开启和关闭视差屏障图案的电光设备。
在图8中,为了示意目的,判断部分90和图像产生器100包括各自独立的算术单元92、101。然而,判断部分90和图像产生器100可以共享一个算术单元。备选地,可以在算术单元中提供处理功能,以执行应用本发明的便携式显示设备的其他功能(例如通信控制功能),或者可以在另一处理器中提供处理功能。
以下参照附图来描述用于确定观察者的双眼是否位于立体观看区域中的过程。在以下描述中,图像交换装置包括用于显示视差屏障图案的电光设备。然而,图像交换装置可以包括上述柱状透镜。如果图像交换装置包括柱状透镜,则在以下描述中,可以利用柱状透镜来替代视差屏障透镜,并且可以利用柱状透镜的透镜的主点来替代缝隙。
图10示出了观察者50观察根据本发明的显示设备上的视差图像的光学模型。
为了示意目的,XYZ正交坐标系定义如下:显示面板11的水平方向(观察者50的双眼沿该方向排列)定义为X轴。与显示设备的投影平面(存在平行像素的矩阵的平面)平行以及与X轴垂直的方向定义为Y轴。与显示设备的投影平面垂直相交的轴定义为Z轴。沿X、Y和Z轴的正和负方向的如图10所示定义。
在图10中,假定观察者50和显示设备处于对于立体视觉最优的位置关系,从图像交换装置13至观察者的双眼55R、55L的距离用作最优观察距离OD,与图像交换装置13间隔距离OD的XY平面用作最优观察平面。
图像交换装置13用作视差屏障,并具有互相间隔距离WS的中心缝隙和端部缝隙。
显示面板13包括多个单位像素,并沿X轴方向将其交替用作左眼像素4L和右眼像素4R。然而,仅示意了在中心处的左眼像素4L和右眼像素4R。如果单位像素的间距(宽度)表示为P,则从位于与每个像素的最短距离处的缝隙投影的图像的最优投影平面处的宽度表示为P’。形成在显示面板11的相对端部和中心处从左眼像素和右眼像素投影的图像P’的光线表示为22R、23R、24R、25R、22L、23L、24L、25L。
如图10所示,显示面板11和图像交换装置13应当优选地被设计为使得从所有右眼像素投影的图像P’在最优投影平面处叠加,并且从所有左眼像素投影的图像P’在最优投影平面处叠加。P’应当优选地被设置为等于观察者的眼间距离e。
最优投影平面OD是设计值。在上述设计条件下,为了观察者具有合适的立体视觉,如图10所示,根据从图像交换装置的相对端部处的缝隙发出的光线22R、23R、24R、22L、23L、24L来确定右眼区域70R和左眼区域70L。
图11示出了从像素投影的图像的宽度P’不等于观察者的眼间距离e的光学模型。
如以上背景技术中所述,当P’<e时,立体观看区域较小。当P’>e时,右眼区域70R和左眼区域70L会较大。然而,由于不能将观察者的眼睛至于任何所需位置,因此由于眼间距离的限制,立体观看区域不会加宽。如果P’<e,则像素与视差屏障之间的距离可能较大,导致以下优点:在设计显示设备时,对组件的选择增加。如果P’>e,则当观察者偏离于最优观察位置时,可以减小将相反的平行图像投影至左眼和右眼的区域,导致反转的突起深度(所谓伪立体图像)。在以下描述中,将具有P’=e的显示面板11用于光学模型。然而,在本发明中,还可以使用具有P’<e或P’>e的显示面板。
图10示出了WS与投影图像的宽度P’彼此相等的光学模型,即WS与观察者的眼间距离e彼此相等。
图12示出了WS>e(=P’)以及WS<e(=P’)的光学模型。图12(a)示出了WS>e的光学模型,而图12(b)示出了WS<e的光学模型。
为了观察者50能够具有立体视觉,当右眼区域70R和左眼区域70L被设计为具有相同的最优观察距离OD时,对于WS>e,右眼区域70R和左眼区域70L在正-反方向上较窄;对于WS<e,右眼区域70R和左眼区域70L在正-反方向上较宽。基于成人的平均眼间距离,眼间距离e应当合适地设计在从62mm至65mm的范围中。如果e=63mm,则图10中示出的立体显示设备具有WS×2=126mm的水平尺寸。考虑到便携式显示设备的大小,WS>e、WS=e、WS<e中的任一种关系都是适用的。在以下描述中,为了示意目的,使用具有WS=e的光学模型。
如图10至12(a)、12(b)所示,基于设计条件来确定针对右眼的投影图像叠加的右眼区域70R和针对左眼的投影图像叠加的左眼区域70L。尽管这些区域的大小根据设计条件而变化,完成的显示设备的区域在其显示立体图像时不变,而是在显示设备中固有的。如果根据设计条件导出的右眼区域70R和左眼区域70L或者从完成的显示设备中测量的右眼区域70R和左眼区域70L被存储为立体观看区域的数据,则需要观察者的双眼的位置的数据,算术单元将所存储的数据和所获取的数据相互比较,然后确定观察者的双眼是否位于立体观看区域中。立体观看区域与观察者的双眼的位置彼此相对相关。因此,如果观察者的双眼不从最优观察位置移动,则根据显示设备外壳10的移动来确定立体视觉是否可能。根据本发明的显示设备通过存储立体观看区域的数据和检测显示设备外壳10的移动,确定观察者的双眼是否位于立体观看区域中。
为了判断立体视觉,优选地,存储右眼区域70R和左眼区域70L的菱形的边界信息。通过图10中所示的光线22R、23R、24R、22L、23L、24L来确定图10至12(a)、12(b)中所示的菱形的边界信息。
然而,如果例如从左眼像素和右眼像素投影的所有图像P’不叠加,则图10所示的光线25R、25L分别表示区域70R、70L的边界。根据针对左眼和右眼的投影图像叠加而导致观察者观看到双重图像的区域(3D串扰区域)的大小,可以考虑这种区域的大小,通过光线来确定边界信息。因此,边界信息可以表示不同于菱形的多边形。然而,还可以根据显示设备的设计条件,在没有表示左眼区域和右眼区域的信息的多边形的边界信息的情况下,判断立体视觉。以下描述这种判断过程的示例。
认为图10中所示的外壳10与观察者50之间的位置关系表示最优观察位置,以下参照附图来描述当观察者50未移动而外壳10移动时立体视觉可能的范围。
图13是示出了在外壳10平行于X轴移动时,对立体视觉的限制的一组图。
图13(a)是示出了外壳10沿X轴在正(+)方向上移动的光学模型的图;图13(b)是示出了外壳10沿X轴在负(-)方向上移动的光学模型的图。当右眼55R在右眼区域70R中并且左眼55L在左眼区域70L中时,观察者50能够具有合适的立体视觉。因此,当从显示设备发出的光线22R、23R与观察者的双眼对齐时,沿X轴在正(+)方向上的移动距离受限。当从显示设备发出的光线22L、23L与观察者的双眼对齐时,沿X轴在负(-)方向上的移动距离受限。
图14是示出了在外壳10平行于Z轴移动时,对立体视觉的限制的一组图。
图14(a)是示出了外壳10沿Z轴在正(+)方向上移动的光学模型的图;图14(b)是示出了外壳10沿Z轴在负(-)方向上移动的光学模型的图。当从显示设备发出的光线23R、23L与观察者的双眼对齐时,沿Z轴在正(+)方向上的移动距离受限。当从显示设备发出的光线22L、22L与观察者的双眼对齐时,沿X轴在负(-)方向上的移动距离受限。
图15是示出了在外壳10沿X轴和Z轴的方向移动,同时保持与显示面板11和包括观察者50的双眼的观察平面平行时,对立体视觉的限制的一组图。
图15(a)是示出了外壳10沿X轴在正(+)方向上以及Z轴在正(+)方向上移动的光学模型的图。当光线23R与右眼55R对齐时,到达观察者50具有合适立体视觉的限制。图15(b)是示出了外壳10沿X轴在负(-)方向上以及Z轴在负(-)方向上移动的光学模型的图。当光线22R与右眼55R对齐时,到达观察者50具有合适立体视觉的限制。
以上已经参照图13(a)、13(b)至15(a)、15(b)(其中WS=e)描述了限制立体视觉的条件。如果WS<e以及WS>e,光线24R、24L对于限制立体视觉的条件没有贡献,除非在XZ平面中在Z轴与光线24R或24L之间形成的角度大于在Z轴与光线22R或22L之间形成的角度。限制立体视觉的条件在下表1中给出。
[表1]
在设计立体显示设备时,确定光线22R、23R、24R、光线22L、23L、24L相对于显示表面的倾斜。因此,一旦已知外壳10相对于最优观察位置移动的距离,可以进行计算,以确定立体视觉是否可能。
当外壳10未倾斜时,即当显示面板11的表面与观察者的双眼所在的平面保持互相平行时,应用上述条件。当外壳10倾斜时,需要考虑外壳10的倾斜角度来计算对立体视觉的限制。
图16是示出了在外壳10关于显示面板11的表面上的Y轴倾斜时,对立体视觉的限制的一组图。图16(a)示出了外壳10关于Y轴向左转动(Y轴的正(+)方向朝向图16(a)的观看者)的光学模型。当光线23L与左眼55L对齐时,到达观察者50具有合适立体视觉的限制。图16(b)示出了外壳10关于Y轴向右转动(Y轴的正(+)方向朝向图16(a)的观看者)的光学模型。当光线23R与右眼55R对齐时,到达观察者50具有合适立体视觉的限制。由于在设计显示设备时确定了光线23R、23L的倾斜,因此一旦已知外壳10相对于最优观察位置的倾斜角度,可以进行计算,以确定立体视觉是否可能。
如上所述,可以基于外壳10相对于最优观察位置的移动距离和倾斜角度,以及在设计显示设备时确定的光线22R、22L、23R、23L相对于显示面板表面的角度,来判断立体视觉。
以下描述检测器80的倾斜角度检测器81和移动距离检测器82具体检测装置。
以下描述用作倾斜角度检测器和移动距离检测器的示例的三轴加速度传感器。
从加速度传感器输出的数据包括指示除了要确定的倾斜角度和移动距离之外的量的各种信号。这些信号中的主要信号表示由重力加速度指向地轴的加速度分量以及由环境因素导致的噪声分量,所述环境因素如同时施加至持有外壳的人体以及外壳本身的振动。通过滤波器(最优选地为数字滤波器),可以有效去除由如振动之类的环境因素导致的噪声分量。根据环境和用户的特性,使用通过傅立叶变换或小波变换来利用频域中的特性的滤波器是有效的。以下描述检测已经通过上述滤波过程处理的信号的过程。
图17示出了在外壳10中使用的加速度传感器。
如图17所示定义了显示面板的柱状透镜3的坐标系和加速度传感器的坐标系。具体地,观察者位于沿Z轴的正方向上(由箭头指示),并观察存在于沿Z轴的负方向上的显示面板。沿Y轴的正方向表示显示面板的向上方向,沿Y轴的负方向表示显示面板的向下方向。如图18所示,显示面板通常相对于沿地轴的垂直方向倾斜地使用。
图18是从包括图17所示的Y轴和Z轴的平面看去的图。显示面板与沿地轴的垂直方向之间的倾斜角度表示为φ,重力加速度向量表示为G。
通过将来自加速度传感器的输出相对于时间积分来计算速度,然后通过将计算出的速度相对于时间积分来计算移动距离。然而,需要注意两点。第一点关于积分过程导致的噪声的累积,而第二点关于重力加速度所具有的效应。
首先,以下描述与噪声累积相关的第一点。如果噪声被引入所检测的加速度,则即使噪声可能是单次的,由于积分过程,速度或移动距离也会显著改变。具体地,当对其中引入了单一噪声α的信号进行积分时,在噪声之后,速度仅改变了α·Δt,其中Δt指示从噪声引入至积分过程结束的时间。在计算移动距离时,在噪声引入之后,移动距离改变了α·(Δt)2。因此,具体地,由于积分过程,移动距离显著变化。
以下描述的两个过程能够有效处理噪声。第一过程使用滤波器来平滑噪声。第二过程缩短积分时间。具体的,如果减小积分时间,Δt减小,导致由于噪声引起的移动距离的变化减小。通过加入在减小的积分时间中产生的减小的移动距离,可以在所需时间中计算出移动距离。
以下将描述关于重力加速度的第二点。由于重力加速度始终存在,其被引入所有加速度传感器的输出。为了消除重力加速度所具有的效应,记录加速度传感器的初始输出ax0、ay0、az0,在积分过程中仅使用加速度传感器的后续输出与加速度传感器的初始输出之间的差值。
上述过程使得可以在不受重力加速度影响的情况下计算移动距离。如果不存在关于Z轴的旋转,则重力加速度不影响ax。因此,如果未观察到关于Z轴的旋转,则可以仅记录初始输入ay0、az0,并且可以取差值以更简单地计算移动距离。
对于倾斜角度,显示面板可能以各种方式倾斜。显示面板可以关于各个坐标轴俯仰(pitch)、滚动(roll)和自旋(yaw),如飞机和汽车的情况。由于任何倾斜移动可以由俯仰、滚动和自旋的组合来表示,因此通过分析基本的俯仰、滚动和自旋移动,可以容易地分析任何倾斜移动。
坐标系与俯仰、滚动和自旋之间的关系定义如下:俯仰定义为关于X轴的旋转。具体地,俯仰指显示面板沿以下方向的旋转:将其上端(+Y)朝向观察者,或者将其下端(-Y)朝向观察者。滚动定义为关于Y轴的旋转。具体地,滚动指显示面板沿以下方向的旋转:将其右端(+X)朝向观察者,或者将其左端(-X)朝向观察者。自旋定义为关于Z轴的旋转。具体地,自旋指显示面板在面向观察者的平面内关于观察者的观看方向的旋转。
俯仰可以定义如下:
图18示出了包括Y轴和Z轴的平面,以及该平面中的重力加速度G。
显示面板仅关于X轴移位。Y轴方向上的加速度传感器检测到重力加速度沿Y轴的分量,即检测到其为重力加速度映射至Y轴上的分量。当观察者以在静止时便于立体视觉的姿态持有外壳10时,存储加速度传感器的输出,作为表示重力加速度映射至Y轴上的分量的初始值。如果在便于观察的初始状态下加速度传感器沿Y轴方向的输出表示为ay0,则由于重力加速度在地面上具有实质上恒定的值,在便于观察的初始状态中俯仰角度被确定为
类似地,在倾斜角度改变时,使用此时加速度传感器的输出ay来给出俯仰角度 俯仰角度使得可以获得相对于初始状态的俯仰角度的改变,并且经常获得俯仰角度的改变。
可以以与俯仰相同的方式来确定对立体视觉的可见性具有显著影响的滚动。在这种情况下,显示面板仅关于Y轴移位。Y轴方向上的重力加速度分量与图18中所示的相同,并表示为-G·cos(凸)。在图18中,Z轴方向上的重力加速度分量表示为在图18中不存在关于Y轴的旋转。然而,如果存在关于Y轴的旋转,则如图19所示,将重力加速度分为Z轴方向上的分量和X轴方向上的分量。
在图19中,由虚线指示的X轴和Z轴表示在显示面板关于Y轴旋转之前的轴方向。此时,与Y轴垂直的重力加速度分量沿Z轴在负方向上延伸,并表示为当显示面板关于Y轴旋转过角度β时,X轴和Z轴分别移位至图19中所示的X’轴和Z’轴。Z’轴上的重力加速度分量表示为 如果以与针对俯仰来确定初始状态时相同的方式,预先确定Z轴方向上的初始状态,则检测针对β=0表示Z轴上的重力加速度分量的作为Z轴方向上加速度传感器的输出az0。在倾斜角度改变时,使用此时加速度传感器的输出az来给出滚动角度β: 滚动角度β使得可以经常获得滚动角度的改变。
尽管在本示例实施例中,通过示例,以上已经描述了三轴加速度传感器,但是显然,可以利用两轴加速度传感器来检测俯仰和滚动。
已经通过示例描述了检测倾斜角度和移动距离的过程。可以利用地磁传感器来检测倾斜角度,可以利用加速度传感器来检测移动距离。利用三轴地磁传感器来检测倾斜角度的过程类似于利用加速度传感器来检测倾斜角度的上述过程,只是利用地磁来替代重力加速度。还可以利用角速度传感器或陀螺仪传感器来检测倾斜角度,还可以利用小尺寸摄像机或超声波传输源和超声波传感器来检测移动距离。
[操作描述]
以下参照图20所示的流程图来描述本示例实施例的操作。
在启动立体显示的同时,激活用于检测外壳10的移动的传感器。
然后,显示用于将观察者引导至最优观察位置的参考屏幕。根据本示例实施例的立体显示是指以下过程:开启图像交换装置的功能(例如用于显示视差屏障图案),将如图9(a)所示具有视差的图像数据发送至显示面板11,并且将图像分别投影至观察者的左眼和右眼。
在步骤1,观察者调整外壳10的位置和倾斜,使得可以看到所显示的参考屏幕作为立体图像。
然后,在步骤2,由于观察者调整了外壳10的位置和倾斜,将来自检测器80的输出记录为初始值,并且回放所需内容以进行立体显示。
在步骤3,根据来自检测器80的输出和初始值来计算指定时间段ΔT中的移动距离和倾斜角度。
在步骤4,基于已经计算出的移动距离和倾斜角度来判断立体视觉。具体地,基于已经计算的移动距离和倾斜角度是否大于相应预设阈值来判断立体视觉。例如,如果所计算的移动距离小于预设移动距离阈值,则判断立体视觉是可能的。如果所计算的倾斜角度小于预设倾斜角度阈值,则判断立体视觉是可能的。如果判断立体视觉是可能的,则在步骤5执行立体显示,控制从步骤5转至步骤7。
如果判断立体视觉是不可能的,则在步骤6,立体显示切换至平面显示。根据第一示例实施例的平面显示是指以下过程:关闭图像交换装置的功能(例如不显示视差屏障图案),将如图9(b)所示没有视差的图像数据发送至显示面板11,并且将无视差图像投影至观察者。在立体显示切换至平面显示之后,控制返回步骤3,在步骤3计算指定时间段ΔT中的移动距离和倾斜角度。
在步骤7,确定在计算外壳10的移动时用作参考的初始值是否要更新。如果步骤7中判断为“否”,则控制返回步骤3。如果步骤7中判断为“是”,则控制返回步骤2,在步骤2中记录此时来自检测器80的输出,以替代步骤1中记录的初始值。
上述步骤重复执行。
在上述操作流程中,指定时间段ΔT应当优选地设置为大约显示面板11的帧周期与大约0.2秒之间的值。从图20所示的流程图可以看到,如果ΔT较长,则从立体显示至平面显示的切换相对于外壳10的移动延迟。因此,在观察者看到伪立体图像和双重图像之后,立体显示切换至平面显示。
因此,具有较短的ΔT更好。然而,即使在显示面板11的一帧周期内要多次进行立体显示与平面显示之间的切换,则没有足够的时间来切换整个显示屏幕的图像数据。换言之,短于帧周期的ΔT不足以有效地用于跟随外壳10的移动来进行切换。
步骤7用作以下功能:处理在观察者改变其姿态或者改变观察者持有显示设备的方式时发生的外壳的位置和倾斜的改变。因此,不需要对于每个流程都执行步骤S7中的判断过程。可以对流程的次数进行计数,当达到合适计数时,可以提示观察者使用显示设备上的操作开关等等来输入判断;或者当达到指定计数时,可以进行自动判定“是”。然而,如果使用加速度传感器来检测移动距离,则优选地更新初始值,因为初始值用于清除累积的误差。
如以上参照图13(a)、13(b)至16(a)、16(b)所述,步骤4中用于判断立体视觉的条件是限制立体视觉的条件,这些条件从在设计显示设备时确定的右眼区域70R和左眼区域70L以及从同样在设计显示设备时确定的观察者的双眼的最优位置导出。从上述设计条件导出的用于判断立体视觉的条件可以具有应用于初始设置的以下功能:允许观察者在步骤1中执行立体视觉的同时,移动和倾斜外壳10以寻找对立体视觉的限制,并存储限制立体视觉的条件(记录在立体视觉受限制时的移动距离和倾斜量或者相关传感器的输出的功能)。在这种情况下,尽管加重观察者的负担,但是反映了观察者的眼间距离和观察者优选的观察距离,而不是表示显示设备的设计参数的眼间距离和观察距离,使得可以以与个体观察者相匹配的方式,在立体显示和平面显示之间切换。此外,如果用于判断立体视觉的条件还具有在关闭显示设备时保存限制立体视觉的记录条件,则不需要在观察者每次使用显示设备时都执行记录限制立体视觉的条件的过程。
(第二示例实施例)
第二示例实施例具有与上述第一示例实施例相同的结构,并使用与第一示例实施例相同的方法来确定观察者的双眼是否在立体观看区域中。然而,第二示例实施例与第一示例实施例不同在于其在判断观察者的双眼位于立体观看区域之外并且立体显示切换至平面显示直到再次执行立体显示之前的操作。具体地,在立体显示切换至平面显示之后,在外壳10的位置和倾斜返回所记录的初始值附近时,恢复立体显示。优选地,观察者应当基于其偏好,从在显示屏幕上部署的大/中/小值(例如,“大值”可以是初始值的±10%,“中值”可以是初始值的±5%,“小值”可以是初始值的±2%)的选择中,选择用于恢复立体显示的、初始值附近的值(以下称为2D->3D返回值)。因此,第二示例实施例与第一示例实施例的操作不同,因为添加了设置2D->3D返回值的功能。
图21是本发明第二示例实施例的功能框图。与第一示例实施例相同,第二示例实施例包括:显示面板11、图像交换装置13以及显示控制器12。显示控制器12包括:图像产生器100、检测器80、判断部分90、显示面板驱动电路110和图像交换控制电路111。如图21所示,第二示例实施例与第一示例实施例相同,只是向判断部分90添加了2D->3D返回值设置部分93。确定观察者的双眼是否在立体观看区域中的过程也与第一示例实施例相同。
关于2D->3D返回值,可以计算返回值的判断区域并用于判断,所述判断区域是通过减小最优观察者的右眼和左眼位置附近的、图10中所示的右眼区域70R和左眼区域70L来形成的。
以下参照图22所示的流程图来描述第二示例实施例的操作。
在启动立体显示的同时,激活用于检测外壳10的移动的传感器。
然后,显示用于将观察者引导至最优观察位置的参考屏幕。与第一示例实施例中相同,根据第二示例实施例的立体显示是指以下过程:开启图像交换装置的功能(例如用于显示视差屏障图案),将如图9(a)所示具有视差的图像数据发送至显示面板,并且将图像分别投影至观察者的左眼和右眼。
在步骤11,观察者调整外壳10的位置和倾斜,使得可以看到所显示的参考屏幕作为立体图像。观察者还利用2D->3D返回值设置部分93来产生用于从平面显示切换至立体显示的2D->3D返回值。
然后,在步骤12,由于观察者调整了外壳10的位置和倾斜,将来自检测器80的输出记录为初始值,并且回放所需内容以进行立体显示。
在步骤13,根据来自检测器80的输出和初始值来计算指定时间段ΔT中的移动距离和倾斜角度。
在步骤14,基于已经计算出的移动距离和倾斜角度来判断立体视觉。具体地,基于已经计算的移动距离和倾斜角度是否大于相应预设阈值来判断立体视觉。例如,如果所计算的移动距离小于预设移动距离阈值,则判断立体视觉是可能的。如果所计算的倾斜角度小于预设倾斜角度阈值,则判断立体视觉是可能的。如果判断立体视觉是可能的,则在步骤15执行立体显示,控制从步骤15转至步骤17。
如果判断立体视觉是不可能的,则在步骤16,立体显示切换至平面显示。与第一示例实施例相同,根据第二示例实施例的平面显示是指以下过程:关闭图像交换装置的功能(例如不显示视差屏障图案),将如图9(b)所示没有视差的图像数据发送至显示面板,并且将无视差图像投影至观察者。
在立体显示切换至平面显示之后,控制返回步骤18,在步骤18计算指定时间段ΔT中的移动距离和倾斜角度。然后,在步骤19,确定所计算的移动距离和倾斜角度是否落入已经设置的2D->3D返回值内。如果移动距离和倾斜角度落入2D->3D返回值内,则在步骤15中,平面显示切换至立体显示。如果移动距离和倾斜角度未落入2D->3D返回值内,则平面显示保持不变,控制返回步骤18。换言之,除非移动距离和倾斜角度落入2D->3D返回值之内,否则重复步骤18和步骤19,平面显示不切换回立体显示。
如果从检测器80的输出回落入2D->3D返回值之内,则平面显示切换至立体显示,此后控制返回步骤17。
在步骤17,确定在计算外壳10的移动时用作参考的初始值是否要更新。如果步骤17中判断为“否”,则控制返回步骤13。如果步骤17中判断为“是”,则控制返回步骤12,在步骤12中记录此时来自检测器80的输出,以替代步骤11中记录的初始值。
上述步骤重复执行。
如以上在第一示例实施例的操作中所述,在参照图22描述的上述操作流程中,指定时间段ΔT应当优选地设置为大约显示面板11的帧周期与大约0.2秒之间的值。此外,如以上在第一示例实施例的操作中所述,不需要对于每个流程都执行步骤S17中的判断过程。可以对流程的次数进行计数,当达到合适计数时,可以提示观察者使用显示设备上的操作开关等等来输入判断;或者当达到指定计数时,可以进行自动判定“是”。此外,如以上在第一示例实施例的操作中所述,在步骤14中用于判断立体视觉的条件可以具有允许观察者确定和存储限制立体视觉的条件的功能。
如上所述,与第一示例实施例相比,第二示例实施例具有复杂的处理和附加功能。然而,由于观察者自己设置返回立体显示的点,第二示例实施例有效地减少了平面显示切换回立体显示时的不习惯感觉,还有效地减少了在立体显示与平面显示之间进行频繁切换时导致的不适感觉。
(第三示例实施例)
第三示例实施例在于,使用普通光学设备(视差屏障、柱状透镜等等)而不是在第一和第二示例实施例中使用的可以利用电信号来开启和关闭的电光设备(用于显示视差屏障图案的透射液晶面板),作为图像交换装置。除了图像交换装置之外的其他配置与第一示例实施例中的配置相同。
图23是第三示例实施例的功能框图。
与第一示例实施例相同,第三示例实施例包括:显示面板11、图像交换装置13以及显示控制器12。显示控制器12与根据第一示例实施例的显示控制器相似(见图8),只是它省去了图像交换控制电路111。
如图23所示,根据第三示例实施例的显示控制器12包括:图像产生器100、检测器80、判断部分90和显示面板驱动电路110。这些组件的作用与第一示例实施例中相同,以下将不予描述。
然而,图像产生器100产生的用于平面显示的2D数据与第一示例实施例中不同。根据第三示例实施例,不能关闭图像交换功能。因此,对于平面显示以及立体显示,显示面板的单位像素交替用作右眼像素和左眼像素。因此,针对平面显示产生的二维图像数据的水平分辨率也是显示面板的一半。优选地,应当通过对包括深度信息在内的三维数据执行渲染过程来产生图像数据。通过设置与观察者的双眼相对应的两个假想视点并执行渲染过程来产生用于立体显示的3D数据。通过设置与观察者的双眼之间的中心相对应的一个视点并执行渲染过程,来产生用于平面显示的2D数据。具体地,在图24(a)中示出了作为要产生的图像数据的3D数据,在图24(b)中示出了作为要产生的图像数据的2D数据。
与第一示例实施例相同,应当优选地根据包括深度信息的三维数据来产生图像数据。然而,如图24(a)和24(b)中所示,经过渲染过程的、要显示的数据可以预先存储在数据存储器102中,然后可以从数据存储器102中选择性读出。根据该过程,由于不需要渲染过程,与需要渲染过程的情况相比,算术单元101可以具有较低的处理能力和较低的计算速率。因此,图像产生器100可以具有低成本的配置。
由于第三示例实施例与第一示例实施例具有许多公共特征,因此以下参照示出根据第一示例实施例的操作序列的图20所示的流程图,仅描述差异。
根据第三示例实施例,在步骤6中,在切换至平面显示时,不控制图像交换装置。对于根据第三示例实施例的平面显示,将图24(a)所示的右眼图像发送至左眼和右眼像素,或者将左眼图像发送至左眼和右眼像素;或者发送图24(b)所示的图像数据,以将无视差的图像投影至观察者。换言之,发送至左眼像素和右眼像素的图像数据相同。
对于步骤16中的平面显示,使用参照图10、13(a)、13(b)至16(a)、16(b)所述的坐标系,当外壳10被判断为沿X轴在负方向上移动,或者向左倾斜时,可以向左眼和右眼像素发送左眼数据;当外壳10被判断为沿X轴在正方向上移动,或者向右倾斜时,可以向左眼和右眼像素发送左眼数据。
通过如上所述在数据之间进行切换,可以减少在立体显示切换至平面显示时的不习惯感觉。然而,根据我们的研究,根据观察者,当立体显示切换至平面显示时,存在以下情况:观察者对于切换至右眼数据或左眼数据感到自然,而不论外壳10移动或倾斜的方向如何。在这些情况下,观察者感到自然的数据是与观察者的主眼匹配的显示数据。因此,对于步骤6中的平面显示,优选地提供以下功能:允许观察者自己设置要发送至左眼和右眼像素的数据。
第二示例实施例也适用于第三示例实施例的配置。
图25是这种情况的功能框图,其中向判断部分90添加2D->3D返回值设置部分93。如上所述,根据第三示例实施例的配置与第二示例实施例不同在于,它省去了图像交换控制电路111,并且图像产生器100产生不同图像数据。图22所示的流程图所适用的第三示例实施例的操作与第二示例实施例的操作相同,只是图像交换装置不控制向平面显示的切换(步骤16)和应用于平面显示的图像数据。如上所述,可以提供以下功能:允许根据外壳10的移动或倾斜方向来选择应用于平面显示的图像数据,或者选择应用于平面显示的图像数据以匹配观察者的主眼。
以上已经描述了第一和第二示例实施例与第三示例实施例之间差异。与第一和第二示例实施例不同,第三示例实施例不使用电光设备。因此,尽管平面显示的水平分辨率较低,但是根据第三示例实施例,可以降低显示设备的制造成本,可以使得显示设备的外壳略小,并且显示设备的可靠性更高。
(第四示例实施例)
根据第四示例实施例的配置在于:使用能够将不同图像从与像素对应的部分投影至观察者的左眼和右眼的显示面板,像素是在标准平面显示面板上产生图像的最小显示单元。例如,该显示面板可以是在专利文献1中公开的时分立体显示面板。例如,该显示面板可以是以下显示面板:与标准平坦显示面板相比,在水平方向上具有多出两倍像素,其中观察者的双眼沿水平方向对齐。
在图6所示的正视图中示意了根据第四示例实施例的显示设备的示例,关于第一示例实施例已经参照了图6。图7示出了沿图6的线b取的外壳10的截面视图,根据第四示例实施例的显示设备包括容纳在外壳10中的:显示面板11、图像交换装置13、显示控制器12以及操作开关14。显示面板11包括:透射液晶面板,包括多个单位像素,以及与标准平坦显示面板相比的以下特征:
图26(a)是示意了标准平坦显示面板的像素结构的图。标准平坦显示面板包括像素4的矩阵,该矩阵包括每个水平行中6个像素和每个垂直行中3个像素。像素4能够表示任何所需颜色层次,并且可以根据输入数据表示6×3像素的图像。尽管每个像素4是方形,但是所示的形状仅用于示意目的,每个像素4可以是任何形状,只要在图像由6×3像素来表示时,垂直与水平尺寸的比例保持不变。
与图26(a)对比,图26(b)是示意了根据第四示例实施例的显示面板的像素结构的图。根据第四示例实施例的显示面板包括像素41的矩阵,每个像素由两部分构成,所述两部分由垂直线从标准平坦显示面板的像素4之一来划分,该矩阵包括每个水平行中的12个像素和每个垂直行中的3个像素。像素41能够表示任何所需颜色层次,并且可以表示12×3像素的图像。由于每个像素41的水平尺寸是其垂直尺寸的一半,因此显示屏幕的大小与图26(a)所示的标准平坦显示面板的显示屏幕的大小相同。尽管每个像素41具有矩形形状,所示形状仅用于示意目的,每个像素41可以具有任何形状,只要其垂直与水平尺寸的比例为2∶1。图像交换装置13包括如图27所示布置的柱状透镜,以使像素41在水平方向上交替用作左眼像素4L和右眼像素4R以进行立体显示。
可以在与示出第三示例实施例的图23相同的功能框图中示意第四示例实施例。
关于图像产生器100产生的图像数据,第四示例实施例与第三示例实施例不同。与先前示例实施例相同,存储在数据存储器102中的要显示的数据包括三维数据,所述三维数据包括深度信息,优选地,对三维数据执行渲染过程的算术单元101产生二维图像数据。通过设置与观察者的左眼和右眼相对应的两个假想视点并执行渲染过程来产生用于立体显示的3D数据,即针对左眼和右眼具有视差的二维图像数据。
通过设置与观察者的左眼与右眼之间的中心相对应的一个视点并执行渲染过程,来产生用于平面显示的2D数据,即没有视差的图像数据。由于根据第四示例实施例的显示面板在水平方向上具有更大两倍的分辨率,用于平面显示的2D数据可以包括通过针对立体图像的渲染过程所产生的右眼数据作为左眼和右眼的数据,或者可以包括通过针对立体图像的渲染过程所产生的左眼数据作为左眼和右眼的数据。图28(a)至28(d)示出了作为要产生的图像数据的3D数据和作为要产生的图像数据的2D数据。
在第四示例实施例中,经过渲染过程的、要显示的数据可以以与图28(a)相对应的无深度信息的二维数据的格式预先存储在数据存储器102中。该格式广泛用于使用两个摄像机来捕捉的实际内容。还可以将与图28(a)和28(d)相对应的二维数据存储在数据存储器102中。如上所述,由于这些数据不需要经过渲染过程,算数单元101和存储器103的成本可以较低。
在图27中,图像交换装置13包括柱状透镜。然而,图像交换装置13可以包括视差屏障。尽管视差屏障不如柱状透镜明亮,但是它允许以更低成本来制造显示设备。
确定观察者的双眼是否位于立体观看区域的过程已经关于第一示例实施例进行了描述。
第四示例实施例的操作与第三示例实施例的操作相同,除了在图20所示的流程图的步骤6中使用的用于平面显示的数据。
在第四示例实施例中,与第三示例实施例的情况相同,通过向右眼像素4R和左眼像素4L发送相同的图像数据来实现平面显示。然而,该图像数据具有与第三示例实施例中使用的图像数据不同的水平分辨率,并且可以是图28(a)至28(d)中所示的任一图像数据。
与第三示例实施例相同,可以提供以下功能:允许根据外壳10的移动或倾斜方向来选择应用于平面显示的图像数据,或者选择应用于平面显示的图像数据以匹配观察者的主眼。
[优点]
根据第四示例实施例的立体显示设备针对平面显示和立体显示具有相同的分辨率,因为它使用了图26(b)中示意性示出的显示面板11。在图20所示从步骤4至步骤6的流程中切换至平面显示时,观察者不会经历不习惯的感觉,而在第一和第二示例实施例中,由于水平分辨率的改变,观察者具有不习惯的感觉。
在本示例实施例中,包括单一单位像素在内的立体像素单元包括水平排列为单位像素的左眼像素和右眼像素。然而,本发明不限于这种配置。
根据另一示例,在获得与上述相同的优点的同时,本发明可以应用于基于从单位像素以时分方式发出的光线,利用通过背光控制的光学分发装置,将视差图像投影至观察者的左眼和右眼的过程。
(第五示例实施例)
第五示例实施例基于应用于上述第四示例实施例的配置的第二示例实施例的操作。
图27中示出的功能框图表示第五示例实施例。第五示例实施例与第四示例实施例不同在于,判断部分90包括以上关于第二示例实施例描述的2D->3D返回值设置部分93,以下将不再详细描述。
第五示例实施例的操作与第二示例实施例的操作基本相同。参照图22所示的流程图,第五示例实施例与第二示例实施例不同在于,不开启和关闭的图像交换装置以及在步骤26中使用的图像数据。在第五示例实施例中,应用于平面显示的图像数据可以是以上关于第四示例实施例描述的图28(a)至28(d)中所示的任一图像数据。此外,可以提供以下功能:允许根据外壳10的移动或倾斜方向来选择应用于平面显示的图像数据,或者选择应用于平面显示的图像数据以匹配观察者的主眼。
[优点]
由于根据第五示例实施例的立体显示设备针对平面显示和立体显示具有相同的分辨率,消除了由于分辨率改变而导致的不习惯感觉,还有效地减少了在立体显示与平面显示之间进行频繁切换时导致的不适感觉。
(第六示例实施例)
第六示例实施例在于使用具有在水平方向上布置的至少3个视点的显示面板。尽管可以使用单位像素作为这些视点中的每一个,但是本示例实施例使用包括在与像素相对应的部分中在水平方向上布置的至少3个视点的显示面板,像素是在标准平面显示面板上产生图像的最小显示单元。具体地,本示例实施例使用包括与像素相对应的部分中的N个像素的显示面板,其中N表示视点数目,像素是在标准平面显示面板上产生图像的最小显示单元。
以下描述第六示例实施例,其中N=4。
如图6所示,根据第六示例实施例的显示设备包括容纳在外壳10中的:显示面板11、图像交换装置13、显示控制器12以及操作开关14。如上所述,显示面板11具有与像素相对应的部分中的4个像素,像素是在标准平面显示面板上产生图像的最小显示单元。
图29是示意了在第六示例实施例中使用的显示面板的像素结构的图。根据第六示例实施例的显示面板包括像素的矩阵,每个像素由四部分构成,所述四部分由垂直线从图26(a)所示的标准平坦显示面板的像素4之一来划分,该矩阵包括每个水平行中的24个像素和每个垂直行中的3个像素。图29所示的像素能够表示任何所需颜色层次(例如在液晶面板上),并且可以表示24×3像素的图像。由于水平尺寸与垂直尺寸的比例是1/4,因此显示屏幕的大小与图26(a)所示的由6×3像素构成的标准平坦显示面板相同。尽管每个像素具有矩形形状,所示形状仅用于示意目的,每个像素可以具有任何形状,只要其垂直与水平尺寸的比例为4∶1。尽管显示面板由24×3像素构成,但是所示大小仅用于示意目的,像素总数可以根据显示面板的用途来确定。针对立体显示,像素用作沿水平方向布置的第一视点像素4D、第二视点像素4C、第三视点像素4B和第四视点像素4A。作为图像交换装置13的柱状透镜如图29所示布置。
以下描述根据第六示例实施例的显示面板上的立体显示。
图30是图像投影至位于与显示面板的表面平行并与其间隔最优观察距离OD的观察平面30的光学模型的截面视图。
显示面板(未示出)包括一组光调制原件组,作为像素矩阵(例如液晶面板)。图30仅示出了第一视点像素4D、第二视点像素4C、第三视点像素4B和第四视点像素4A的阵列。
用作图像交换装置的柱状透镜3布置在显示面板的正面(面对观察平面30)。光源(未示出:所谓背光)布置在显示面板的背面(远离柱状透镜3)。柱状透镜3包括圆柱透镜3a的线性阵列,每个圆柱透镜3a具有一维透镜的形式,具有拱背式凸形。柱状透镜3在其纵向上不具有透镜效果,而是仅在其阵列方向(与纵向垂直)上具有透镜效果。柱状透镜3被布置为使其纵向垂直于第一视点像素4D、第二视点像素4C、第三视点像素4B和第四视点像素4A所布置的方向。向每一组像素4D、4C、4B、4A分配一个圆柱透镜3a。
从每个像素发出的光被柱状透镜3偏转并投影。在从每个像素发出的光中,穿过最接近圆柱透镜3a的主点(顶点)的光被示意为光线。然后,定义有:从所有第一视点像素4D投影图像的区域74D;从所有第二视点像素4C投影图像的区域74C;从所有第三视点像素4B投影图像的区域74B;以及从所有第四视点像素4A投影图像的区域74A。每个像素的间距表示为P,在与像素间隔最优观察距离OD的观察平面30上的投影图像的宽度表示为P’。
图30是示出了观察者50的右眼55R位于区域74B并且观察者50的左眼55L位于区域74C的光学模型的图。
如果在发送至第二视点像素4C和第三视点像素4B的图像数据之间存在视差,在观察室将所显示的图像识别为立体图像。观察者的右眼可以位于区域74A,观察者的左眼可以位于区域74B。根据第六示例实施例,观察者可以享有区域74A和区域74B之间的视差图像的各种组合,如图31所示。如果在区域74A和区域74B之间投影的要显示的图像是从4个视点呈现的图像,则观察者可以从不同角度享用立体图像,同时可以通过改变其观察位置来给出运动视差,得到更多立体效果。
与图23中所示的第四示例实施例相同的功能框图表示第六示例实施例。尽管利用相同功能框图来表示第六示例实施例,但是图像产生器100产生不同的图像,因为第六示例实施例使用不同的显示面板。
与先前示例实施例相同,存储在数据存储器102中的要显示的数据包括三维数据,所述三维数据包括深度信息,优选地,对三维数据执行渲染过程的算术单元101产生二维图像数据。通过设置四个假想视点并执行渲染过程来产生用于立体显示的3D数据,即具有视差的四个二维图像数据。
通过设置与观察者的左眼与右眼之间的中心相对应的一个视点并执行渲染过程,来产生用于平面显示的2D数据,即没有视差的图像数据。由于根据第六示例实施例的显示面板在水平方向上具有更大4倍的分辨率,用于平面显示的2D数据可以包括通过针对立体显示的渲染过程产生的数据(4个图像)中的数据图像之一。
在图32(a)和32(b)中示出了作为要产生的图像数据的3D数据和作为要产生的图像数据的2D数据。
经过渲染过程的、要显示的数据可以以与图32(a)相对应的无深度信息的二维数据的格式预先存储在数据存储器中。例如,该格式能够处理使用4个摄像机来捕捉的实际内容。还可以将与图32(a)和32(b)相对应的二维数据存储在数据存储器中。由于这些数据不需要经过渲染过程,算数单元和存储器的成本可以较低。
如上所述,图像产生器100根据来自判断部分90的信号来产生2D/3D数据,并将所产生的2D/3D数据输出值显示面板驱动电路110。
在根据第六示例实施例的配置中,图像交换装置13包括柱状透镜。然而,图像交换装置13可以包括视差屏障。尽管视差屏障不如柱状透镜明亮,但是它允许以更低成本来制造显示设备。
在第六示例实施例中,用于确定观察者的双眼是否位于立体观察区域的条件可以基于图30所示的菱形区域74A至74D的边界线信息。此外,允许图31中所示的区域74A至74D的组合。此外,如果投影值区域74A和74B的图像之间只有很小视差,导致双重图像相对不可察觉,则还允许如图33所示可以看到两个图像的位置。因此,根据本示例实施例,优选地应当确定立体视觉的条件以匹配观察者的偏好。
[操作描述]
与第三和第四示例实施例的操作相同,可以参照图20所示的流程图来描述第六示例实施例的操作。第六示例实施例的操作与第三和第四示例实施例的操作不同仅在于:步骤6中用于平面显示的数据不同。通过使得发送至第一至第四视点像素的所有图像数据相等来实现根据第六示例实施例的平面显示。图像数据被示意为图32(a)所示的图像数据项或图32(b)所示的图像数据。
如以上在其他示例实施例中描述的,在图20所示的步骤4中,可以通过将从设计条件导出的判断立体视觉的条件应用于初始值来判断立体视觉,允许观察者在执行步骤1中的立体视觉的同时,移动和倾斜外壳10以寻找对立体视觉的限制,并存储限制立体视觉的条件。如以上关于判断立体视觉的条件所述,该过程在第六示例实施例中尤其有效。
在针对平面显示的步骤S6中,当判断平面显示时外壳10沿X轴在负方向上移动或者向左倾斜时,可以将第一视点数据发送至4个类型的像素;当判断平面显示时外壳10沿X轴在正方向上移动或者向右倾斜时,可以将第四视点数据发送至4个类型的像素。如上所述,通过在数据之间进行切换,可以减少在从立体显示切换至平面显示时观察者出现的不习惯感觉。
然而,根据我们的研究,根据观察者,当立体显示切换至平面显示时,存在以下情况:观察者对于切换至第一和第二视点数据或第三和第四视点数据感到自然,而不论外壳10移动或倾斜的方向如何。在这些情况下,与观察者的主眼匹配的显示数据是观察者感到自然的数据。因此,对于步骤6中的平面显示,优选地提供以下功能:允许观察者自己设置要发送至4个类型的像素的数据。
以上已经描述了应用于具有4个视点的像素的显示面板的第六示例实施例。然而,视点数目可以表示为N,图像产生器100可以产生N个视点的图像数据。
(第七示例实施例)
第七示例实施例基于应用于上述第六示例实施例的配置的第二示例实施例的操作,并且与其不同在于切换至平面显示之后直到再次执行立体显示之前的操作。
根据第七示例实施例的配置与第六示例实施例相同,只是判断部分90包括2D->3D返回值设置部分93,以下将不再详细描述。与第六示例实施例相同,根据第七示例实施例的显示面板具有4个视点的像素。然而,视点数目可以表示为N,可以产生N个视点的图像数据。
与第三和第五示例实施例的操作相同,可以参照图22所示的流程图来描述第七示例实施例的操作。与第六示例实施例相同,步骤16中用于平面显示的图像数据被示意为图32(a)所示的图像数据或图32(b)所示的图像数据。
如以上关于第六示例实施例所述,可以提供以下功能:允许根据外壳10的移动或倾斜方向来选择步骤16中应用于平面显示的图像数据,或者选择步骤16中应用于平面显示的图像数据以匹配观察者的主眼。
与第六示例实施例相同,利用根据第七示例实施例的立体显示设备,观察者可以从不同角度享用立体图像,同时可以给出运动视差,得到更多立体效果。
本发明适用于便携式信息终端(终端设备),如移动电话、便携式个人计算机、便携式游戏机、便携式媒体播放器等等。
如上所述,根据本发明的立体显示设备检测其外壳的移动,并在不适于立体显示的情况下投影无视差图像,从而防止观察者感到不适,同时防止观察者出现如眩晕或晕车之类的症状。由于通过检测外壳的移动并执行计算来判断立体观察区域,与需要摄像机、用于检测视点位置的图像处理功能以及红外辐照器的传统视线跟踪显示设备相比,显示设备的成本较低。
尽管已经关于示例实施例描述了本发明,但是本发明不限于上述示例实施例。本领域技术人员可以理解,在本发明的范围内,可以对本发明的配置和细节做出各种改变。
本申请基于并要求2008年11月26日提交的日本专利申请No.2008-300965的优先权,其全部公开通过引用并入此处。
Claims (14)
1.一种用于以立体显示或平面显示来显示图像的显示设备,包括:
检测器,检测显示设备的移动;
判断部分,将表示所述检测器检测到的显示设备的移动的值与预设阈值进行比较;
图像产生器,基于所述判断部分进行的比较的结果,根据至少两个图像数据项来产生并输出具有视差的图像数据或没有视差的图像数据;
显示面板,显示所述图像产生器输出的图像数据,所述显示面板包括多个单位像素;以及
图像交换装置,控制从所述显示面板对所述显示面板显示的图像数据的投影;
其中,如果所述判断部分进行的比较的结果指示表示显示设备的移动的值小于阈值,则所述图像产生器产生具有视差的图像数据,否则产生没有视差的图像数据,并且所述图像产生器根据所述检测器检测到的显示设备的移动方向来选择和输出任意视点图像,
其中,所述预设阈值是被确定为限制立体视觉的条件的阈值,所述条件从在设计所述显示设备时观察者的双眼的最优位置导出。
2.根据权利要求1所述的显示设备,其中,所述立体显示和所述平面显示具有相同分辨率。
3.根据权利要求1所述的显示设备,其中,以所述立体显示来显示至少两个视点图像。
4.根据权利要求1所述的显示设备,其中,所述图像交换装置包括电光设备。
5.根据权利要求4所述的显示设备,其中,如果所述判断部分进行的比较的结果指示表示移动的值小于阈值,则所述图像交换装置开启,否则所述图像交换装置关闭。
6.根据权利要求1所述的显示设备,其中,所述图像产生器产生具有视差的图像数据,而不考虑来自所述判断部分的判断结果;以及
如果判断部分判断表示移动的值小于阈值,则所述显示面板使用所述单位像素来显示具有视差的至少两个图像数据,否则使用所述单位像素来显示具有视差的图像数据之一。
7.根据权利要求1所述的显示设备,其中,所述显示面板包括立体像素单元,所述立体像素单元包括单位像素中的至少两个单位像素,其中每个单位像素包括右眼像素和左眼像素,并且所述显示面板使用所述立体像素单元来显示所述图像数据。
8.根据权利要求1所述的显示设备,其中
所述显示面板包括立体像素单元,所述立体像素单元包括单位像素中的一个单位像素,每个单位像素包括沿水平方向排列的右眼像素和左眼像素,并且所述显示面板使用所述立体像素单元来显示所述图像数据。
9.根据权利要求1所述的显示设备,其中
所述显示面板包括立体像素单元,所述立体像素单元包括视点像素的水平阵列,每个视点像素包括至少三个单位像素,并且所述显示面板使用所述立体像素单元来显示所述图像数据。
10.根据权利要求1所述的显示设备,其中
所述显示面板包括立体像素单元,所述立体像素单元包括一个单位像素中的至少三个视点像素的水平阵列,并且所述显示面板使用所述立体像素单元来显示所述图像数据,所述立体像素单元包括一个单位像素。
11.根据权利要求1所述的显示设备,其中,所述图像产生器针对具有深度信息的要显示的数据,根据所述深度信息来开发视差量。
12.根据权利要求1所述的显示设备,其中,所述图像产生器产生具有视差的至少两个图像数据作为要显示的两个左眼和右眼图像数据,并产生所述没有视差的图像数据作为要在所述两个左眼和右眼图像数据之间显示的中心图像数据。
13.根据权利要求1所述的显示设备,其中,所述图像产生器通过根据从显示设备之外设置的观察者的主眼来选择和输出任意视点图像,从而产生所述没有视差的图像数据。
14.一种终端设备,包括根据权利要求1所述的显示设备。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008-300965 | 2008-11-26 | ||
JP2008300965 | 2008-11-26 | ||
CN200980155402.6A CN102292998B (zh) | 2008-11-26 | 2009-10-07 | 显示设备、终端设备和显示方法 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN200980155402.6A Division CN102292998B (zh) | 2008-11-26 | 2009-10-07 | 显示设备、终端设备和显示方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104409032A CN104409032A (zh) | 2015-03-11 |
CN104409032B true CN104409032B (zh) | 2017-05-10 |
Family
ID=42225569
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510160882.2A Active CN104914587B (zh) | 2008-11-26 | 2009-10-07 | 显示设备、终端设备和显示方法 |
CN200980155402.6A Active CN102292998B (zh) | 2008-11-26 | 2009-10-07 | 显示设备、终端设备和显示方法 |
CN201410718630.2A Active CN104409032B (zh) | 2008-11-26 | 2009-10-07 | 显示设备、终端设备和显示方法 |
Family Applications Before (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510160882.2A Active CN104914587B (zh) | 2008-11-26 | 2009-10-07 | 显示设备、终端设备和显示方法 |
CN200980155402.6A Active CN102292998B (zh) | 2008-11-26 | 2009-10-07 | 显示设备、终端设备和显示方法 |
Country Status (5)
Country | Link |
---|---|
US (2) | US9122064B2 (zh) |
EP (1) | EP2365701A1 (zh) |
JP (2) | JP5170254B2 (zh) |
CN (3) | CN104914587B (zh) |
WO (1) | WO2010061689A1 (zh) |
Families Citing this family (39)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2355526A3 (en) | 2010-01-14 | 2012-10-31 | Nintendo Co., Ltd. | Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method |
JP5898842B2 (ja) | 2010-01-14 | 2016-04-06 | 任天堂株式会社 | 携帯型情報処理装置、携帯型ゲーム装置 |
JP5800501B2 (ja) | 2010-03-12 | 2015-10-28 | 任天堂株式会社 | 表示制御プログラム、表示制御装置、表示制御システム、及び、表示制御方法 |
US8384770B2 (en) | 2010-06-02 | 2013-02-26 | Nintendo Co., Ltd. | Image display system, image display apparatus, and image display method |
US20110304695A1 (en) * | 2010-06-10 | 2011-12-15 | Lg Electronics Inc. | Mobile terminal and controlling method thereof |
JP5263355B2 (ja) * | 2010-09-22 | 2013-08-14 | 株式会社ニコン | 画像表示装置及び撮像装置 |
CN102447919A (zh) * | 2010-10-08 | 2012-05-09 | 宏碁股份有限公司 | 三维视频图像调整方法及装置 |
JP6021296B2 (ja) | 2010-12-16 | 2016-11-09 | 任天堂株式会社 | 表示制御プログラム、表示制御装置、表示制御システム、および、表示制御方法 |
JP2015038650A (ja) * | 2010-12-24 | 2015-02-26 | 株式会社東芝 | 情報処理装置及び情報処理方法 |
JP5122659B2 (ja) * | 2011-01-07 | 2013-01-16 | 任天堂株式会社 | 情報処理プログラム、情報処理方法、情報処理装置及び情報処理システム |
JP2012243012A (ja) * | 2011-05-18 | 2012-12-10 | Sony Corp | 表示制御装置、表示制御方法、プログラム、および記録媒体 |
US9914056B2 (en) | 2011-06-03 | 2018-03-13 | Nintendo Co., Ltd. | Storage medium having stored therein an image generation program, image generation method, image generation apparatus and image generation system |
JP5770018B2 (ja) * | 2011-06-03 | 2015-08-26 | 任天堂株式会社 | 表示制御プログラム、表示制御装置、表示制御方法及び表示制御システム |
EP2549720A1 (en) * | 2011-07-22 | 2013-01-23 | ST-Ericsson SA | Method for a mobile electronic device and such a mobile electronic device |
JP6380881B2 (ja) | 2012-07-31 | 2018-08-29 | Tianma Japan株式会社 | 立体画像表示装置、画像処理装置及び立体画像処理方法 |
TWI509289B (zh) * | 2012-08-27 | 2015-11-21 | Innocom Tech Shenzhen Co Ltd | 立體顯示裝置及其影像顯示方法 |
CN102798982B (zh) * | 2012-08-31 | 2015-11-25 | 深圳超多维光电子有限公司 | 一种立体显示设备及立体显示控制方法 |
TWI463181B (zh) * | 2012-09-25 | 2014-12-01 | Au Optronics Corp | 三維顯示器系統及其控制方法 |
JP5639138B2 (ja) * | 2012-10-24 | 2014-12-10 | 任天堂株式会社 | 情報処理プログラム、情報処理方法、情報処理装置及び情報処理システム |
TWI454968B (zh) | 2012-12-24 | 2014-10-01 | Ind Tech Res Inst | 三維互動裝置及其操控方法 |
US9118911B2 (en) * | 2013-02-07 | 2015-08-25 | Delphi Technologies, Inc. | Variable disparity three-dimensional (3D) display system and method of operating the same |
KR102094124B1 (ko) * | 2013-03-25 | 2020-03-27 | 조세프 제거 | 진동하는 격자 기반의 3차원 공간 시각화 장치 |
JP6604493B2 (ja) * | 2013-09-26 | 2019-11-13 | Tianma Japan株式会社 | 立体画像表示装置及び端末装置 |
JP6443654B2 (ja) * | 2013-09-26 | 2018-12-26 | Tianma Japan株式会社 | 立体画像表示装置、端末装置、立体画像表示方法、及びそのプログラム |
KR20150093014A (ko) * | 2014-02-06 | 2015-08-17 | 삼성전자주식회사 | 디스플레이 장치 및 그 제어 방법 |
FR3019553B1 (fr) | 2014-04-02 | 2020-07-31 | Arkema France | Nouvelle composition thermoplastique modifiee choc presentant une plus grande fluidite a l'etat fondu |
US10156723B2 (en) * | 2016-05-12 | 2018-12-18 | Google Llc | Display pre-distortion methods and apparatus for head-mounted displays |
CN106454326A (zh) * | 2016-10-13 | 2017-02-22 | 张家港康得新光电材料有限公司 | 串扰值的测试装置 |
EP3425907B1 (en) * | 2017-07-03 | 2022-01-05 | Vestel Elektronik Sanayi ve Ticaret A.S. | Display device and method for rendering a three-dimensional image |
JP2019066753A (ja) * | 2017-10-04 | 2019-04-25 | 三菱電機株式会社 | 立体画像表示装置 |
KR20200112837A (ko) * | 2018-01-30 | 2020-10-05 | 소니 주식회사 | 정보 처리 장치, 정보 처리 방법 및 프로그램 |
JP7145214B2 (ja) * | 2018-06-26 | 2022-09-30 | 京セラ株式会社 | 3次元表示装置、制御コントローラ、3次元表示方法、3次元表示システム、および移動体 |
US11694408B2 (en) * | 2018-08-01 | 2023-07-04 | Sony Corporation | Information processing device, information processing method, program, and movable object |
US10795176B2 (en) * | 2018-08-24 | 2020-10-06 | 3D Media Ltd | Three-dimensional display adapted for viewers with a dominant eye |
JP7105173B2 (ja) * | 2018-11-02 | 2022-07-22 | 京セラ株式会社 | 3次元表示装置、ヘッドアップディスプレイ、移動体、およびプログラム |
JP7433902B2 (ja) * | 2019-04-26 | 2024-02-20 | Tianma Japan株式会社 | 表示装置 |
JP2021131490A (ja) * | 2020-02-20 | 2021-09-09 | キヤノン株式会社 | 情報処理装置、情報処理方法、プログラム |
JP7475191B2 (ja) * | 2020-04-28 | 2024-04-26 | 京セラ株式会社 | 眼間距離測定方法および較正方法 |
US11538214B2 (en) * | 2020-11-09 | 2022-12-27 | Meta Platforms Technologies, Llc | Systems and methods for displaying stereoscopic rendered image data captured from multiple perspectives |
Family Cites Families (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3387624B2 (ja) * | 1994-05-20 | 2003-03-17 | キヤノン株式会社 | 立体ディスプレイ装置 |
JP3030243B2 (ja) | 1995-02-22 | 2000-04-10 | 三洋電機株式会社 | 立体映像表示装置 |
DE69733233T2 (de) * | 1996-09-11 | 2006-01-19 | Canon K.K. | Bildverarbeitung zur dreidimensionalen Wiedergabe von Bilddaten auf der Anzeige eines Bildaufnahmegeräts |
JP3397602B2 (ja) * | 1996-11-11 | 2003-04-21 | 富士通株式会社 | 画像表示装置及び方法 |
JPH1172697A (ja) | 1997-08-28 | 1999-03-16 | Nec Corp | 視点位置検出方法及び検出装置 |
JPH11234703A (ja) | 1998-02-09 | 1999-08-27 | Toshiba Corp | 立体表示装置 |
JP3646969B2 (ja) * | 1998-05-25 | 2005-05-11 | 富士通株式会社 | 3次元画像表示装置 |
JP4149037B2 (ja) | 1998-06-04 | 2008-09-10 | オリンパス株式会社 | 映像システム |
JP2000152285A (ja) | 1998-11-12 | 2000-05-30 | Mr System Kenkyusho:Kk | 立体画像表示装置 |
JP3585781B2 (ja) | 1999-08-31 | 2004-11-04 | 株式会社東芝 | 立体表示装置 |
JP3969252B2 (ja) * | 2002-08-27 | 2007-09-05 | 日本電気株式会社 | 立体画像平面画像切換表示装置及び携帯端末装置 |
AU2003246079A1 (en) * | 2002-09-26 | 2004-04-19 | Sharp Kabushiki Kaisha | 2d/3d switch liquid crystal display panel and 2d/3d selection liquid crystal display |
CN100501501C (zh) * | 2002-10-30 | 2009-06-17 | 株式会社半导体能源研究所 | 显示装置和电子设备 |
JP2004294861A (ja) | 2003-03-27 | 2004-10-21 | Sanyo Electric Co Ltd | 立体映像表示装置 |
US7636088B2 (en) * | 2003-04-17 | 2009-12-22 | Sharp Kabushiki Kaisha | 3-Dimensional image creation device, 3-dimensional image reproduction device, 3-dimensional image processing device, 3-dimensional image processing program, and recording medium containing the program |
JP2005151080A (ja) | 2003-11-14 | 2005-06-09 | Sanyo Electric Co Ltd | 立体映像表示装置 |
WO2004107763A1 (ja) * | 2003-05-28 | 2004-12-09 | Sanyo Electric Co., Ltd. | 立体映像表示装置及びプログラム |
JP4255753B2 (ja) * | 2003-05-29 | 2009-04-15 | 富士フイルム株式会社 | 立体視画像管理装置および方法並びにプログラム |
JP4190357B2 (ja) * | 2003-06-12 | 2008-12-03 | シャープ株式会社 | 放送データ送信装置、放送データ送信方法および放送データ受信装置 |
JP2005167310A (ja) | 2003-11-28 | 2005-06-23 | Sharp Corp | 撮影装置 |
JP4545464B2 (ja) * | 2004-03-18 | 2010-09-15 | 三菱電機株式会社 | 液晶表示装置及び画像表示システム |
JP2006023599A (ja) | 2004-07-09 | 2006-01-26 | Ts Photon:Kk | 2d/3d切換式ディスプレイシステム |
JP2006047507A (ja) | 2004-08-02 | 2006-02-16 | Sharp Corp | 表示装置及び表示方法 |
JP2007318184A (ja) | 2004-08-18 | 2007-12-06 | Sharp Corp | 立体画像生成装置及びその立体画像生成方法 |
JP4619216B2 (ja) | 2005-07-05 | 2011-01-26 | 株式会社エヌ・ティ・ティ・ドコモ | 立体画像表示装置及び立体画像表示方法 |
JP2007047294A (ja) * | 2005-08-08 | 2007-02-22 | Nippon Hoso Kyokai <Nhk> | 立体画像表示装置 |
JP4977995B2 (ja) | 2005-10-26 | 2012-07-18 | 日本電気株式会社 | 携帯表示装置 |
JP5006587B2 (ja) * | 2006-07-05 | 2012-08-22 | 株式会社エヌ・ティ・ティ・ドコモ | 画像提示装置および画像提示方法 |
KR100823197B1 (ko) * | 2007-03-02 | 2008-04-18 | 삼성에스디아이 주식회사 | 전자 영상 기기 및 그 구동방법 |
KR20080093637A (ko) * | 2007-04-17 | 2008-10-22 | 삼성전자주식회사 | 입체 영상 표시 장치 및 방법 |
JP2008300965A (ja) | 2007-05-29 | 2008-12-11 | Funai Electric Co Ltd | 電話機 |
-
2009
- 2009-10-07 EP EP09828938A patent/EP2365701A1/en not_active Withdrawn
- 2009-10-07 US US13/129,753 patent/US9122064B2/en active Active
- 2009-10-07 CN CN201510160882.2A patent/CN104914587B/zh active Active
- 2009-10-07 JP JP2010540421A patent/JP5170254B2/ja active Active
- 2009-10-07 CN CN200980155402.6A patent/CN102292998B/zh active Active
- 2009-10-07 CN CN201410718630.2A patent/CN104409032B/zh active Active
- 2009-10-07 WO PCT/JP2009/067469 patent/WO2010061689A1/ja active Application Filing
-
2012
- 2012-12-20 JP JP2012278159A patent/JP5497882B2/ja active Active
-
2015
- 2015-08-03 US US14/816,178 patent/US9880395B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
EP2365701A1 (en) | 2011-09-14 |
CN104914587A (zh) | 2015-09-16 |
US9122064B2 (en) | 2015-09-01 |
US20110221750A1 (en) | 2011-09-15 |
CN102292998B (zh) | 2015-05-06 |
US20150338669A1 (en) | 2015-11-26 |
CN102292998A (zh) | 2011-12-21 |
WO2010061689A1 (ja) | 2010-06-03 |
JPWO2010061689A1 (ja) | 2012-04-26 |
JP2013128285A (ja) | 2013-06-27 |
JP5497882B2 (ja) | 2014-05-21 |
CN104914587B (zh) | 2017-12-01 |
JP5170254B2 (ja) | 2013-03-27 |
CN104409032A (zh) | 2015-03-11 |
US9880395B2 (en) | 2018-01-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104409032B (zh) | 显示设备、终端设备和显示方法 | |
JP3802630B2 (ja) | 立体画像生成装置および立体画像生成方法 | |
US6717728B2 (en) | System and method for visualization of stereo and multi aspect images | |
KR101763592B1 (ko) | 3차원 컨텐츠를 출력하는 디스플레이 기기의 영상 출력 방법 및 그 방법을 채용한 디스플레이 기기 | |
EP1876840B1 (en) | Image display device and image display method | |
JP3443271B2 (ja) | 立体映像表示装置 | |
CN104052987B (zh) | 图像显示设备及图像显示方法 | |
US8279221B2 (en) | 3D graphics processor and autostereoscopic display device using the same | |
CN102300111A (zh) | 立体显示设备和立体显示设备的控制方法 | |
CN102293001A (zh) | 图像处理装置、程序、图像处理方法、记录方法及记录介质 | |
CN108076208B (zh) | 一种显示处理方法及装置、终端 | |
US20140293024A1 (en) | Foldable display and method and apparatus for controlling the same | |
US20190141314A1 (en) | Stereoscopic image display system and method for displaying stereoscopic images | |
JPH10322724A (ja) | 立体視検査装置および立体視検査プログラムを記録したコンピュータ読み取り可能な記録媒体 | |
CN104299517A (zh) | 显示装置 | |
JP4270347B2 (ja) | 距離演算装置 | |
EP2803198B1 (en) | 3d display apparatus and method thereof | |
JP2006201517A (ja) | 立体表示装置及び立体表示方法 | |
US20170052684A1 (en) | Display control apparatus, display control method, and program | |
US20190138789A1 (en) | Display system and method for displaying images | |
KR100400209B1 (ko) | 텔레비젼(tv)신호로부터삼차원동영상을발생시키는장치 | |
KR100670152B1 (ko) | 3d 그래픽 처리장치 및 이를 이용한 입체영상 표시장치 | |
KR100986234B1 (ko) | 3차원 디스플레이 장치 | |
JP2006042280A (ja) | 画像処理装置 | |
CN117857764A (zh) | 图像显示方法与3d显示系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |