Nothing Special   »   [go: up one dir, main page]

CN109644261B - 单一深度追踪调节-聚散解决方案 - Google Patents

单一深度追踪调节-聚散解决方案 Download PDF

Info

Publication number
CN109644261B
CN109644261B CN201780047659.4A CN201780047659A CN109644261B CN 109644261 B CN109644261 B CN 109644261B CN 201780047659 A CN201780047659 A CN 201780047659A CN 109644261 B CN109644261 B CN 109644261B
Authority
CN
China
Prior art keywords
image
viewer
virtual object
stereoscopic
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201780047659.4A
Other languages
English (en)
Other versions
CN109644261A (zh
Inventor
A·尼南
温臻智
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dolby Laboratories Licensing Corp
Original Assignee
Dolby Laboratories Licensing Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dolby Laboratories Licensing Corp filed Critical Dolby Laboratories Licensing Corp
Priority to CN202110519116.6A priority Critical patent/CN113240601B/zh
Priority claimed from PCT/US2017/045267 external-priority patent/WO2018027015A1/en
Publication of CN109644261A publication Critical patent/CN109644261A/zh
Application granted granted Critical
Publication of CN109644261B publication Critical patent/CN109644261B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/144Processing image signals for flicker reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/388Volumetric displays, i.e. systems where the image is built up from picture elements distributed through a volume
    • H04N13/395Volumetric displays, i.e. systems where the image is built up from picture elements distributed through a volume with depth sampling, i.e. the volume being constructed from a stack or sequence of 2D image planes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

当观看者在观看包括第一左侧图像和第一右侧图像的第一立体图像时,确定观看者的左眼的左聚散角和所述观看者的右眼的右聚散角。至少部分地基于(i)观看者的左眼的左聚散角和(ii)观看者的右眼的右聚散角来确定虚拟物体深度。在一个或多个图像显示器上为观看者呈现包括第二左侧图像和第二右侧图像的第二立体图像。第二立体图像跟随在第一立体图像之后。将第二立体图像从所述一个或多个图像显示器投射到所述虚拟物体深度处的虚拟物体平面。

Description

单一深度追踪调节-聚散解决方案
技术领域
本发明总体上涉及图像呈现(image rendering),具体地涉及对利用显示设备进行的三维(3D)和/或多视图(multi-view)图像呈现来应用单一深度追踪调节-聚散解决方案。
背景技术
视网膜是指(例如,人类、观看者等的)眼睛内表面的重要部分,其具有与眼睛瞳孔相对的视觉传感器。中央凹是指视网膜的、容纳许多在眼睛中具有最清晰的视力和最灵敏的颜色接受能力的视觉传感器的相对微小的中间部分。
人类大脑利用聚散过程来控制眼外肌,使(人类)观看者的两只眼睛朝向场景中任何可见物体同时会聚或发散,以支持将物体感知为3D物体。同时,人类大脑利用调节过程(accommodation process)来控制睫状肌,使位于两只眼睛的瞳孔后方的每一个眼睛晶状体适应某些焦距(或光焦度),以支持物体的清晰视觉或中央凹视野。
当观看真实世界环境(或场景)中的真实世界物体时,人类大脑利用自然的相互依赖的调节与聚散过程来同时控制睫状肌和眼外肌,适应性调节观看者的各单独眼睛晶状体的两个焦距以便支持对位于某个空间位置的真实世界物体的清晰视觉(或中央凹视野),同时,使双眼朝向位于所述某个空间位置的真实世界物体会聚和发散以便支持对包括真实世界物体的真实世界环境的感知。
相比之下,当使用近眼显示器观看3D图像时,人类大脑必须经历重新学习的过程,以利用相冲突的调节和聚散过程来控制睫状肌和眼外肌。在观看3D图像时这些相冲突的调节和聚散过程控制睫状肌和眼外肌的方式与调节和聚散过程在观看真实世界环境中的真实世界物体时控制睫状肌和眼外肌的方式非常不同。
更特别地,人类大脑需要控制睫状肌以将观看者眼睛的眼睛晶状体设置为恒定的焦距,以便支持对位于距眼睛固定距离处的近眼显示器上呈现的图像的清晰视觉(或中央凹视野),无论图像中的、观看者正在观看的所描绘物体应位于何处。在睫状肌固定眼睛晶状体的焦距以清晰地观看近眼显示器的同时,人类大脑仍然需要控制眼外肌以使双眼同时朝向图像中在距近眼显示器一定距离处所描绘的物体而会聚或发散,以便支持将物体感知为3D物体。
这被称为调节-聚散冲突。也就是说,在观看3D图像时和在观看真实世界物体时,大脑对睫状肌和眼外肌的控制必须非常不同。不幸的是,观看3D图像时的调节-聚散冲突可能导致在观看3D图像过程中以及之后引起频繁且严重的生理不适/疾病,比如恶心、头疼、迷失方向感等。在这一部分中描述的方法是可以采用的方法,但不一定是之前已经设想到或采用的方法。因此,除非另有指明,否则不应假设这一部分中所述的任何方法仅凭被包含在这一部分中就应被认定为现有技术。类似地,除非另有指明,否则关于一种或多种方法所确认的问题不应基于这一部分而假设为已在任何现有技术中被公认。
发明内容
根据本公开的第一方面,涉及一种方法,所述方法包括:当观看者在观看包括第一左侧图像和第一右侧图像的第一立体图像时,确定观看者的左眼的左聚散角和所述观看者的右眼的右聚散角;至少部分地基于(i)所述观看者的左眼的左聚散角和(ii)所述观看者的右眼的右聚散角来确定虚拟物体深度;在一个或多个图像显示器上为所述观看者呈现包括第二左侧图像和第二右侧图像的第二立体图像,其中,所述第二立体图像跟随在所述第一立体图像之后;将所述第二立体图像从所述一个或多个图像显示器投射到所述虚拟物体深度处的虚拟物体平面,其中,所述第二左侧图像和所述第二右侧图像是通过应用一个或多个模糊过滤操作从输入的左侧图像和输入的右侧图像生成的,其中,所述一个或多个模糊过滤操作相对于所述输入的左侧图像和所述输入的右侧图像使所述第二左侧图像和所述第二右侧图像的一个或多个空间区域模糊,并且其中,所述第二左侧图像和所述第二右侧图像的所述一个或多个空间区域是离开所述观看者的中央凹视野的。
根据本公开的第二方面,涉及一种装置,所述装置被配置用于执行根据本公开所述的方法。
根据本公开的第三方面,涉及一种非暂态计算机可读存储介质,所述非暂态计算机可读存储介质存储有软件指令,所述软件指令在由一个或多个处理器执行时使根据本公开所述的方法得以执行。
根据本公开的第四方面,涉及一种计算设备,所述计算设备包括一个或多个处理器以及一个或多个存储介质,所述存储介质存储有指令集,所述指令集在由一个或多个处理器执行时使根据本公开所述的方法得以执行。
根据本公开的第五方面,涉及一种显示系统,包括:一个或多个图像显示器,被配置为:为观看者呈现包括第一左侧图像和第一右侧图像的第一立体图像;以及为所述观看者呈现包括第二左侧图像和第二右侧图像的第二立体图像,其中,所述第二立体图像跟随在所述第一立体图像之后,一个或多个自动可调透镜,被配置为将所述第二立体图像从所述一个或多个图像显示器投射到虚拟物体深度处的虚拟物体平面,其中,所述虚拟物体深度是至少部分地基于(i)所述观看者的左眼的左聚散角和(ii)所述观看者的右眼的右聚散角来确定的,所述左聚散角和所述右聚散角是当观看者在观看所述第一立体图像时确定的,以及其中,所述第二左侧图像和所述第二右侧图像是通过应用一个或多个模糊过滤操作从输入的左侧图像和输入的右侧图像生成的,其中,所述一个或多个模糊过滤操作相对于所述输入的左侧图像和所述输入的右侧图像使所述第二左侧图像和所述第二右侧图像的一个或多个空间区域模糊,并且其中,所述第二左侧图像和所述第二右侧图像的所述一个或多个空间区域是离开所述观看者的中央凹视野的。
根据本公开的第六方面,涉及一种图像呈现系统(324-1),包括:一个或多个图像显示器(320),被配置为:为观看者呈现包括第一左侧图像和第一右侧图像的第一立体图像;以及为所述观看者呈现包括第二左侧图像和第二右侧图像的第二立体图像,其中,所述第二立体图像跟随在所述第一立体图像之后,聚散角追踪器(326),被配置为在所述观看者观看所述第一立体图像时追踪所述观看者的左眼的左聚散角和所述观看者的右眼的右聚散角;自动可调透镜控制器(318),被配置为使用深度控制元数据来控制一个或多个自动可调透镜以将所述第二立体图像从所述一个或多个图像显示器投射到单一深度处的虚拟物体平面,其中,所述深度控制元数据表示所述单一深度随时间推移的函数,所述单一深度是至少部分地基于所述左聚散角和所述右聚散角以及观看者的眼睛相对于所述一个或多个图像显示器的几何信息来确定的,以及其中,所述第二左侧图像和所述第二右侧图像是通过应用一个或多个模糊过滤操作从输入的左侧图像和输入的右侧图像生成的,其中,所述一个或多个模糊过滤操作相对于所述输入的左侧图像和所述输入的右侧图像使所述第二左侧图像和所述第二右侧图像的一个或多个空间区域模糊,并且其中,所述第二左侧图像和所述第二右侧图像的所述一个或多个空间区域是离开所述观看者的中央凹视野的。
附图说明
在附图中以举例的方式而非限制的方式展示本发明,并且其中相同的附图标记指代相似的要素,并且在附图中:
图1A展示了示例性人眼的截面视图;图1B展示了左眼和右眼对位于物平面中的真实世界物体的示例性观看;
图2A、图2B和图2D展示了对在包括左侧图像和右侧图像的立体图像中所描绘的(多个)虚拟物体的示例性观看;图2C展示了在观看立体图像的时间序列时对观看者的聚散角的示例性追踪;图2E展示了示例性模糊过滤器;
图3A和图3B展示了示例性视频流服务器和客户端;图3C展示了其中基于深度的图像生成器被并入到边缘视频流服务器中的示例性配置;
图4展示了示例性过程流程;并且
图5展示了示例性硬件平台,在所述硬件平台上可以实施本文所描述的计算机或计算设备。
具体实施方式
本文描述了与对利用显示设备的3D和/或多视图图像呈现应用单一深度追踪调节-聚散解决方案相关的示例性实施例。在以下说明中,为了解释的目的,阐述了许多具体细节以便提供对本发明的透彻理解。然而清楚的是,可以在没有这些具体细节的情况下实施本发明。在其他情形中,为了避免不必要地掩盖、模糊或混淆本发明,没有详尽地描述众所周知的结构和设备。
在此根据以下概要对示例性实施例进行描述:
1.总体概述
2.调节与聚散
3.调节与聚散之间的冲突
4.解决调节与聚散之间的冲突
5.追踪聚散角
6.示例性视频流服务器和客户端
7.示例性过程流程
8.实施机构—硬件概述
9.等同方案、扩展、替代方案及其他
1.总体概述
此概述呈现了对本发明的示例性实施例的某些方面的基本说明。应当注意的是,此概述不是对示例性实施例的各方面的广泛或详尽概括。此外,应当注意的是,此概述不旨在被理解为确认示例性实施例的任何特别重要的方面或要素,也不旨在被理解为特别地刻画示例性实施例的任何范围,也不是概括地刻画本发明。此概述仅以压缩和简化的格式呈现与示例性实施例相关的一些概念,并且应该被理解为仅仅是以下示例性实施例的更详细说明的概念性序幕。注意,尽管本文讨论了各单独的实施例,但是本文讨论的实施例和/或部分实施例的任何组合都是可以的,其可以被组合以形成进一步实施例。
本文描述的示例性实施例涉及通过自动可调透镜在呈现和观看3D图像(或多视图图像)时解决调节-聚散冲突。当观看者在观看包括第一左侧图像和第一右侧图像的第一立体图像时,确定观看者的左眼的左聚散角和所述观看者的右眼的右聚散角。至少部分地基于(i)观看者的左眼的左聚散角和(ii)观看者的右眼的右聚散角来确定虚拟物体深度。在一个或多个图像显示器上为观看者呈现包括第二左侧图像和第二右侧图像的第二立体图像。第二立体图像跟随在第一立体图像之后。将第二立体图像从所述一个或多个图像显示器投射到所述虚拟物体深度处的虚拟物体平面。
在一些实施例中,第二左侧图像和第二右侧图像是通过应用一个或多个纵横比调整操作从输入的左侧图像和输入的右侧图像生成的,所述一个或多个纵横比调整操作将输入的左侧图像和输入的右侧图像中所描绘的视觉物体的纵横比调整为投射到所述虚拟物体深度处的虚拟物体平面的第二左侧图像和第二右侧图像中所描绘的视觉物体的修改后的纵横比。
在一些实施例中,所述第二左侧图像和所述第二右侧图像是通过应用一个或多个深度校正操作从输入的左侧图像和输入的右侧图像生成的,所述一个或多个深度校正操作将所述输入的左侧图像和所述输入的右侧图像中所描绘的视觉物体的深度转换为投射到所述虚拟物体深度处的所述虚拟物体平面的所述第二左侧图像和所述第二右侧图像中所描绘的视觉物体的修改后的深度。
在一些实施例中,所述第二左侧图像和所述第二右侧图像是通过应用一个或多个模糊过滤操作从输入的左侧图像和输入的右侧图像生成的,其中,所述一个或多个模糊过滤操作相对于所述输入的左侧图像和所述输入的右侧图像使所述第二左侧图像和所述第二右侧图像的一个或多个空间区域模糊,并且其中,所述第二左侧图像和所述第二右侧图像的所述一个或多个空间区域是离开所述观看者的中央凹视野的。
在一些示例性实施例中,本文描述的机构形成媒体处理系统的一部分,所述媒体处理系统包括但不限于以下中的任何:近眼显示器、基于云的服务器、移动设备、虚拟现实系统、增强现实系统、抬头显示器设备、头盔式显示设备、zSpace显示器、CAVE式系统或壁挂式显示器、视频游戏设备、显示设备、媒体播放器、媒体服务器、媒体制作系统、照相机系统、基于家庭的系统、通讯设备、视频处理系统、视频编解码器系统、演播室系统、流媒体服务器、基于云的内容服务系统、手持式设备、游戏机、电视机、影院显示器、膝上型计算机、上网本计算机、平板计算机、蜂窝无线电话、电子书阅读器、销售点终端、台式计算机、计算机工作站、计算机服务器、计算机亭、或各种其他类型的终端和媒体处理单元。
对在此描述的优选实施例和通用原理以及特征作出的各种变型对本领域的技术人员而言将是非常清楚的。因此,本公开内容不旨在受限于所示实施例,而旨在给予与本文描述的原理和特征一致的最宽范围。
2.调节与聚散
图1A展示了当从观看者头部正上方观看时观看者的示例性人眼100的横截面视图。如图所示,眼睛(100)具有光轴102(垂直于横向线112),所述光轴穿过位于眼睛(100)前部的瞳孔104的中心点以及位于眼睛(100)后部的视网膜110中的中央凹106的中心点。通过位于瞳孔(104)后方的眼睛晶状体108收集的光可以由眼睛晶状体(108)投射到中央凹(106)上。仅出于说明的目的,眼睛晶状体(108)可以用眼睛焦距来光学地表征。由于眼睛晶状体可以表示或可以不表示单一焦距的光学透镜,因此本文所述的眼睛焦距可以指以下之一:针对光轴(102)附近的光的焦距、眼睛晶状体的中心部分的平均焦距、针对光轴(102)附近的光的有效焦距、关于投射到中央凹上的光的焦距、相对于中央凹视野局部近乎完美的透镜的焦距等。应当注意的是,在各种实施例中,眼睛晶状体可以被建模为单个透镜或多个透镜,其中一个、一些或全部可以具有变焦透镜,所述变焦透镜例如可通过眼睛(100)中或与眼睛相关联的睫状肌来控制。
图1B展示了观看者的左眼100-1和右眼100-2对位于物平面116中的真实世界物体114的示例性观看。如图所示,真实世界物体(114)所位于的物平面(116)垂直于观看者的正面观看方向118,并且平行于观看者的瞳孔间连线120。
为了通过左眼(100-1)的左中央凹(106-1)和右眼(100-2)的右中央凹(106-2)两者实现对真实世界物体(114)的清晰视觉,观看者的大脑利用聚散过程(例如,发散过程、会聚过程等)同时控制双眼的眼外肌,以使左眼(100-1)和右眼(100-2)朝向真实世界物体(114)定向。如果观看者的光轴(102-1和102-2,分别垂直于横向线112-1和112-2)先前指向比真实世界物体(114)更近的空间点,则观看者的大脑利用发散过程来控制双眼的眼外肌,以同时使左眼(100-1)和右眼(100-2)朝向真实世界物体(114)发散。否则,如果观看者的光轴(102-1和102-2)先前指向比真实世界物体(114)更远的空间点,则观看者的大脑利用会聚过程来控制双眼的眼外肌,以同时使左眼(100-1)和右眼(100-2)朝向真实世界物体(114)会聚。
结果,左眼(100-1)的左光轴(102-1)和右眼(100-2)的右光轴(102-2)(例如,具有正常视力)在真实世界物体(114)处相符,以使来自真实世界物体(114)的光投射到左眼(100-1)的左中央凹(106-1)和右眼(100-2)的右中央凹(106-2)两者上。
在观看真实世界环境/场景中的真实世界物体时,调节和聚散过程/功能不是独立的,而是在观看者的大脑中是相互依赖的,以控制肌肉朝向物体聚散(会聚/发散)并同时(例如,适应于)聚焦于同一物体。例如,在利用聚散过程来同时控制双眼的眼外肌以使左眼(100-1)和右眼(100-2)朝向真实世界物体(114)定向的同时,观看者的大脑利用调节过程来同时控制双眼的睫状肌,以使左眼(100-1)和右眼(100-2)聚焦到真实世界物体(114)上。可以通过调节过程来调整左眼(100-1)和右眼(100-2)的焦距,使得来自真实世界物体(114)的(例如,发射的、反射的等)光聚焦在与左中央凹(106-1)和右中央凹(106-2)相符的像平面(或视网膜)处。更特别地,左眼(100-1)的焦距可以至少部分地基于真实世界物体(114)与左眼晶状体(108-1)之间的(左)距离122-1通过调节过程来设定,以使来自真实世界物体(114)的光聚焦在与左中央凹(106-1)相符的左像平面(或左视网膜)处,而右眼(100-2)的焦距可以至少部分地基于真实世界物体(114)与右眼晶状体(108-2)之间的(右)距离122-2通过调节过程来设定,以使来自真实世界物体(114)的光聚焦在与右中央凹(106-2)相符的右像平面(或右视网膜)处。在真实世界物体(114)距观看者眼睛所位于的距离远大于(例如,十倍于等等)观看者的沿瞳孔间连线(120)的瞳孔间距(观看者的两只眼睛之间的距离)的情景中,左眼(100-1)和右眼(100-2)的焦距可以通过调节过程被调整为相同的焦距或大致相同的焦距。
3.调节与聚散之间的冲突
在一些实施例中,可以利用部署在一个或多个空间环境中的一个或多个照相机系统来捕获本文所述的立体图像或多视图图像。示例性空间环境可以包括但不仅限于以下中的任何:实际空间环境、模拟空间环境、电影摄影棚、室外场景、室内场景、隧道、街道、车辆、船舶、飞行器、外太空等。示例性相机系统可以包括但不仅限于以下中的任何:3D照相机、多视图照相机、光场照相机、视场重叠和/或非重叠的多个照相机、数码照相机、模拟照相机、摄像头等。
可以将本文所述的立体图像或多视图图像的左侧图像、右侧图像、多个不同视图中的特定视图的图像等记录或组合成为图像帧的像素值分布的像素。
图2A展示了对在包括左侧图像202-1和右侧图像202-2的立体图像中所描绘的虚拟物体214的示例性观看。通过观看者的左眼(100-1)和右眼(100-2),虚拟物体(214)可以在立体图像中被表示为位于虚拟物体平面216中。仅出于说明的目的,虚拟物体(214)(虚拟地)位于的虚拟物体平面(216)垂直于观看者的正面观看方向(118),并且平行于观看者的瞳孔间连线(120)。
为了通过左眼(100-1)的左中央凹(106-1)和右眼(100-2)的右中央凹(106-2)实现对虚拟物体(214)的清晰视觉,观看者的大脑利用聚散过程(例如,发散过程、会聚过程等)同时控制双眼的眼外肌,以使左眼(100-1)和右眼(100-2)朝向虚拟物体(214)定向。如果观看者的光轴(102-1和102-2)先前指向比虚拟物体(214)更近的(在立体图像中所描绘的)虚拟空间点,则观看者的大脑利用发散过程来控制双眼的眼外肌以同时使左眼(100-1)和右眼(100-2)朝向虚拟物体(214)发散。否则,如果观看者的光轴(102-1和102-2)先前指向比虚拟物体(214)更远的(在立体图像中描绘的)虚拟空间点,则观看者的大脑利用会聚过程来控制双眼的眼外肌以同时使左眼(100-1)和右眼(100-2)朝向虚拟物体(214)会聚。
结果,左眼(100-1)的左光轴(102-1)和右眼(100-2)的右光轴(102-2)在虚拟物体(214)处相符,使来自对虚拟物体(214)进行描绘的左像素224-1(在左侧图像(202-1)中)和右像素224-2(在右侧图像(202-2)中)的光分别投射到左眼(100-1)的左中央凹(106-1)和右眼(100-2)的右中央凹(106-2)上。
在利用聚散过程来同时控制双眼的眼外肌以使左眼(100-1)和右眼(100-2)朝向虚拟物体(214)定向的同时,观看者的大脑利用调节过程来同时控制双眼的睫状肌,以使左眼(100-1)和右眼(100-2)分别聚焦到描绘虚拟物体(214)的左像素(224-1)和右像素(224-2)上。可以通过调节过程来调整左眼(100-1)和右眼(100-2)的焦距,使得来自描绘虚拟物体(214)的左像素(224-1)和右像素(224-2)的光聚焦在与左中央凹(106-1)和右中央凹(106-2)相符的相应像平面(或视网膜)处。更特别地,左眼(100-1)的焦距可以至少部分地基于左像素(224-1)与左眼晶状体(108-1)之间的(左)距离222-1通过调节过程来设定,以使来自左像素(224-1)的光聚焦在与左中央凹(106-1)相符的左像平面(或左视网膜)处,而右眼(100-2)的焦距可以至少部分地基于右像素(224-2)与右眼晶状体(108-2)之间的(右)距离222-2通过调节过程来设定,以使来自右像素(224-2)的光聚焦在与右中央凹(106-2)相符的右像平面(或右视网膜)处。在左侧图像和右侧图像(202-1和202-2)距观看者眼睛所位于的距离与观看者的沿瞳孔间连线(120)的瞳孔间距(观看者的两只眼睛之间的距离)可比的情景中,左眼(100-1)和右眼(100-2)的焦距可以通过调节过程被调整为各自不同的焦距。
图2A中观看者的大脑所利用的调节和聚散过程/功能的操作与图1B中观看者的大脑所利用的调节和聚散过程/功能相当不同。
例如,如前所述,在观看诸如图1B中所展示的真实世界物体时,观看者的大脑利用自然调节和聚散过程来控制肌肉朝向物体聚散(会聚/发散)并同时(例如,适应于)聚焦于同一物体上。更特别地,图1B中的调节过程基于真实世界物体(114)与左眼晶状体和右眼晶状体(108-1和108-2)之间的距离来调整左眼晶状体(108-1)和右眼晶状体(108-2)的焦距。这些距离自洽地与左眼(100-1)和右眼(100-2)的光轴(102-1和102-2)的交叉点相符或终止/结束于所述交叉点。此外,在大多数情况下,由于这些距离是瞳孔间距的许多倍,因此通过图1B的调节过程设定的左眼晶状体(108-1)和右眼晶状体(108-2)的焦距是基本上相同的。
另一方面,在观看诸如图2A中所展示的虚拟物体时,观看者的大脑必须利用新的且非天然的调节和聚散过程来控制肌肉朝向虚拟物体聚散(会聚/发散)并且同时地且相冲突地聚焦在描绘虚拟物体的像素上(在(多个)显示器上)而不是在虚拟空间位置的虚拟物体上。更特别地,图2A中的调节过程基于左像素(224-1)与左眼晶状体(108-1)之间的距离以及右像素(224-2)与右眼晶状体(108-2)之间的距离来调整左眼晶状体(108-1)和右眼晶状体(108-2)的焦距,从而将最清晰的视觉固定于呈现左像素和右像素(224-1和224-2)的(多个)显示器处。这些距离与左眼(100-1)和右眼(100-2)的光轴(102-1和102-2)的交叉点不相符且不终止/结束于所述交叉点。左眼晶状体(108-1)和右眼晶状体(108-2)以及左中央凹(106-1)和右中央凹(106)实质上被迫指向分别位于两个不同显示器处(或位于同一显示器的不同空间位置处)的两个不同像素组。
此外,在左侧图像和右侧图像(202-1和202-2)靠近观看者的眼睛(100-1和100-2)被呈现的情况下,当左像素(224-1)与左眼晶状体(108-1)之间的距离以及右像素(224-2)与右眼晶状体(108-2)之间的距离与瞳孔间距可比时,通过图2A的调节过程设定的左眼晶状体(108-1)和右眼晶状体(108-2)的焦距会充分不同以迫使观看者的大脑重新学习额外的新的眼睛控制,以利用眼睛晶状体的不同聚焦透镜作为克服调节-聚散冲突的一部分。
4.解决调节与聚散之间的冲突
图2B展示了透过一个或多个自动可调透镜228-1、228-2等对在包括左侧图像(252-1)和右侧图像(252-2)的立体图像中所描绘的虚拟物体(214)的示例性观看,所述自动可调透镜设置在(a)呈现左侧图像(252-1)和右侧图像(252-2)的一个或多个图像显示器与(b)观看者的眼睛(100-1和100-2)之间。在一些实施例中,一些或全部图像显示器相对于观看者是静止的(例如,处于距观看者固定距离处等),并且与瞳孔间连线(120)平行(或基本上平行)。仅出于说明的目的,自动可调透镜包括设置在左侧图像(252-1)与左眼(100-1)之间的左侧自动可调透镜228-1以及设置在右侧图像(252-2)与右眼(100-2)之间的右侧自动可调透镜228-2。本文所述的示例性自动可调透镜可以包括但不必仅限于以下中的任何:可机械控制的自动可调透镜、可电子控制的自动可调透镜、基于液体的自动可调透镜等。
本文所述的图像处理系统可以用于各种显示应用中的任何,所述显示应用包括但不限于:3D显示应用、多视图显示应用、球面图像显示应用、虚拟现实(VR)应用、增强现实(AR)应用、远程呈现应用等。图像处理系统可以被配置用于实时地执行注视追踪操作(和/或眼睛追踪操作),以确定在呈现3D或多视图图像以供观看者观看的显示应用中在任何给定时间观看者的眼睛正在看哪个具体的虚拟空间位置。出于说明的目的,基于注视/眼睛追踪操作的结果,图像处理系统确定/推断虚拟物体(214)所位于的具体虚拟空间位置。注视/眼睛追踪操作可以基于一种或多种(例如,实时)注视/眼睛追踪方法的任何组合。例如,这些注视/眼睛追踪方法可以用以下中的一个或多个来操作:眼睛附件、光学传感器、眼睛图像获取和分析、电场测量、红外光等。
在各种实施例中,具体虚拟空间位置可以在观看者所位于的图像呈现环境中所表示的任何空间坐标系(例如,笛卡尔坐标系、极坐标系、世界坐标系、相对坐标系等)中表示。
基于在给定时间的具体虚拟空间位置,图像处理系统识别/确定具体虚拟空间位置(或虚拟物体(214))在给定时间所位于的虚拟物体平面216。例如,基于在给定时间的具体虚拟空间位置,图像处理系统可以计算用于给定时间的虚拟物体平面(216)的单一深度236(或虚拟物体深度)。所述单一深度(236)可以但不必限于由虚拟物体平面(216)与自动可调透镜(228-1和228-2)之间的距离表示。在图像呈现平面处呈现的左侧图像(252-1)和右侧图像(252-2)两者可以分别通过左侧自动可调透镜(228-1)和右侧自动可调透镜(228-2)投射到虚拟物体平面(216)。
在一些实施例中,图像处理系统利用(多个)透镜方程来确定左侧自动可调透镜和右侧自动可调透镜(228-1和228-2)的焦距。
在非限制性实施示例中,可以利用透镜方程来计算单一焦距;左侧自动可调透镜和右侧自动可调透镜(228-1和228-2)两者都可以自动调谐为同一计算出的单一焦距。在计算这个单一焦距时透镜方程的输入可以包括(a)由虚拟物体平面(216)与自动可调透镜(228-1和228-2)之间的距离表示的单一深度(236)、以及(b)由自动可调透镜(228-1和228-2)与呈现左侧图像(252-1)和右侧图像(252)的图像显示器之间的距离表示的图像显示深度(242)。单一深度(236)可以用作透镜方程中的像距(d2),而图像显示深度(242)可以用作透镜方程中的物距(d1)。如下提供了用于计算本文所述的自动可调透镜的焦距的透镜方程的示例:
Figure GDA0002622146030000111
自动可调透镜(228-1和228-2)的存在有效地将图像从实际呈现左侧图像(252-1)和右侧图像(252-2)的图像显示器移至虚拟图像显示器(由虚拟物体平面(216)表示),由自动可调透镜(228-1和228-2)将左侧图像(252-1)和右侧图像(252-2)投射到所述虚拟图像显示器上。
为了通过左眼(100-1)的左中央凹(106-1)和右眼(100-2)的右中央凹(106-2)实现对虚拟物体(214)的清晰视觉,观看者的大脑利用聚散过程(例如,发散过程、会聚过程等)同时控制双眼的眼外肌以使左眼(100-1)和右眼(100-2)朝向虚拟物体(214)定向。
结果,左眼(100-1)的左光轴(102-1)和右眼(100-2)的右光轴(102-2)在虚拟物体(214)处相符,使来自虚拟物体(214)的光投射到左眼(100-1)的左中央凹(106-1)和右眼(100-2)的右中央凹(106-2)上。更特别地,来自虚拟物体(214)的光包括(a)由左侧自动可调透镜(228-1)从左像素234-1(在左侧图像(252-1)中)投射的左侧光部分、以及(b)由右侧自动可调透镜(228-2)从右像素234-2(在右侧图像(252-2)中)投射的右侧光部分,其中左像素(234-1)和右像素(234-2)描绘了虚拟物体(214)。与左像素(234-1)的虚拟图像部分对应的左侧光部分由左眼(100-1)的左中央凹(106-1)接收,而与右像素(234-2)的虚拟图像部分对应的右侧光部分由右眼(100-2)的右中央凹(106-2)接收。
在利用聚散过程来同时控制双眼的眼外肌以使左眼(100-1)和右眼(100-2)朝向虚拟物体(214)定向的同时,观看者的大脑利用调节过程来同时控制双眼的睫状肌,以将左眼(100-1)和右眼(100-2)分别聚焦到位于虚拟物体平面(216)处的虚拟物体(214)上。左眼(100-1)和右眼(100-2)的焦距可以通过调节过程来调整,使得来自虚拟物体(214)的光聚焦在与左中央凹(106-1)和右中央凹(106-2)相符的相应像平面上。更特别地,左眼(100-1)的焦距可以至少部分地基于虚拟物体(214)所位于的虚拟空间位置与左眼晶状体(108-1)之间的(左)距离通过调节过程来设定,以使来自虚拟物体(214)的光的左侧光部分聚焦在与左中央凹(106-1)相符的左像平面,而右眼(100-2)的焦距可以至少部分地基于虚拟物体(214)所位于的虚拟空间位置与右眼晶状体(108-2)之间的(右)距离通过调节过程来设定,以使来自虚拟物体(214)的光的右侧光部分聚焦在与右中央凹(106-2)相符的右像平面。在虚拟物体(214)所位于的虚拟空间位置距观看者眼睛的距离远大于观看者的沿瞳孔间连线(120)的瞳孔间距(观看者的两只眼睛之间的距离)的情景中,左眼(100-1)和右眼(100-2)的焦距可以相同或大致相同。
图2B中观看者的大脑利用的调节过程与图1B中观看者的大脑利用的调节过程相同或基本上相同。例如,与图1B中一样,图2B中的调节过程基于观看者的中央凹视野中的虚拟物体(214)与左眼晶状体和右眼晶状体(108-1和108-2)之间的距离来调整左眼晶状体(108-1)和右眼晶状体(108-2)的焦距。如图1B中那样,图2B中的这些距离自洽地与左眼(100-1)和右眼(100-2)的光轴(102-1和102-2)的交叉点相符或终止/结束于所述交叉点。此外,如图1B中那样,在大多数情况下,由于这些距离是瞳孔间距的许多倍,因此通过图1B的调节过程设定的左眼晶状体(108-1)和右眼晶状体(108-2)的焦距是基本上相同的。
在一些方法下,对于单个立体图像,可以在多个深度处生成并显示多个呈现图像(例如,六个不同深度处的6个呈现图像,12个不同深度处的12个呈现图像,深度连续可变的呈现图像等)。基于所描绘物体的深度相对于多个呈现图像的深度,可以在多个呈现图像之一中显示立体图像中所描绘的物体。这产生了这样的显示系统:在所述显示系统中生成并显示很多呈现图像,并且在所述显示系统中,多个深度之间的一些所描绘物体被不精确地展现和/或需要密集计算以便对具有与所述多个呈现图像的多个深度不匹配的深度的所描绘物体进行内插。对于显示系统的给定帧刷新率(例如,每秒60帧、每秒120帧等),针对单个立体图像在多个不同深度处显示多个呈现图像容易产生可感知的图像抖动。
相比之下,本文所述的技术可以用于基于观看者当前正看着的位置来确定应当显示单个立体图像或多视图图像的单一深度。这使得实施本文所述的技术的显示系统能够例如通过利用一个或多个自动可调透镜将左侧图像和右侧图像呈现/投射到单一深度或数量非常少的深度。所述技术有效地解决了调节-聚散冲突,因为调节和聚散过程可以将观看者的眼睛朝向立体图像的例如描绘物体/人的图像细节的相同空间位置进行适应性调整。此外,本文所述的技术可以部署在各种各样的显示系统中,所述显示系统包括但不必仅限于以下中的任何:近眼显示器、头戴式显示器、zSpace显示器、电影院显示器、大型显示系统、医疗显示系统、高帧率显示系统、相对低帧率显示系统、3D眼镜、电视机等。
在一些实施例中,自动可调透镜(例如,228-1、228-2等)包括单个透镜元件;可以基于通过自动可调透镜要将图像(例如,252-1、252-2)投射到的位置来调整单个透镜元件的焦距。
在一些实施例中,自动可调透镜(例如,228-1、228-2等)包括多个透镜元件;可以基于通过自动可调透镜要将图像(例如,252-1、252-2)投射到的位置来调整多个透镜元件的一些或全部焦距。例如,自动可调透镜的一个或多个透镜元件可以由本文所述的图像处理系统确定/选择,以将图像的一部分投射到虚拟物体平面(216),其中,图像的所述部分包括观看者的中央凹视野(例如,106-1,106-2等)内的具体虚拟空间位置(在虚拟物体平面(216)上)。可以基于虚拟物体平面(216)与自动可调透镜所位于的平面(例如,透镜元件的位置、自动可调透镜的位置等)之间的几何关系(例如,单一深度(236)等)来确定所述具体虚拟空间位置与透镜元件之间的距离(例如,232-1、232-2等)。至少部分地基于所述具体虚拟空间位置与透镜元件之间的距离,可以在一个或多个透镜方程中确定透镜元件的焦距。
在一些实施例中,单个自动可调透镜用于在任何给定时间点将一个或多个图像显示器上的左侧图像和右侧图像两者投射到单一深度处的虚拟物体平面。
不同的观看者可具有不同的视觉特征,包括近视、远视、正常立体视觉、异常立体视觉、佩戴眼镜、不佩戴眼镜、佩戴隐形眼镜等。此外,可选地或替代地,不同的观看者可能具有不同的头部几何特征,包括瞳孔间距、眼睛与自动可调透镜的距离等。在一些实施例中,图像处理系统可以能够针对具有特定视觉特征和/或特定头部几何特征的特定观看者进行特定校准。例如,在使用图像处理系统观看显示应用的3D或多视图图像之前,在校准阶段中,可以由图像处理系统以在单一深度周围分布的不同深度向观看者呈现测试立体图像,所述单一深度对应于具有完美/参考视觉的参考观看者。可以在具有或没有用户输入的情况下自动确定特定于观看者的校正后的深度。可以针对所述观看者在对应于具有完美/参考视觉的参考观看者的多个深度中的每个深度重复这个过程。可以在校准阶段中确定曲线、查找表(LUT)等。可以通过调整针对具有完美/参考视觉的参考观看者的运行时计算的深度来计算观看者的特定深度。此外、可选地或替代地,可以测量观看者的特定头部几何特征或将其输入到图像处理系统中,以便执行精确的注视/眼睛追踪以及虚拟物体平面的精确布置,要由图像处理系统的一个或多个自动可调透镜将不同时间点的图像投射到所述虚拟物体平面上。
应当注意的是,包括左侧图像(252-1)和右侧图像(252-2)中描绘的虚拟物体(214)的物体/人可能被自动可调透镜(228-1和228-2)放大。在一些实施例中,至少部分地基于单一深度(236),图像处理系统确定放大系数。例如,放大因数可以被确定为单一深度(236)与图像显示深度(242)之比。图像处理系统可以基于结合虚拟物体平面(216)的单一深度(236)确定的放大系数来执行纵横比调整操作。例如,图像处理系统可以从输入视频信号接收或解码输入的左侧图像和输入的右侧图像,所述输入的左侧图像和输入的右侧图像用于导出左侧图像(252-1)和右侧图像(252-2)。图像处理系统可以将放大系数的倒数应用于输入的左侧图像和输入的右侧图像以生成左侧图像(252-1)和右侧图像(252-2),使得在存在自动可调透镜(228-1和228-2)的情况下所感知的左侧图像(252-1)和右侧图像(252-2)中描绘的物体/人(所述物体/人可以位于或可以不位于虚拟物体平面(216)处)与在不存在自动可调透镜(228-1和228-2)的情况下所感知的输入的左侧图像和输入的左侧图像中描绘的相同物体/人在纵横比、大小等方面相匹配。
在不存在自动可调透镜(228-1和228-2)的情况下在图像显示器处感知的左侧图像(252-1)和右侧图像(252-2)中的深度信息可以被改变为在存在自动可调透镜(228-1和228-2)的情况下在虚拟物体平面(216)处感知的投射图像中的新的深度信息。
在一些实施例中,深度信息可以根据与输入的左侧和右侧图像相关的(多个)视差图像、采集/生成/产生输入的左侧和右侧图像的(虚拟的或现实的)照相机系统的照相机几何信息等的组合而导出。在一些实施例中,可以从与输入的左侧和右侧图像一起接收到的(多个)深度图中直接读取深度信息。可以在输入的视频信号中与左侧图像和右侧图像一起接收(多个)视差图像、(多个)深度图、相机几何信息等中的一些或全部。
此外、可选地或替代地,在一些实施例中,图像处理系统在生成左侧图像(252-1)和右侧图像(252-2)时对输入的左侧图像和输入的右侧图像应用深度校正操作,使得在存在自动可调透镜(228-1和228-2)的情况下所感知的左侧图像(252-1)和右侧图像(252-2)中描绘的物体/人(所述物体/人可以位于或可以不位于虚拟物体平面(216)处)的新深度信息与在不存在自动可调透镜(228-1和228-2)的情况下所感知的输入的左侧图像和输入的右侧图像中描绘的相同物体/人的输入深度信息相匹配。
此外、可选地或替代地,在一些实施例中,空间分辨率可变的(例如,低强度等的)模糊过滤器可以应用于图像处理操作,所述图像处理操作生成左侧图像(252-1)和右侧图像(252-2)以从位于观看者的中央凹视野之外的左侧图像(252-1)和右侧图像(252-2)中不同程度地抽去(decimate)高空间频率内容。模糊过滤器可以用于模拟由观看者的视网膜执行的模糊功能。随着在虚拟物体平面(例如,216-1等)处展现的图像细节相对于观看者的中央凹视野的距离增加,模糊过滤的强度可以增大。
在一些实施例中,模糊过滤器对包含(encompass)观看者的中央凹视野(例如,106-1、106-2等)的图像细节不执行模糊或执行很少的模糊,而对离观看者的中央凹视野越远的、例如在观看者的中央凹视野(例如,106-1、106-2等)之外的视网膜区域(例如,110-1、110-2等)中的图像细节执行越强的模糊。
例如,如图2E中所展示的,第一模糊过滤器可以用于对左侧图像(252-1)中的被投射到虚拟物体平面(例如,216-1等)的左中央凹视野区段256上的图像细节不执行模糊或执行很少的模糊。虚拟物体平面的左中央凹视野区段(256)涉及观看者的左中央凹视野(106-1)。第一模糊过滤器可以用于对左侧图像(252-1)中的被投射到虚拟物体平面(例如,216-1等)的一个或多个左侧非中央凹视野区段258上的图像细节执行更强的模糊。虚拟物体平面的左侧非中央凹视野区段(258)不在观看者的左中央凹视野(106-1)中。
类似地,第二模糊过滤器可以用于对右侧图像(252-2)中的被投射到虚拟物体平面(例如,216-1等)的右中央凹视野区段(未示出)上的图像细节不执行模糊或执行很少的模糊。虚拟物体平面的右中央凹视野区段涉及观看者的右中央凹视野(106-2)。第二模糊过滤器可以用于对右侧图像(252-2)中的被投射到虚拟物体平面(例如,216-1等)的一个或多个右侧非中央凹视野区段(未示出)上的图像细节执行更强的模糊。虚拟物体平面的右侧非中央凹视野区段不在观看者的右中央凹视野(106-2)中。
5.追踪聚散角
图2C展示了在观看立体图像的时间序列时观看者的聚散角的示例性追踪。所述立体图像的时间序列可以描绘一个或多个场景、场景的细分、图片组(GOP)等。每个立体图像可以由两个3D图像的组合或者两个或更多个多视图图像的组合来表示。如本文所使用的,聚散角指的是观看者的单只眼睛(例如,左眼、右眼等)的视角。要通过本文所述的技术追踪的示例性聚散角可以包括但不必仅限于以下中的任何:左聚散角(或左眼的聚散角)、右聚散角(或右眼的聚散角)、相对于参考方向(诸如观看者的瞳孔间连线(120)、观看者的正面观看方向(118)中的一个)的聚散角等;相对于观看者的水平观看平面或观看者脸部的(竖直)中线的仰角;等等。
仅出于说明的目的,在第一时间点,本文所述的图像处理系统确定或测得观看者的眼睛正在看着第一立体图像处的位于虚拟物体平面(216)处的虚拟物体(214),所述第一立体图像包括由图像处理系统的一个或多个自动可调透镜从呈现表示立体图像的时间序列的图像的图像显示器投射到虚拟物体平面(216)上的第一左侧图像和第二右侧图像的组合。
从第一时间点到第二时间点,观看者的眼睛会聚或发散到在立体图像的时间序列中所描绘的、位于第二虚拟物体平面216-1处的第二虚拟物体214-1。
第二时间点可以是以下之一的时间点:紧跟在第一时间点之后、在第一时间点之后一个或多个帧时间间隔(每个帧时间间隔对应于显示一个图像帧)、在第一时间点之后帧时间间隔的一部分等。
如图2C中所展示的,在第二时间点,观看者的左眼会聚(向内移动)到第二虚拟物体(214-1),而观看者的右眼发散(向外移动)到第二虚拟物体(214-1)。应当注意的是,在各种情景中,观看者的双眼也可以都会聚,或者都发散。
在一些实施例中,图像处理系统可以在第二时间点测量/追踪观看者的聚散角。基于在第二时间点时观看者的聚散角,图像处理系统可以确定观看者正在看着位于第二虚拟物体平面(216-1)处的第二虚拟物体(214-1)。
响应于确定观看者正在看着位于第二虚拟物体平面(216-1)处的第二虚拟物体(214-1),图像处理系统可以将由第二左侧图像和第二右侧图像的组合所表示的第二立体图像投射到第二虚拟物体平面(216-1)。第二立体图像可以是以下之一的立体图像(在立体图像的时间序列中):紧跟在第一立体图像之后、在第一立体图像之后一个或多个帧时间间隔(每个帧时间间隔对应于显示一个图像帧)、在第一立体图像之后(例如,严格地)固定的持续时间内,等等。
图2D展示了通过一个或多个自动可调透镜228-1、228-2等对包括左侧图像(252-1)和右侧图像(252-2)的立体图像的示例性观看,所述自动可调透镜设置在(a)呈现左侧图像(252-1)和右侧图像(252-2)的一个或多个图像显示器与(b)观看者的眼睛(100-1和100-2)之间。如图所示,可以由单个显示屏幕254提供呈现左侧图像(252-1)和右侧图像(252-2)的图像显示器。在示例中,单个显示屏幕(254)可以是移动电话、个人数字助理(PDA)、电子书阅读器、电视机等的显示屏幕。
在一些实施例中,本文所述的立体图像(例如,输入的立体图像、从输入的立体图像导出的修改后的立体图像等)的左侧图像(例如,252-1)和右侧图像(例如,252-2)可以在一个或多个图像显示器中同时地或按帧顺序被呈现,所述图像显示器可以彼此重叠或可以不重叠。此外、可选地或替代地,本文所述的用于呈现立体图像的多个图像显示器可以由单个显示屏幕或由多个显示屏幕提供。
在一些实施例中,两个图像显示器用于呈现立体图像的左侧图像和右侧图像,并且分别由两个不同的显示屏幕(例如,近眼显示设备中的两个显示屏幕等)提供。在这些实施例中,左侧图像和右侧图像可以同时显示给观看者。此外、可选地或替代地,左侧图像和右侧图像可以按帧顺序显示给观看者,其中,首先显示左侧图像和右侧图像中的一个,然后显示左侧图像和右侧图像中的另一个。
在一些实施例中,两个图像显示器用于呈现立体图像的左侧图像和右侧图像,并且这两个图像显示器分别由单个显示屏幕上的两个空间区段(例如,iPhone屏幕上的两个空间区段等)提供。在一些实施例中,这两个空间区段可以不重叠。在一些实施例中,这两个空间区段可以至少部分重叠。在所有这些实施例中,左侧图像和右侧图像可以同时显示给观看者。此外、可选地或替代地,左侧图像和右侧图像可以按帧顺序显示给观看者,其中,首先显示左侧图像和右侧图像中的一个,然后显示左侧图像和右侧图像中的另一个。
在一些实施例中,一个图像显示器用于呈现立体图像的左侧图像和右侧图像,并且该图像显示器由单个显示屏幕(例如,电视机等)提供。左侧图像和右侧图像可以同时显示给观看者。可以通过使用不同的光波长、不同的透镜视图、不同的光偏振等来区分同时显示的图像。此外、可选地或替代地,左侧图像和右侧图像可以按帧顺序显示给观看者,其中,首先显示左侧图像和右侧图像中的一个,然后显示左侧图像和右侧图像中的另一个。
在各种实施例中,本文所述的立体图像(或多视图图像)的不同视图(例如,左侧图像和右侧图像等)可以在图像处理系统中通过以下中的一个或多个来彼此区分:不同的显示屏幕、单个显示屏幕的不同空间区段、不同时间点的不同帧、分配给不同视图的不同(例如,不重叠)的光波长、分配给不同视图的不同透镜视图、到不同视图的不同光偏振等。
6.示例性视频流服务器和客户端
图3A展示了示例性视频流服务器300,所述服务器包括图像处理器302、基于深度的图像生成器312等。在一些实施例中,图像处理器(302)包括图像接收器306、数据储存库310等。视频流服务器(300)的一些或所有部件可以由一个或多个设备、模块、单元等以软件、硬件、软件和硬件的组合等方式实施。
在一些实施例中,图像接收器(306)包括被配置用于进行以下操作的软件、硬件、软件和硬件的组合等:从图像源接收输入图像流304,所述图像源诸如是与VR应用、AR应用、远程呈现应用、3D显示应用、多视图显示应用等结合的照相机系统、基于云的图像源,等等;将输入图像流(304)解码成一个或多个输入立体图像(例如,输入立体图像序列、输入多视图图像序列等);等等。在一些实施例中,输入图像流(304)可以携带图像元数据(例如,照相机几何信息等),所述图像元数据可以由图像接收器(306)从输入图像流(304)解码。
在一些实施例中,数据储存库(310)表示一个或多个数据库、一个或多个数据存储单元/模块/设备等,所述数据储存库被配置用于支持对输入立体图像、图像元数据等中的一些或全部进行的操作,诸如存储、更新、检索、删除等。在一些实施例中,通过基于深度的图像生成器(308)而不是输入图像流(304)从数据储存库(310)中检索出输入立体图像。
在一些实施例中,基于深度的图像生成器(308)包括被配置用于进行以下操作的软件、硬件、软件和硬件的组合等:经由双向数据流314接收随时间推移的用户(或观看者)的聚散角等;生成包括基于深度的立体图像和深度控制元数据的输出视频流;直接或通过中间设备等间接地经由双向数据流314来将输出视频流提供/传输到立体视频流客户端、显示设备、存储设备等。在各种实施例中,基于深度的立体图像可以指输入的立体图像(例如,由视频流服务器(300)等接收的)或者从输入的立体图像导出的修改后的立体图像。
深度控制元数据可以表示单一深度随时间推移的函数。可以至少部分地基于用户的聚散角以及与图像显示器相关的其他几何信息(例如,图像显示器与用户眼睛之间的距离、图像显示器与自动可调透镜之间的距离等)等来确定、计算在深度控制元数据中指示的在任何给定时间点的单一深度,并且所述单一深度可以用于控制用户正用来观看立体图像的图像呈现设备中的一个或多个自动可调透镜的一个或多个焦距,以投射针对其确定/计算所述单一深度的相应立体图像。
此外、可选地或替代地,图像处理操作中的一些或全部,诸如纵横比调整操作、深度校正操作、模糊过滤、场景切换检测、坐标系之间的变换、时间阻尼(temporaldampening)、显示管理、内容映射、颜色映射、视场管理等,可以由立体视频流服务器(300)执行,以便生成编码成输出视频流的基于深度的立体图像和深度控制元数据。
视频流服务器(300)可以用于支持实时视觉应用、近实时视觉应用、非实时视觉应用、虚拟现实、增强现实、头盔式显示应用、抬头显示应用、游戏、2D显示应用、3D显示应用、多视图显示应用等。
图3B展示了示例性图像呈现系统324-1,所述示例性图像呈现系统包括基于深度的图像接收器316、聚散角追踪器326、自动可调透镜控制器318、一个或多个图像显示器320等。图像呈现系统(324-1)中的一些或全部部件可以由一个或多个设备、模块、单元等以软件、硬件、软件和硬件的组合等方式实施。
用户(或观看者)可以在运行时分别在不同时间点将用户的聚散角移至不同深度的图像细节(或立体图像中所描绘的视觉物体/人)。在一些实施例中,聚散角追踪器(326)包括被配置用于追踪随时间推移的用户的聚散角等的软件、硬件、软件和硬件的组合等。可以以相对精细的时间尺度(例如,每毫秒、每五毫秒等)对随时间推移的用户的聚散角进行采样或测量。
在一些实施例中,基于深度的图像接收器(316)包括被配置用于进行以下操作的软件、硬件、软件和硬件的组合等:经由双向数据流314发送用户的聚散角、其他几何信息(例如,图像显示器与用户眼睛之间的距离、图像显示器与自动可调透镜之间的距离等)等;接收包括基于深度的立体图像和与基于深度的立体图像对应的深度控制元数据的视频流(例如,由上游设备等输出);等等。
图像呈现系统(324-1)被配置用于将接收的视频流解码为基于深度的立体图像和深度控制元数据;在图像显示器(320)上呈现从接收的视频流解码所得的、基于深度的立体图像(例如,所述立体图像中的每一个包括左侧图像和右侧图像)。
在一些实施例中,自动可调透镜控制器(318)包括被配置用于进行以下操作的软件、硬件、软件和硬件的组合等:使用深度控制元数据来控制一个或多个自动可调透镜,以分别在不同时间点将图像显示器(320)上呈现的立体图像投射为不同深度处的虚拟图像(例如,经受一毫秒、10毫秒、一个帧时间的一部分等的实时处理延迟)。
此外、可选地或替代地,图像呈现操作中的一些或全部,诸如注视/眼睛追踪、纵横比调整操作、深度校正操作、模糊过滤、场景切换检测、时变图像参数的时间阻尼、对图像参数的任何其他时间操纵、显示管理、内容映射、色调映射、颜色映射、视场管理、预测、通过鼠标、轨迹球、键盘、脚追踪器、实际身体运动等进行的导航等,可以通过图像呈现系统(324-1)来执行。
图像呈现系统(324-1)可以用于支持实时、近实时或非实时视觉应用、近实时视觉应用、非实时视觉应用、虚拟现实、增强现实、头盔式显示应用、抬头显示应用、游戏、2D显示应用、3D显示应用、多视图显示应用等。
本文所述的技术可以在各种系统架构中实施。本文所述的一些或全部图像处理操作可以通过基于云的视频流服务器、与视频流客户端并置或并入视频流客户端的视频流服务器、图像呈现系统、图像呈现系统、显示设备等中的一个或多个的任何组合来实施。基于一个或多个因素,诸如接收者设备的视觉应用类型、带宽/比特率预算、计算能力、资源、负载等、视频流服务器和/或计算机网络等的计算能力、资源、负载等,一些图像处理操作可以由视频流服务器执行,而一些其他图像处理操作可以由视频流客户端、图像呈现系统、显示设备等执行。
图3C展示了示例性配置,其中基于深度的图像生成器(例如,312等)被并入到边缘视频流服务器324-2中。在一些实施例中,图3C的图像处理器302可以是基于云的。在一些实施例中,图像处理器(302)可以位于与诸如边缘视频流服务器(324-2)等边缘设备分开的核心网络中。与图3A中一样,图像处理器(302)可以包括图像接收器306、数据储存库310等。图像处理器(302)可以表示上游视频流服务器,所述上游视频流服务器通过相对较高的比特率与边缘视频流服务器(324-2)通信。图像处理器(302)和/或边缘视频流服务器(324-2)的一些或全部部件可以由一个或多个设备、模块、单元等以软件、硬件、软件和硬件的组合等方式实施。
在一些实施例中,图像处理器(302)被配置用于将数据流322中的输入立体图像发送到下游设备,其中一个下游设备可以是边缘视频流服务器(324-2)。
在一些实施例中,边缘视频流服务器(324-2)或其中的基于深度的图像生成器(312)包括被配置用于进行以下操作的软件、硬件、软件和硬件的组合等:确定随时间推移的用户的聚散角、其他几何信息等;生成包括基于深度的立体图像和深度控制元数据的输出视频流;直接或通过中间设备等间接地经由双向数据流314来将输出视频流提供/传输到视频流客户端、显示设备、存储设备等。
7.示例性过程流程
图4展示了根据本发明示例性实施例的示例性过程流程。在一些示例性实施例中,一个或多个计算设备或部件可以执行这个过程流程。在框402中,当观看者正在观看包括第一左侧图像和第一右侧图像的第一立体图像时,图像处理系统(例如,图3A至图3C的视频流服务器或视频流客户端等的任何组合)确定观看者的左眼的左聚散角和观看者的右眼的右聚散角。
在框404中,图像处理系统至少部分地基于(i)观看者的左眼的左聚散角和(ii)观看者的右眼的右聚散角来确定虚拟物体深度;
在框406中,图像处理系统在一个或多个图像显示器上为观看者呈现包括第二左侧图像和第二右侧图像的第二立体图像。第二立体图像跟随在第一立体图像之后。
在框408中,图像处理系统将第二立体图像从一个或多个图像显示器投射到虚拟物体深度处的虚拟物体平面。
在实施例中,第二左侧图像和第二右侧图像是通过应用一个或多个纵横比调整操作从输入的左侧图像和输入的右侧图像生成的,所述一个或多个纵横比调整操作将输入的左侧图像和输入的右侧图像中所描绘的视觉物体的纵横比调整为投射到所述虚拟物体深度处的虚拟物体平面的第二左侧图像和第二右侧图像中所描绘的视觉物体的修改后的纵横比。
在实施例中,第二左侧图像和第二右侧图像是通过应用一个或多个深度校正操作从输入的左侧图像和输入的右侧图像生成的,所述一个或多个深度校正操作将输入的左侧图像和输入的右侧图像中所描绘的视觉物体的深度转换为投射到所述虚拟物体深度处的虚拟物体平面的第二左侧图像和第二右侧图像中所描绘的视觉物体的修改后的深度。
在实施例中,第二左侧图像和第二右侧图像是通过应用一个或多个模糊过滤操作从输入的左侧图像和输入的右侧图像生成的,所述一个或多个模糊过滤操作相对于输入的左侧图像和输入的右侧图像使第二左侧图像和第二右侧图像的一个或多个空间区域模糊;第二左侧图像和第二右侧图像的一个或多个空间区域离开观看者的中央凹视野。
在实施例中,第二立体图像的第二左侧图像和第二右侧图像同时被呈现以供观看者观看。
在实施例中,第二立体图像的第二左侧图像和第二右侧图像按帧顺序被呈现以供观看者观看。
在实施例中,在被呈现以供观看者观看的立体图像序列中,第二立体图像在时间上紧跟在第一立体图像之后。
在实施例中,使用一个或多个自动可调透镜将第二立体图像投射到虚拟物体深度处的虚拟物体平面;至少部分地基于虚拟物体深度来确定一个或多个自动可调透镜的一个或多个焦距。
在实施例中,第二立体图像是从输入立体图像序列中的第二输入立体图像生成的;除了第二立体图像之外,不从第二输入立体图像生成其他立体图像;除了所述虚拟物体深度之外,第二立体图像不投射到其他的虚拟物体深度处。
在实施例中,第二立体图像的第二左侧图像和第二右侧图像分别呈现在第一图像显示器和第二图像显示器上。
在实施例中,第二立体图像的第二左侧图像和第二右侧图像呈现在单个图像显示器上。
在实施例中,第二立体图像的第二左侧图像和第二右侧图像中的至少一个基于包括单个透镜元件的自动可调透镜被投射到虚拟物体平面。
在实施例中,第二立体图像的第二左侧图像和第二右侧图像中的至少一个基于包括多个透镜元件的自动可调透镜被投射到虚拟物体平面上。
在实施例中,第二立体图像的第二左侧图像仅能由观看者的左眼观看,而第二立体图像的第二右侧图像仅能由观看者的右眼观看。
在实施例中,图像处理系统还被配置用于执行:当所述观看者正在观看包括所述第二左侧图像和所述第二右侧图像的所述第二立体图像时,确定所述观看者的左眼的第二左聚散角和所述观看者的右眼的第二右聚散角;至少部分地基于(i)所述观看者的左眼的第二左聚散角和(ii)所述观看者的右眼的第二右聚散角来确定第二虚拟物体深度;在一个或多个图像显示器上为所述观看者呈现包括第三左侧图像和第三右侧图像的第三立体图像,第三立体图像跟随在第二立体图像之后;将第三立体图像从一个或多个图像显示器投射到第二虚拟物体深度处的第二虚拟物体平面;等等。
在实施例中,至少部分地基于观看者的特定视觉特征来调整虚拟物体深度。
在各种示例性实施例中,装置、系统、装置、或者一个或多个其他计算设备执行所描述的前述方法中的任何方法或其一部分。在实施例中,一种非暂态计算机可读存储介质存储有软件指令,所述软件指令在由一个或多个处理器执行时使本文所述的方法得以执行。
注意,尽管本文讨论了各单独的实施例,但是本文讨论的实施例和/或部分实施例的任何组合都可以组合以形成进一步实施例。
8.实施机构—硬件概述
根据一个实施例,本文所述的技术由一个或多个专用计算设备实施。专用计算设备可以是硬接线的,以执行所述技术;或者可以包括被持久地编程以执行所述技术的数字电子设备,诸如一个或多个专用集成电路(ASIC)或现场可编程门阵列(FPGA);或者可以包括被编程为根据固件、存储器、其他存储装置或组合中的程序指令来执行所述技术的一个或多个通用硬件处理器。这种专用计算设备还可以将自定义硬接线逻辑、ASIC或FPGA与自定义编程相结合以实现所述技术。专用计算设备可以是台式计算机系统、便携式计算机系统、手持式设备、联网设备、或合并硬接线和/或程序逻辑以实施所述技术的任何其他设备。
例如,图5是框图,展示了可以在其上实施本发明的示例性实施例的计算机系统500。计算机系统500包括总线502或用于传送信息的其他通信机构、以及与总线502耦合以处理信息的硬件处理器504。硬件处理器504可以是例如通用微处理器。
计算机系统500还包括耦合到总线502以用于存储信息和要由处理器504执行的指令的主存储器506,诸如随机存取存储器(RAM)或其他动态存储设备。主存储器506还可以用于在执行要由处理器504执行的指令期间存储临时变量或其他中间信息。这些指令当存储在处理器504可访问的非暂态存储介质中时,使计算机系统500成为被定制为执行指令中指定的操作的专用机器。
计算机系统500还包括只读存储器(ROM)508或耦合到总线502的用于存储处理器504的静态信息和指令的其他静态存储设备。
提供存储设备510(诸如磁盘或光盘、固态RAM),并将其耦合到总线502以用于存储信息和指令。
计算机系统500可以经由总线502耦合到显示器512(诸如液晶显示器)以用于向计算机用户显示信息。包括字母数字键和其他键的输入设备514耦合到总线502,以用于将信息和命令选择传送到处理器504。另一种类型的用户输入设备是光标控制装置516,诸如鼠标、轨迹球或光标方向键,用于将方向信息和命令选择传送到处理器504并用于控制在显示器512上的光标移动。典型地,这个输入设备具有在两条轴线(第一轴线(例如,x轴)和第二轴线(例如,y轴))上的两个自由度,允许设备在平面中指定位置。
计算机系统500可以使用定制的硬接线逻辑、一个或多个ASIC或FPGA、固件和/或程序逻辑来实施本文所述的技术,所述固件和/或程序逻辑与计算机系统相结合使计算机系统500成为专用机器或将计算机系统500编程为专用机器。根据一个实施例,响应于处理器504执行包含在主存储器506中的一个或多个指令的一个或多个序列,计算机系统500执行本文中的技术。这样的指令可以从诸如存储设备510等另一存储介质读取到主存储器506中。包含在主存储器506中的指令序列的执行使处理器504执行本文所述的过程步骤。在替代性实施例中,可以使用硬接线电路系统代替软件指令或与软件指令组合。
本文中使用的术语“存储介质”是指存储使机器以特定方式操作的数据和/或指令的任何非暂态介质。这样的存储介质可以包括非易失性介质和/或易失性介质。非易失性介质包括例如光盘或磁盘,诸如存储设备510。易失性介质包括动态存储器,诸如主存储器506。常见形式的存储介质包括例如软盘、柔性盘、硬盘、固态驱动器、磁带或任何其他磁性数据存储介质、CD-ROM、任何其他光学数据存储介质、具有孔图案的任何物理介质、RAM、PROM和EPROM,闪速EPROM、NVRAM、任何其他存储器芯片或存储盒。
存储介质不同于传输介质但可以与传输介质结合使用。传输介质参与存储介质之间的信息传递。例如,传输介质包括同轴电缆、铜线和光纤,包括包含总线502的导线。传输介质还可以采用声波或光波的形式,诸如在无线电波和红外数据通信期间生成的声波或光波。
将一个或多个指令的一个或多个序列运载到处理器504以供执行可涉及各种形式的介质。例如,指令最初可以承载在远程计算机的磁盘或固态驱动器上。远程计算机可以将指令加载到其动态存储器中,并使用调制解调器通过电话线发送指令。计算机系统500本地的调制解调器可以在电话线上接收数据并使用红外发射器将数据转换成红外信号。红外检测器可以接收红外信号中承载的数据,并且适当的电路系统可以将数据置于总线502上。总线502将数据运载到主存储器506,处理器504从所述主存储器检索并执行指令。主存储器506接收的指令可以可选地在由处理器504执行之前或之后存储在存储设备510上。
计算机系统500还包括耦合到总线502的通信接口518。通信接口518提供耦合到网络链路520的双向数据通信,所述网络链路连接到本地网络522。例如,通信接口518可以是综合业务数字网(ISDN)卡、电缆调制解调器、卫星调制解调器、或用于提供与相应类型电话线的数据通信连接的调制解调器。作为另一个示例,通信接口518可以是局域网(LAN)卡,用于提供与相容LAN的数据通信连接。还可以实施无线链路。在任何这样的实施方式中,通信接口518发送和接收承载表示各种类型信息的数字数据流的电信号、电磁信号或光信号。
网络链路520通常通过一个或多个网络向其他数据设备提供数据通信。例如,网络链路520可以提供通过本地网络522到主计算机524或到由因特网服务提供商(ISP)526操作的数据设备的连接。ISP 526进而通过现在通常称为“因特网”528的全球分组数据通信网络来提供数据通信服务。本地网络522和因特网528都使用承载数字数据流的电信号、电磁信号或光信号。通过各种网络的信号以及网络链路520上和通过通信接口518的信号(其将数字数据运载到计算机系统500和从所述计算机系统运载数字数据)是传输介质的示例性形式。
计算机系统500可以通过(多个)网络、网络链路520和通信接口518发送消息和接收数据,包括程序代码。在因特网示例中,服务器530可能通过因特网528、ISP 526、本地网络522和通信接口518传输应用程序的请求代码。
所接收的代码可以在被接收到时由处理器504执行,和/或存储在存储设备510、或其他非易失性存储器中以供之后执行。
9.等同方案、扩展、替代方案及其他
在前述说明书中,已经参考许多具体细节描述了本发明的示例性实施例,这些具体细节可以根据不同实施方式而变化。因此,本发明是什么、以及申请人意图本发明是什么,其唯一且排他的指示是根据本申请的、以授权时的具体形式为准(包括任何后续修改)的一套授权权利要求。针对这样的权利要求中包含的术语的、在本文中明确阐述的任何定义应当支配权利要求中使用的这些术语的含义。因此,权利要求中未明确记载的限制、要素、特性、特征、优点或属性不应以任何方式限制这些权利要求的范围。相应地,说明书和附图应被视为说明性的而非具有限制性意义。
可以从以下枚举的示例性实施例(EEE)中理解本发明的各个方面:
EEE 1:一种方法,所述方法包括:
当观看者在观看包括第一左侧图像和第一右侧图像的第一立体图像时,确定观看者的左眼的左聚散角和所述观看者的右眼的右聚散角;
至少部分地基于(i)所述观看者的左眼的左聚散角和(ii)所述观看者的右眼的右聚散角来确定虚拟物体深度;
在一个或多个图像显示器上为所述观看者呈现包括第二左侧图像和第二右侧图像的第二立体图像,其中,所述第二立体图像跟随在所述第一立体图像之后;
将所述第二立体图像从所述一个或多个图像显示器投射到所述虚拟物体深度处的虚拟物体平面。
EEE 2:根据EEE 1所述的方法,其中,所述第二左侧图像和所述第二右侧图像是通过应用一个或多个纵横比调整操作从输入的左侧图像和输入的右侧图像生成的,所述一个或多个纵横比调整操作将所述输入的左侧图像和所述输入的右侧图像中所描绘的视觉物体的纵横比调整为投射到所述虚拟物体深度处的所述虚拟物体平面的所述第二左侧图像和所述第二右侧图像中所描绘的视觉物体的修改后的纵横比。
EEE 3:根据EEE 1所述的方法,其中,所述第二左侧图像和所述第二右侧图像是通过应用一个或多个深度校正操作从输入的左侧图像和输入的右侧图像生成的,所述一个或多个深度校正操作将所述输入的左侧图像和所述输入的右侧图像中所描绘的视觉物体的深度转换为投射到所述虚拟物体深度处的所述虚拟物体平面的所述第二左侧图像和所述第二右侧图像中所描绘的视觉物体的修改后的深度。
EEE 4:根据EEE 1所述的方法,其中,所述第二左侧图像和所述第二右侧图像是通过应用一个或多个模糊过滤操作从输入的左侧图像和输入的右侧图像生成的,所述一个或多个模糊过滤操作相对于所述输入的左侧图像和所述输入的右侧图像使所述第二左侧图像和所述第二右侧图像的一个或多个空间区域模糊,并且其中,所述第二左侧图像和所述第二右侧图像的所述一个或多个空间区域离开所述观看者的中央凹视野。
EEE 5:根据EEE 1所述的方法,其中,所述第二立体图像的所述第二左侧图像和所述第二右侧图像同时被呈现以供所述观看者观看。
EEE 6:根据EEE 1所述的方法,其中,所述第二立体图像的所述第二左侧图像和所述第二右侧图像按帧顺序被呈现以供所述观看者观看。
EEE 7:根据EEE 1所述的方法,其中,在被呈现以供所述观看者观看的立体图像序列中,所述第二立体图像在时间上紧跟在所述第一立体图像之后。
EEE 8:根据EEE 1所述的方法,其中,使用一个或多个自动可调透镜将所述第二立体图像投射到所述虚拟物体深度处的所述虚拟物体平面,并且其中,所述一个或多个自动可调透镜的一个或多个焦距是至少部分地基于所述虚拟物体深度确定的。
EEE 9:根据EEE 1所述的方法,其中,所述第二立体图像是从输入立体图像序列中的第二输入立体图像生成的,其中,除了所述第二立体图像之外,不从所述第二输入立体图像生成其他立体图像,并且其中,除了所述虚拟物体深度之外,所述第二立体图像不投射到其他虚拟物体深度处。
EEE 10:根据EEE 1所述的方法,其中,所述第二立体图像的所述第二左侧图像和所述第二右侧图像被分别呈现在第一图像显示器和第二图像显示器上。
EEE 11:根据EEE 1所述的方法,其中,所述第二立体图像的所述第二左侧图像和所述第二右侧图像被呈现在单个图像显示器上。
EEE 12:根据EEE 1所述的方法,其中,所述第二立体图像的所述第二左侧图像和所述第二右侧图像中的至少一个基于包括单个透镜元件的自动可调透镜被投射到所述虚拟物体平面。
EEE 13:根据EEE 1所述的方法,其中,所述第二立体图像的所述第二左侧图像和所述第二右侧图像中的至少一个基于包括多个透镜元件的自动可调透镜被投射到所述虚拟物体平面上。
EEE 14:根据EEE 1所述的方法,其中,所述第二立体图像的所述第二左侧图像仅能被所述观看者的左眼视觉地感知到,而所述第二立体图像的所述第二右侧图像仅能被所述观看者的右眼视觉地感知到。
EEE 15:根据EEE 1所述的方法,进一步包括:
当所述观看者在观看包括所述第二左侧图像和所述第二右侧图像的所述第二立体图像时,确定所述观看者的左眼的第二左聚散角和所述观看者的右眼的第二右聚散角;
至少部分地基于(i)所述观看者的左眼的第二左聚散角和(ii)所述观看者的右眼的第二右聚散角来确定第二虚拟物体深度;
在所述一个或多个图像显示器上为所述观看者呈现包括第三左侧图像和第三右侧图像的第三立体图像,其中,所述第三立体图像跟随在所述第二立体图像之后;
将所述第三立体图像从所述一个或多个图像显示器投射到所述第二虚拟物体深度处的第二虚拟物体平面。
EEE 16:根据EEE 1所述的方法,其中,至少部分地基于所述观看者的特定视觉特征来调整所述虚拟物体深度。
EEE 17:一种装置,所述装置执行根据EEE 1至16所述的方法中的任何方法。
EEE 18:一种系统,所述系统执行根据EEE 1至16所述的方法中的任何方法。
EEE 19:一种非暂态计算机可读存储介质,所述非暂态计算机可读存储介质存储有软件指令,所述软件指令在由一个或多个处理器执行时使根据EEE 1至16中任一项所述的方法得以执行。
EEE 20:一种计算设备,所述计算设备包括一个或多个处理器以及一个或多个存储介质,所述存储介质存储指令集,所述指令集在由一个或多个处理器执行时使根据EEE 1至16中任一项所述的方法得以执行。

Claims (25)

1.一种呈现图像的方法,所述方法包括:
当观看者在观看包括第一左侧图像和第一右侧图像的第一立体图像时,确定观看者的左眼的左聚散角和所述观看者的右眼的右聚散角;
至少部分地基于(i)所述观看者的左眼的左聚散角和(ii)所述观看者的右眼的右聚散角来确定虚拟物体深度;
在一个或多个图像显示器上为所述观看者呈现包括第二左侧图像和第二右侧图像的第二立体图像,其中,所述第二立体图像跟随在所述第一立体图像之后;
将所述第二立体图像从所述一个或多个图像显示器投射到所述虚拟物体深度处的虚拟物体平面,其中,所述第二左侧图像和所述第二右侧图像是通过应用一个或多个模糊过滤操作从输入的左侧图像和输入的右侧图像生成的,其中,所述一个或多个模糊过滤操作相对于所述输入的左侧图像和所述输入的右侧图像使所述第二左侧图像和所述第二右侧图像的一个或多个空间区域模糊,并且其中,所述第二左侧图像和所述第二右侧图像的所述一个或多个空间区域是离开所述观看者的中央凹视野的,
其中,所述第二立体图像不被投射到除了所述虚拟物体深度之外的其他虚拟物体深度处。
2.根据权利要求1所述的方法,其中,所述模糊过滤操作是由具有可变空间分辨率的模糊过滤器实施的。
3.根据权利要求1所述的方法,其中,所述模糊过滤操作涉及模糊强度,随着在所述虚拟物体平面处表示的所述第二左侧图像和所述第二右侧图像中的图像细节相对于所述观看者的中央凹视野的距离增加,所述模糊强度增大。
4.根据权利要求3所述的方法,其中,所述模糊过滤操作包括:
对包含所述观看者的中央凹视野的图像细节进行最小模糊或不对其进行模糊,并且
对离所述观看者的中央凹视野越远的图像细节进行越强的模糊。
5.根据权利要求2所述的方法,其中,所述模糊过滤器包括第一模糊过滤器和第二模糊过滤器,所述第一模糊过滤器被配置用于对所述第二左侧图像中的、投射到所述虚拟物体平面的左中央凹视野区段上的图像细节不进行模糊或者对其进行最小模糊,并且所述第二模糊过滤器被配置用于对所述第二右侧图像中的、投射到所述虚拟物体平面的右中央凹视野区段上的图像细节不进行模糊或者对其进行最小模糊。
6.根据权利要求5所述的方法,其中,所述第一模糊过滤器和所述第二模糊过滤器被配置用于对所述第二左侧图像中的投射到所述虚拟物体平面的一个或多个左侧非中央凹视野区段上的图像细节进行更强的模糊,以及对所述第二右侧图像中的投射到所述虚拟物体平面的一个或多个右侧非中央凹视野区段上的图像细节进行更强的模糊。
7.根据权利要求1所述的方法,其中,所述第二左侧图像和所述第二右侧图像是通过应用一个或多个纵横比调整操作从输入的左侧图像和输入的右侧图像生成的,所述一个或多个纵横比调整操作将所述输入的左侧图像和所述输入的右侧图像中所描绘的视觉物体的纵横比调整为投射到所述虚拟物体深度处的所述虚拟物体平面的所述第二左侧图像和所述第二右侧图像中所描绘的视觉物体的修改后的纵横比。
8.根据权利要求1所述的方法,其中,所述第二左侧图像和所述第二右侧图像是通过应用一个或多个深度校正操作从输入的左侧图像和输入的右侧图像生成的,所述一个或多个深度校正操作将所述输入的左侧图像和所述输入的右侧图像中所描绘的视觉物体的深度转换为投射到所述虚拟物体深度处的所述虚拟物体平面的所述第二左侧图像和所述第二右侧图像中所描绘的视觉物体的修改后的深度。
9.根据权利要求1所述的方法,其中,所述第二立体图像的所述第二左侧图像和所述第二右侧图像同时被呈现以供所述观看者观看。
10.根据权利要求1所述的方法,其中,所述第二立体图像的所述第二左侧图像和所述第二右侧图像按帧顺序被呈现以供所述观看者观看。
11.根据权利要求1所述的方法,其中,在被呈现以供所述观看者观看的立体图像序列中,所述第二立体图像在时间上紧跟在所述第一立体图像之后。
12.根据权利要求1所述的方法,其中,使用一个或多个自动可调透镜将所述第二立体图像投射到所述虚拟物体深度处的所述虚拟物体平面,并且其中,所述一个或多个自动可调透镜的一个或多个焦距是至少部分地基于所述虚拟物体深度而被确定的。
13.根据权利要求1所述的方法,其中,所述第二立体图像是从输入立体图像序列中的第二输入立体图像生成的,其中,不从所述第二输入立体图像生成除了所述第二立体图像之外的其他立体图像。
14.根据权利要求1所述的方法,其中,所述第二立体图像的所述第二左侧图像和所述第二右侧图像被分别呈现在第一图像显示器和第二图像显示器上。
15.根据权利要求1所述的方法,其中,所述第二立体图像的所述第二左侧图像和所述第二右侧图像被呈现在单个图像显示器上。
16.根据权利要求1所述的方法,其中,所述第二立体图像的所述第二左侧图像和所述第二右侧图像中的至少一个基于包括单个透镜元件的自动可调透镜被投射到所述虚拟物体平面。
17.根据权利要求1所述的方法,其中,所述第二立体图像的所述第二左侧图像和所述第二右侧图像中的至少一个基于包括多个透镜元件的自动可调透镜被投射到所述虚拟物体平面。
18.根据权利要求1所述的方法,其中,所述第二立体图像的所述第二左侧图像仅能被所述观看者的左眼视觉地感知,而所述第二立体图像的所述第二右侧图像仅能被所述观看者的右眼视觉地感知。
19.根据权利要求1所述的方法,所述方法进一步包括:
当所述观看者在观看包括所述第二左侧图像和所述第二右侧图像的所述第二立体图像时,确定所述观看者的左眼的第二左聚散角和所述观看者的右眼的第二右聚散角;
至少部分地基于(i)所述观看者的左眼的第二左聚散角和(ii)所述观看者的右眼的第二右聚散角来确定第二虚拟物体深度;
在所述一个或多个图像显示器上为所述观看者呈现包括第三左侧图像和第三右侧图像的第三立体图像,其中,所述第三立体图像跟随在所述第二立体图像之后;
将所述第三立体图像从所述一个或多个图像显示器投射到所述第二虚拟物体深度处的第二虚拟物体平面。
20.根据权利要求1所述的方法,其中,至少部分地基于所述观看者的至少一个特征来调整所述虚拟物体深度,所述特征选自以下各项构成的组:近视、远视、正常立体视觉、异常立体视觉、佩戴眼镜、不佩戴眼镜、佩戴隐形眼镜、瞳孔间距、眼睛到自动可调透镜的距离。
21.一种呈现图像的装置,所述装置被配置用于执行根据权利要求1至20中任一项所述的方法。
22.一种非暂态计算机可读存储介质,所述非暂态计算机可读存储介质存储计算机程序,所述计算机程序包括软件指令,所述软件指令在由一个或多个处理器执行时使根据权利要求1至20中任一项所述的方法得以执行。
23.一种计算设备,所述计算设备包括一个或多个处理器以及一个或多个存储介质,所述存储介质存储计算机程序,所述计算机程序包括指令集,所述指令集在由一个或多个处理器执行时使根据权利要求1至20中任一项所述的方法得以执行。
24.一种显示系统,包括:
一个或多个图像显示器,被配置为:
为观看者呈现包括第一左侧图像和第一右侧图像的第一立体图像;以及
为所述观看者呈现包括第二左侧图像和第二右侧图像的第二立体图像,其中,所述第二立体图像跟随在所述第一立体图像之后,
一个或多个自动可调透镜,被配置为将所述第二立体图像从所述一个或多个图像显示器投射到虚拟物体深度处的虚拟物体平面,
其中,所述虚拟物体深度是至少部分地基于(i)所述观看者的左眼的左聚散角和(ii)所述观看者的右眼的右聚散角来确定的,所述左聚散角和所述右聚散角是当观看者在观看所述第一立体图像时确定的,
其中,所述第二左侧图像和所述第二右侧图像是通过应用一个或多个模糊过滤操作从输入的左侧图像和输入的右侧图像生成的,其中,所述一个或多个模糊过滤操作相对于所述输入的左侧图像和所述输入的右侧图像使所述第二左侧图像和所述第二右侧图像的一个或多个空间区域模糊,并且其中,所述第二左侧图像和所述第二右侧图像的所述一个或多个空间区域是离开所述观看者的中央凹视野的,并且
其中,所述第二立体图像不被投射到除了所述虚拟物体深度之外的其他虚拟物体深度处。
25.一种图像呈现系统(324-1),包括:
一个或多个图像显示器(320),被配置为:
为观看者呈现包括第一左侧图像和第一右侧图像的第一立体图像;以及
为所述观看者呈现包括第二左侧图像和第二右侧图像的第二立体图像,其中,所述第二立体图像跟随在所述第一立体图像之后,
聚散角追踪器(326),被配置为在所述观看者观看所述第一立体图像时追踪所述观看者的左眼的左聚散角和所述观看者的右眼的右聚散角;
自动可调透镜控制器(318),被配置为使用深度控制元数据来控制一个或多个自动可调透镜以将所述第二立体图像从所述一个或多个图像显示器投射到单一深度处的虚拟物体平面,
其中,所述深度控制元数据表示所述单一深度随时间推移的函数,所述单一深度是至少部分地基于所述左聚散角和所述右聚散角以及观看者的眼睛相对于所述一个或多个图像显示器的几何信息来确定的,以及
其中,所述第二左侧图像和所述第二右侧图像是通过应用一个或多个模糊过滤操作从输入的左侧图像和输入的右侧图像生成的,其中,所述一个或多个模糊过滤操作相对于所述输入的左侧图像和所述输入的右侧图像使所述第二左侧图像和所述第二右侧图像的一个或多个空间区域模糊,并且其中,所述第二左侧图像和所述第二右侧图像的所述一个或多个空间区域是离开所述观看者的中央凹视野的。
CN201780047659.4A 2016-08-04 2017-08-03 单一深度追踪调节-聚散解决方案 Active CN109644261B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110519116.6A CN113240601B (zh) 2016-08-04 2017-08-03 单一深度追踪调节-聚散解决方案

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201662370901P 2016-08-04 2016-08-04
US62/370,901 2016-08-04
EP16182719 2016-08-04
EP16182719.1 2016-08-04
PCT/US2017/045267 WO2018027015A1 (en) 2016-08-04 2017-08-03 Single depth tracked accommodation-vergence solutions

Related Child Applications (1)

Application Number Title Priority Date Filing Date
CN202110519116.6A Division CN113240601B (zh) 2016-08-04 2017-08-03 单一深度追踪调节-聚散解决方案

Publications (2)

Publication Number Publication Date
CN109644261A CN109644261A (zh) 2019-04-16
CN109644261B true CN109644261B (zh) 2021-06-01

Family

ID=59626699

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201780047659.4A Active CN109644261B (zh) 2016-08-04 2017-08-03 单一深度追踪调节-聚散解决方案
CN202110519116.6A Active CN113240601B (zh) 2016-08-04 2017-08-03 单一深度追踪调节-聚散解决方案

Family Applications After (1)

Application Number Title Priority Date Filing Date
CN202110519116.6A Active CN113240601B (zh) 2016-08-04 2017-08-03 单一深度追踪调节-聚散解决方案

Country Status (6)

Country Link
US (2) US10943359B2 (zh)
EP (1) EP3494695B1 (zh)
JP (2) JP7094266B2 (zh)
KR (1) KR102239686B1 (zh)
CN (2) CN109644261B (zh)
PL (1) PL3494695T3 (zh)

Families Citing this family (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3062142B1 (en) 2015-02-26 2018-10-03 Nokia Technologies OY Apparatus for a near-eye display
US10650552B2 (en) 2016-12-29 2020-05-12 Magic Leap, Inc. Systems and methods for augmented reality
EP3343267B1 (en) 2016-12-30 2024-01-24 Magic Leap, Inc. Polychromatic light out-coupling apparatus, near-eye displays comprising the same, and method of out-coupling polychromatic light
US11164352B2 (en) * 2017-04-21 2021-11-02 Intel Corporation Low power foveated rendering to save power on GPU and/or display
US10578870B2 (en) 2017-07-26 2020-03-03 Magic Leap, Inc. Exit pupil expander
CN116990888A (zh) 2017-12-10 2023-11-03 奇跃公司 光波导上的抗反射涂层
CN115826240A (zh) 2017-12-20 2023-03-21 奇跃公司 用于增强现实观看设备的插入件
CN112136152B (zh) 2018-03-15 2025-02-07 奇跃公司 由观看设备的部件变形导致的图像校正
CN208044203U (zh) * 2018-04-28 2018-11-02 北京京东方光电科技有限公司 显示设备、光学系统和虚拟现实头戴显示设备
WO2019232282A1 (en) 2018-05-30 2019-12-05 Magic Leap, Inc. Compact variable focus configurations
JP7319303B2 (ja) 2018-05-31 2023-08-01 マジック リープ, インコーポレイテッド レーダ頭部姿勢位置特定
JP7369147B2 (ja) 2018-06-05 2023-10-25 マジック リープ, インコーポレイテッド 視認システムのホモグラフィ変換行列ベースの温度較正
JP7421505B2 (ja) 2018-06-08 2024-01-24 マジック リープ, インコーポレイテッド 自動化された表面選択設置およびコンテンツ配向設置を用いた拡張現実ビューア
WO2020010097A1 (en) 2018-07-02 2020-01-09 Magic Leap, Inc. Pixel intensity modulation using modifying gain values
WO2020010226A1 (en) 2018-07-03 2020-01-09 Magic Leap, Inc. Systems and methods for virtual and augmented reality
US11856479B2 (en) 2018-07-03 2023-12-26 Magic Leap, Inc. Systems and methods for virtual and augmented reality along a route with markers
US12164978B2 (en) 2018-07-10 2024-12-10 Magic Leap, Inc. Thread weave for cross-instruction set architecture procedure calls
CN119197613A (zh) 2018-07-24 2024-12-27 奇跃公司 移动检测设备的依赖于温度的校准
US11624929B2 (en) 2018-07-24 2023-04-11 Magic Leap, Inc. Viewing device with dust seal integration
JP7401519B2 (ja) 2018-08-02 2023-12-19 マジック リープ, インコーポレイテッド 頭部運動に基づく瞳孔間距離補償を伴う視認システム
EP3830631A4 (en) 2018-08-03 2021-10-27 Magic Leap, Inc. NON-FUSED POSE DRIFT CORRECTION OF A FUSED TOTEM IN A USER INTERACTION SYSTEM
US12016719B2 (en) 2018-08-22 2024-06-25 Magic Leap, Inc. Patient viewing system
CN113196138B (zh) 2018-11-16 2023-08-25 奇跃公司 用于保持图像清晰度的图像尺寸触发的澄清
CN113454507B (zh) 2018-12-21 2024-05-07 奇跃公司 用于促进波导内的全内反射的气穴结构
JP7515489B2 (ja) 2019-02-06 2024-07-12 マジック リープ, インコーポレイテッド 複数のプロセッサによって発生される総熱を限定するための標的意図ベースのクロック速度の決定および調節
EP3939030A4 (en) 2019-03-12 2022-11-30 Magic Leap, Inc. REGISTRATION OF LOCAL CONTENT BETWEEN FIRST AND SECOND VIEWERS OF AUGMENTED REALITY
US11445232B2 (en) 2019-05-01 2022-09-13 Magic Leap, Inc. Content provisioning system and method
EP3973510A4 (en) 2019-05-23 2022-07-13 Magic Leap, Inc. MIXED MODE THREE-DIMENSIONAL DISPLAY SYSTEMS AND METHODS
US11514673B2 (en) 2019-07-26 2022-11-29 Magic Leap, Inc. Systems and methods for augmented reality
EP4055437A4 (en) * 2019-11-06 2023-12-20 HES IP Holdings, LLC SYSTEM AND METHOD FOR DISPLAYING AN OBJECT WITH DEPTHS
WO2021097318A1 (en) 2019-11-14 2021-05-20 Magic Leap, Inc. Systems and methods for virtual and augmented reality
WO2021097323A1 (en) 2019-11-15 2021-05-20 Magic Leap, Inc. A viewing system for use in a surgical environment
CN112929643B (zh) * 2019-12-05 2022-06-28 北京芯海视界三维科技有限公司 3d显示设备、方法及终端
CN117853642A (zh) 2019-12-06 2024-04-09 奇跃公司 虚拟、增强和混合现实系统和方法
WO2021113540A1 (en) * 2019-12-06 2021-06-10 Magic Leap, Inc. Virtual, augmented, and mixed reality systems and methods
WO2022036302A1 (en) 2020-08-14 2022-02-17 Hes Ip Holdings, Llc Systems and methods for superimposing virtual image on real-time image
US11774759B2 (en) * 2020-09-03 2023-10-03 Hes Ip Holdings, Llc Systems and methods for improving binocular vision
US11953689B2 (en) 2020-09-30 2024-04-09 Hes Ip Holdings, Llc Virtual image display system for virtual reality and augmented reality devices
US11911105B2 (en) * 2020-09-30 2024-02-27 Acucela Inc. Myopia prediction, diagnosis, planning, and monitoring device
CN113093402B (zh) * 2021-04-16 2022-12-02 业成科技(成都)有限公司 立体显示器及其制造方法与立体显示系统
US12147608B2 (en) 2022-07-15 2024-11-19 Hes Ip Holdings, Llc Computing system with head wearable display
TWI858918B (zh) * 2023-09-14 2024-10-11 宏達國際電子股份有限公司 影像顯示裝置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6111597A (en) * 1996-12-28 2000-08-29 Olympus Optical Co., Ltd. Stereo image forming apparatus
CN102566049A (zh) * 2010-11-08 2012-07-11 微软公司 用于扩展现实显示的自动可变虚拟焦点
JP2012237970A (ja) * 2012-01-30 2012-12-06 Bunkyo Daigaku Gakuen ズーミング可能な立体写真ビューア
CN104798370A (zh) * 2012-11-27 2015-07-22 高通股份有限公司 用于产生3-d全光视频图像的系统和方法
WO2016105521A1 (en) * 2014-12-23 2016-06-30 Meta Company Apparatuses, methods and systems coupling visual accommodation and visual convergence to the same plane at any depth of an object of interest

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0468340A3 (en) 1990-07-24 1992-12-16 Biocontrol Systems, Inc. Eye directed controller
US7428001B2 (en) 2002-03-15 2008-09-23 University Of Washington Materials and methods for simulating focal shifts in viewers using large depth of focus displays
US7872635B2 (en) 2003-05-15 2011-01-18 Optimetrics, Inc. Foveated display eye-tracking system and method
JP2006287813A (ja) * 2005-04-04 2006-10-19 Fuji Photo Film Co Ltd 3次元画像表示装置
JP4492597B2 (ja) * 2006-09-20 2010-06-30 太郎 諌山 立体表示処理装置および立体表示処理方法
KR20090014927A (ko) 2007-08-06 2009-02-11 삼성전자주식회사 깊이 조절을 이용한 양안식 영상의 재생 방법 및 장치
EP2309310A1 (en) 2009-10-01 2011-04-13 Koninklijke Philips Electronics N.V. 3D spectacles
JP5613025B2 (ja) * 2009-11-18 2014-10-22 パナソニック株式会社 視線検出装置、視線検出方法、眼電位計測装置、ウェアラブルカメラ、ヘッドマウントディスプレイ、電子めがねおよび眼科診断装置
US20110228051A1 (en) 2010-03-17 2011-09-22 Goksel Dedeoglu Stereoscopic Viewing Comfort Through Gaze Estimation
JP5464279B2 (ja) * 2010-12-22 2014-04-09 コニカミノルタ株式会社 画像処理装置、そのプログラム、および画像処理方法
US8953242B2 (en) 2011-03-31 2015-02-10 Honeywell International Inc. Varible focus stereoscopic display system and method
GB201110661D0 (en) 2011-06-23 2011-08-10 Univ Durham Apparatus and method for displaying images
JP2013090180A (ja) * 2011-10-19 2013-05-13 Nippon Hoso Kyokai <Nhk> 立体映像撮影表示装置
JP6007600B2 (ja) 2012-06-07 2016-10-12 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
JP5887026B2 (ja) 2012-09-03 2016-03-16 ゼンソモトリック インストゥルメンツ ゲゼルシャフト ヒューア イノベイティブ ゼンソリック エムベーハーSENSOMOTORIC INSTRUMENTS Gesellschaft fur innovative Sensorik mbH ヘッドマウントシステム及びヘッドマウントシステムを用いてディジタル画像のストリームを計算しレンダリングする方法
JP6026836B2 (ja) * 2012-09-28 2016-11-16 パイオニア株式会社 画像表示装置、制御方法、プログラム及び記憶媒体
JP2014219621A (ja) 2013-05-10 2014-11-20 株式会社タイトー 表示装置、表示制御プログラム
GB201310256D0 (en) 2013-06-10 2013-07-24 Univ Durham Stereoscopic display and method
KR102056221B1 (ko) * 2013-07-12 2019-12-16 삼성전자주식회사 시선인식을 이용한 장치 연결 방법 및 장치
KR102126532B1 (ko) 2013-09-30 2020-06-24 엘지디스플레이 주식회사 멀티뷰 영상 생성 방법과 이를 이용한 입체 영상 표시 장치
US10330935B2 (en) 2016-09-22 2019-06-25 Apple Inc. Predictive, foveated virtual reality system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6111597A (en) * 1996-12-28 2000-08-29 Olympus Optical Co., Ltd. Stereo image forming apparatus
CN102566049A (zh) * 2010-11-08 2012-07-11 微软公司 用于扩展现实显示的自动可变虚拟焦点
JP2012237970A (ja) * 2012-01-30 2012-12-06 Bunkyo Daigaku Gakuen ズーミング可能な立体写真ビューア
CN104798370A (zh) * 2012-11-27 2015-07-22 高通股份有限公司 用于产生3-d全光视频图像的系统和方法
WO2016105521A1 (en) * 2014-12-23 2016-06-30 Meta Company Apparatuses, methods and systems coupling visual accommodation and visual convergence to the same plane at any depth of an object of interest

Also Published As

Publication number Publication date
JP2019532535A (ja) 2019-11-07
US11694353B2 (en) 2023-07-04
JP2021122109A (ja) 2021-08-26
EP3494695A1 (en) 2019-06-12
CN109644261A (zh) 2019-04-16
KR20190026004A (ko) 2019-03-12
CN113240601A (zh) 2021-08-10
CN113240601B (zh) 2024-03-26
EP3494695B1 (en) 2023-09-27
US20190172216A1 (en) 2019-06-06
US20210264631A1 (en) 2021-08-26
PL3494695T3 (pl) 2024-02-19
US10943359B2 (en) 2021-03-09
JP7094266B2 (ja) 2022-07-01
KR102239686B1 (ko) 2021-04-13
JP7335285B2 (ja) 2023-08-29

Similar Documents

Publication Publication Date Title
CN109644261B (zh) 单一深度追踪调节-聚散解决方案
CN108051925B (zh) 具有焦点可调透镜的眼镜设备
CN106484116B (zh) 媒体文件的处理方法和装置
US10528129B2 (en) Immersive displays
US6198484B1 (en) Stereoscopic display system
US8692870B2 (en) Adaptive adjustment of depth cues in a stereo telepresence system
JP2013106355A (ja) コリメートされたステレオディスプレイシステム
WO2019109323A1 (zh) 图像显示方法、穿戴式智能设备及存储介质
WO2018010677A1 (zh) 一种信息处理方法、穿戴式电子设备、处理装置及系统
Celikcan et al. Attention-aware disparity control in interactive environments
KR101818839B1 (ko) 스테레오 삼차원 영상 콘텐츠 디스플레이 제작 및 재생 방법
US11543655B1 (en) Rendering for multi-focus display systems
WO2018027015A1 (en) Single depth tracked accommodation-vergence solutions
KR102358240B1 (ko) 단일 깊이 추적 순응-수렴 솔루션
Koulieris et al. Cutting-edge VR/AR display technologies (gaze-, accommodation-, motion-aware and HDR-enabled)
Wartell et al. Characterizing Image Fusion Techniques in Stereoscopic HTDs.
Watt et al. 3D media and the human visual system
US20240205553A1 (en) Utilising different apertures for different eyes
Liu et al. Computational 3D displays
Jin et al. Comparison of Differences between Human Eye Imaging and HMD Imaging
Gurrieri Improvements in the visualization of stereoscopic 3D imagery
US9609313B2 (en) Enhanced 3D display method and system
CN118633277A (zh) 具有基于机器学习(ml)的宽视场立体视图合成的显示系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant