CN113703582A - 图像显示方法和装置 - Google Patents
图像显示方法和装置 Download PDFInfo
- Publication number
- CN113703582A CN113703582A CN202111037975.8A CN202111037975A CN113703582A CN 113703582 A CN113703582 A CN 113703582A CN 202111037975 A CN202111037975 A CN 202111037975A CN 113703582 A CN113703582 A CN 113703582A
- Authority
- CN
- China
- Prior art keywords
- interactive object
- virtual interactive
- user
- display screen
- display surface
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 52
- 230000002452 interceptive effect Effects 0.000 claims abstract description 245
- 230000000877 morphologic effect Effects 0.000 claims abstract description 84
- 230000003993 interaction Effects 0.000 claims abstract description 6
- 230000008859 change Effects 0.000 claims description 45
- 238000010586 diagram Methods 0.000 description 9
- 230000000694 effects Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 239000011295 pitch Substances 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 230000003190 augmentative effect Effects 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000006399 behavior Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000002834 transmittance Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03H—HOLOGRAPHIC PROCESSES OR APPARATUS
- G03H1/00—Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
- G03H1/0005—Adaptation of holography to specific applications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B21/00—Projectors or projection-type viewers; Accessories therefor
- G03B21/54—Accessories
- G03B21/56—Projection screens
- G03B21/60—Projection screens characterised by the nature of the surface
- G03B21/62—Translucent screens
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/25—Output arrangements for video game devices
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/55—Controlling game characters or game objects based on the game progress
- A63F13/57—Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game
- A63F13/573—Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game using trajectories of game objects, e.g. of a golf ball according to the point of impact
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/80—Special adaptations for executing a specific game genre or game mode
- A63F13/812—Ball games, e.g. soccer or baseball
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03H—HOLOGRAPHIC PROCESSES OR APPARATUS
- G03H1/00—Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
- G03H1/22—Processes or apparatus for obtaining an optical image from holograms
- G03H1/2202—Reconstruction geometries or arrangements
- G03H1/2205—Reconstruction geometries or arrangements using downstream optical component
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03H—HOLOGRAPHIC PROCESSES OR APPARATUS
- G03H1/00—Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
- G03H1/22—Processes or apparatus for obtaining an optical image from holograms
- G03H1/2294—Addressing the hologram to an active spatial light modulator
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03H—HOLOGRAPHIC PROCESSES OR APPARATUS
- G03H1/00—Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
- G03H1/0005—Adaptation of holography to specific applications
- G03H2001/0061—Adaptation of holography to specific applications in haptic applications when the observer interacts with the holobject
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03H—HOLOGRAPHIC PROCESSES OR APPARATUS
- G03H1/00—Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
- G03H1/0005—Adaptation of holography to specific applications
- G03H2001/0088—Adaptation of holography to specific applications for video-holography, i.e. integrating hologram acquisition, transmission and display
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03H—HOLOGRAPHIC PROCESSES OR APPARATUS
- G03H1/00—Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
- G03H1/22—Processes or apparatus for obtaining an optical image from holograms
- G03H1/2202—Reconstruction geometries or arrangements
- G03H1/2205—Reconstruction geometries or arrangements using downstream optical component
- G03H2001/2213—Diffusing screen revealing the real holobject, e.g. container filed with gel to reveal the 3D holobject
- G03H2001/2215—Plane screen
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03H—HOLOGRAPHIC PROCESSES OR APPARATUS
- G03H2226/00—Electro-optic or electronic components relating to digital holography
- G03H2226/05—Means for tracking the observer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/012—Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04804—Transparency, e.g. transparent or translucent windows
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本申请提供了一种图像显示方法和装置,该方法包括:获得第一用户对透明全息显示屏的第一显示面显示的虚拟交互对象的输入操作,第一用户位于透明全息显示屏的第一显示面一侧;结合输入操作,确定当前时刻之后虚拟交互对象的运动轨迹、虚拟交互对象相对第一用户的人眼位置的第一外观形态特征以及虚拟交互对象相对第二用户的人眼位置的第二外观形态特征,第二用户位于透明全息显示屏的第二显示面一侧;向透明全息显示屏的第一显示面显示具有运动轨迹和第一外观形态特征的虚拟交互对象;向透明全息显示屏的第二显示面显示具有运动轨迹和第二外观形态特征的虚拟交互对象。本申请的方案可以使得呈现出的虚拟场景更为贴合真实场景。
Description
技术领域
本申请涉及显示技术领域,更具体地说,涉及一种图像显示方法和装置。
背景技术
混合现实等技术的应用场景日益增多。
在混合现实等场景中,虚拟对象和真实对象均会同时存在,而且不同用户所看到的虚拟场景是相同的。然而,很多业务场景下,可能希望能够向不同位置的用户呈现不同的虚拟场景,以使得不同位置的用户均能够看到更为贴合真实场景的虚拟场景。
发明内容
本申请提供了一种图像显示方法和装置。
其中,一种图像显示方法,包括:
获得第一用户对透明全息显示屏的第一显示面显示的虚拟交互对象的输入操作,所述第一用户位于所述透明全息显示屏的第一显示面一侧;
结合所述输入操作,确定当前时刻之后所述虚拟交互对象的运动轨迹、所述虚拟交互对象相对所述第一用户的人眼位置的第一外观形态特征以及所述虚拟交互对象相对第二用户的人眼位置的第二外观形态特征,所述第二用户位于所述透明全息显示屏的第二显示面一侧;
向所述透明全息显示屏的第一显示面显示具有所述运动轨迹和第一外观形态特征的所述虚拟交互对象;
向所述透明全息显示屏的第二显示面显示具有所述运动轨迹和第二外观形态特征的所述虚拟交互对象。
在一种可能的实现方式中,所述结合所述输入操作,确定当前时刻之后所述虚拟交互对象的运动轨迹、所述虚拟交互对象相对所述第一用户的人眼位置的第一外观形态特征以及所述虚拟交互对象相对第二用户的人眼位置的第二外观形态特征,包括:
结合所述输入操作,确定当前时刻之后所述虚拟交互对象的运动轨迹;
结合所述运动轨迹,确定当前时刻之后所述虚拟交互对象的第一尺寸对应的第一尺寸变化特征,所述第一尺寸为所述虚拟交互对象相对所述第一用户的人眼位置的尺寸;
结合所述运动轨迹,确定当前时刻之后所述虚拟交互对象的第二尺寸对应的第二尺寸变化特征,所述第二尺寸为所述虚拟交互对象相对所述第二用户的人眼位置的尺寸;
其中,虚拟交互对象相对用户的人眼位置的距离越远,所述虚拟交互对象相对所述用户的人眼的尺寸越大,所述用户为所述第一用户和第二用户中任意一个。
在又一种可能的实现方式中,所述结合所述输入操作,确定当前时刻之后所述虚拟交互对象的运动轨迹、所述虚拟交互对象相对所述第一用户的人眼位置的第一外观形态特征以及所述虚拟交互对象相对第二用户的人眼位置的第二外观形态特征,还包括:
结合所述运动轨迹,确定当前时刻之后所述虚拟交互对象所需呈现的第一颜色的第一颜色变化特征,所述第一颜色为所述虚拟交互对象相对所述第一用户的人眼位置所需呈现出的颜色;
结合所述运动轨迹,确定当前时刻之后所述虚拟交互对象所需呈现的第二颜色的第二颜色变化特征,所述第二颜色为所述虚拟交互对象相对所述第二用户的人眼位置所需呈现出的颜色;
其中,所述虚拟交互对象相对所述用户的人眼位置的距离越远,所述虚拟交互对象所需呈现的颜色越淡。
在又一种可能的实现方式中,所述透明全息显示屏的第一显示面叠加有第一衍射光栅,所述透明全息显示屏的第二显示面叠加有第二衍射光栅;
所述方法还包括:
控制所述第二衍射光栅遮挡具有所述运动轨迹和第一外观形态特征的所述虚拟交互对象对应的第一图像光线,使得具有所述运动轨迹和第一外观形态特征的所述虚拟交互对象在所述第二显示面不可见;
控制所述第一衍射光栅遮挡具有所述运动轨迹和第二外观形态特征的所述虚拟交互对象对应的第二图像光线,使得具有所述运动轨迹和第二外观形态特征的所述虚拟交互对象在所述第一显示面不可见。
在又一种可能的实现方式中,所述向所述透明全息显示屏的第一显示面显示具有所述运动轨迹和第一外观形态特征的所述虚拟交互对象,包括:
通过至少一个第一投射光源向所述全息透明显示屏的第一显示面投射具有所述运动轨迹和第一外观形态特征的所述虚拟交互对象,所述第一投射光源设置于所述全息透明显示屏内,或者是,朝向所述全息透明显示屏;
所述控制所述第二衍射光栅遮挡具有所述运动轨迹和第一外观形态特征的所述虚拟交互对象对应的第一图像光线,包括:
向所述第二衍射光栅输出第一电控制信号,所述第一电控制信号用于控制所述第二衍射光栅中处于所述第一投射光源的光投射区域内的第一子光栅区域处于不透光状态。
在又一种可能的实现方式中,所述向所述透明全息显示屏的第二显示面显示具有所述运动轨迹和第二外观形态特征的所述虚拟交互对象,包括:
通过至少一个第二投射光源向所述全息透明显示屏的第二显示面投射具有所述运动轨迹和第二外观形态特征的所述虚拟交互对象,所述第二投射光源设置于所述全息透明显示屏内,或者是,朝向所述全息透明显示屏;
所述控制所述第一衍射光栅遮挡具有所述运动轨迹和第二外观形态特征的所述虚拟交互对象对应的第二图像光线,包括:
向所述第一衍射光栅输出第二电控制信号,所述第二电控制信号用于控制所述第一衍射光栅中处于所述第二投射光源的光投射区域内的第二子光栅区域处于不透光状态。
其中,一种图像显示装置,包括:
操作获得单元,用于获得第一用户对透明全息显示屏的第一显示面显示的虚拟交互对象的输入操作,所述第一用户位于所述透明全息显示屏的第一显示面一侧;
特征确定单元,用于结合所述输入操作,确定当前时刻之后所述虚拟交互对象的运动轨迹、所述虚拟交互对象相对所述第一用户的人眼位置的第一外观形态特征以及所述虚拟交互对象相对第二用户的人眼位置的第二外观形态特征,所述第二用户位于所述透明全息显示屏的第二显示面一侧;
第一显示控制单元,用于向所述透明全息显示屏的第一显示面显示具有所述运动轨迹和第一外观形态特征的所述虚拟交互对象;
第二显示控制单元,用于向所述透明全息显示屏的第二显示面显示具有所述运动轨迹和第二外观形态特征的所述虚拟交互对象。
在一种可能的实现方式中,所述特征确定单元,包括:
轨迹确定单元,用于结合所述输入操作,确定当前时刻之后所述虚拟交互对象的运动轨迹;
第一尺寸确定单元,用于结合所述运动轨迹,确定当前时刻之后所述虚拟交互对象的第一尺寸对应的第一尺寸变化特征,所述第一尺寸为所述虚拟交互对象相对所述第一用户的人眼位置的尺寸;
第二尺寸确定单元,用于结合所述运动轨迹,确定当前时刻之后所述虚拟交互对象的第二尺寸对应的第二尺寸变化特征,所述第二尺寸为所述虚拟交互对象相对所述第二用户的人眼位置的尺寸;
其中,虚拟交互对象相对用户的人眼位置的距离越远,所述虚拟交互对象相对所述用户的人眼的尺寸越大,所述用户为所述第一用户和第二用户中任意一个。
在又一种可能的实现方式中,所述特征确定单元,还包括:
第一颜色确定单元,用于结合所述运动轨迹,确定当前时刻之后所述虚拟交互对象所需呈现的第一颜色的第一颜色变化特征,所述第一颜色为所述虚拟交互对象相对所述第一用户的人眼位置所需呈现出的颜色;
第二颜色确定单元,用于结合所述运动轨迹,确定当前时刻之后所述虚拟交互对象所需呈现的第二颜色的第二颜色变化特征,所述第二颜色为所述虚拟交互对象相对所述第二用户的人眼位置所需呈现出的颜色;
其中,所述虚拟交互对象相对所述用户的人眼位置的距离越远,所述虚拟交互对象所需呈现的颜色越淡。
在又一种可能的实现方式中,所述透明全息显示屏的第一显示面叠加有第一衍射光栅,所述透明全息显示屏的第二显示面叠加有第二衍射光栅;
所述装置还包括:
第一光栅控制单元,用于控制所述第二衍射光栅遮挡具有所述运动轨迹和第一外观形态特征的所述虚拟交互对象对应的第一图像光线,使得具有所述运动轨迹和第一外观形态特征的所述虚拟交互对象在所述第二显示面不可见;
第二光栅控制单元,用于控制所述第一衍射光栅遮挡具有所述运动轨迹和第二外观形态特征的所述虚拟交互对象对应的第二图像光线,使得具有所述运动轨迹和第二外观形态特征的所述虚拟交互对象在所述第一显示面不可见。
通过以上方案可知,本申请的图像投射方法中显示屏为透明全息显示屏,全息透明显示屏的第一显示面一侧存在第一用户,而全息透明显示屏的第二显示面一侧存在第二用户。在该种场景下,获得第一用户对该第一显示面显示的虚拟交互对象的输入操作后,会根据该输入操作确定当前时刻之后该虚拟交互对象的运动轨迹,该虚拟交互对象相对该第一用户的人眼位置的第一外观形态,以及该虚拟交互对象相对该第二用户的人眼位置的第二外观形态特征。由于现实场景中,对某个对象进行操作后,对象的运动轨迹是固定的,但如果不同用户与对象的相对位置不同,不同用户看到的对象的外观形态也会有所差异,基于此,本申请通过分别向全息投影显示屏的两个显示面分别输出运动轨迹相同但外观形态不同的虚拟交互对象,可以使得全息透明显示屏两侧的用户均能够看到更为符合现实场景中对象变化特征的虚拟场景效果,使得呈现出的虚拟场景更为贴合真实场景。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的图像投射系统的一种组成架构示意图;
图2为本申请实施例提供的图像显示方法的一种流程示意图;
图3为本申请实施例提供的图像显示方法的又一种流程示意图;
图4示出了本申请适用的混合现实场景的一种示意图;
图5示出了本申请适用的混合现实场景的又一种示意图;
图6示出了本申请提供的图像显示方法的又一种流程示意图;
图7示出了本申请提供的图像显示方法的又一种流程示意图;
图8示出了本申请提供的图像显示方法的再一种流程示意图;
图9为本申请实施例提供的一种电子设备的一种组成架构示意图。
说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”“第四”等(如果存在)是用于区别类似的部分,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例能够以除了在这里图示的以外的顺序实施。
具体实施方式
本申请的方案可以应用于混合现实或者增强现实等场景中,以实现向不同位置的用户均能够呈现更为贴合真实场景的虚拟场景图像。
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有付出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
为了便于理解,先对本申请的方案适用的图像投射系统及应用场景进行简单介绍。
如图1所示,其示出了本申请一种图像投射系统的在图1中,该图像投射系统包括:控制设备101以及透明全息显示屏102。
其中,透明全息显示屏102与控制设备101相连。
当然,为了能够实现图像投射,该透明全息显示屏中可以设置有多个投射光源,如投射光源可以为透明全息显示屏内的有机发光半导体(Organic ElectroluminescenceDisplay,OLED),通过OLED发光点可以实现向透明全息显示屏上投射图像。或者是,该图像投射系统还包括多个朝向透明全息显示屏不同显示面的投射光源。
其中,图像投射系统中控制设备可以有一台,也可以有多台,在控制设备有多台的情况下,这多台控制设备可以组成为一个集群或者是一个分布式系统。
在本申请中,透明全息屏具有两个显示面,这两个显示面可以为透明全息显示屏的两个显示平面,这两个显示平面均可以分别进行虚拟场景图像的显示。如图1所示,透明全息显示屏为平面显示屏,平面显示屏两面均为显示面。为了便于区分,将透明全息显示屏的一个显示面称为第一显示面,而将另一个显示面称为第二显示面。
在本申请中,透明全息显示屏的第一显示面一侧可以有第一用户,而透明全息显示屏的第二显示面一侧可以有第二用户。如图1所示,位于透明全息显示屏的第一显示面一侧103具有一个用户正在准备操作该透明全息显示屏的第一显示面中显示出的虚拟对象。而位于透明全息显示屏的第二显示面一侧104的用户正在等待虚拟对象靠近自身。
在此基础上,透明全息显示屏两侧的用户可以基于透明全息显示屏呈现出的虚拟场景中的虚拟对象进行互动操作,以使得不同侧的用户可以针对同一个对象进行互动。如图1中,透明全息显示屏两侧的用户均可以拍打虚拟场景中的球体,从而在混合现实场景中实现不同真实人物基于同一球体进行互动的体验效果。
在一种可选方式中,为了能够更为准确和全面的捕获图像投射系统所在混合现实或者增强现实场景中各个用户的输入动作或者人眼位置等信息,本申请中,该图像投射系统还可以包括图像采集装置以及人眼追踪装置中的一种或者两种,图1中以图像投射系统同时包括图像采集装置103和人眼跟踪装置104为例说明。
如,通过图像采集装置或者人眼跟踪装置可以采集用于定位用户的人眼位置的人眼定位数据,将人眼定位数据上报给控制设备。如,人眼跟踪装置可以基于红外定位等技术获得用于定位人眼位置的数据等等,对此不加限制。
相应的,控制设备可以基于用户的人眼定位数据,确定用户的人眼位置。
该图像采集装置还可以采集用户的用户图像,并上报控制设备。相应的,控制设备可以基于用户图像分析出用户的输入内容,如输入指令或者输入操作的具体内容等等。
在以上内容的基础上,下面结合流程图对本申请的图像显示方法进行介绍。
如图2所示,其示出了本申请提供的图像显示方法的一种流程示意图。该方法应用于图像投射系统中的控制设备。
本实施例中的方法可以包括:
S201,获得第一用户对透明全息显示屏的第一显示面显示的虚拟交互对象的输入操作。
该第一用户位于透明全息显示屏的第一显示面一侧。
其中,虚拟交互对象为透明全息显示屏中呈现出的虚拟场景中的能够被用户操作的虚拟对象。如,虚拟交互对象可以为虚拟场景中用于模拟真实场景中能够被用户玩耍的物品,还可以是虚拟场景中创建出的能够被用户操作的虚拟物品等虚拟对象等,对此不加限制。
其中,该输入操作可以通过透明全息显示屏上的触摸感应单元感应到,也可以是在图像投射系统中设置有至少一个图像采集装置等用户操作感应装置,在此基础上,基于用户操作感应装置感应到的用户行为,确定用户的输入操作。本申请对于具体获得输入操作的方式不加限制。
可以理解的是,仅仅是为了便于区分将透明全息显示屏的一个显示面称为第二显示面,而将另一个显示面称为第二显示面,因此,此处的第一显示面可以为透明全息显示屏任意一个显示面。相应的,在实际应用中,对于透明全息显示屏任意一个显示面一侧的用户对其朝向的显示面上的虚拟交互对象进行输入操作的场景均适用于本实施例。
S202,结合输入操作,确定当前时刻之后虚拟交互对象的运动轨迹、虚拟交互对象相对第一用户的人眼位置的第一外观形态特征以及虚拟交互对象相对第二用户的人眼位置的第二外观形态特征。
该第二用户位于透明全息显示屏的第二显示面一侧。
其中,虚拟交互对象在当前时刻之后的运动轨迹可以为当前时刻之后多个时刻的运动位置所构成的轨迹变化。
该运动轨迹可以结合输入操作对虚拟交互对象的作用力以及方向等参数来综合确定。
在一种实现方式中,为了能够更为精准确定虚拟交互对象在当前时刻后的运动轨迹,本申请还可以是结合输入操作和该虚拟交互对象当前的运动状态,确定当前时刻之后该虚拟交互对象的运动轨迹。如,结合虚拟交互对象当前的运动速度和运动方向,以及该输入操作的作用力大小以及作用力方向等,确定出虚拟交互对象在当前时刻之后的运动轨迹。
虚拟交互对象的外观形态特征是指虚拟交互对象在外在上呈现出的形态特征。如虚拟交互对象的外观形态特征可以包括虚拟交互对象的尺寸、颜色以及外形变化等等用户肉眼可见的特征。
可以理解的是,在现实场景中,在同一物品等对象与用户的人眼的相对位置不同时,用户看到对象所呈现出的外观形态也会有所不同。
如,物品或者人物等对象距离用户较远,用户看到该对象的体积或者尺寸偏小,而物品或者任务等对象距离用户较近时,用户看到该对象的体积或者尺寸就偏大。
又如,针对现实场景中同一对象,在用户与该对象的相对方向或者角度不同时,用户所能看到的对象的形状、外观以及对象外部结构上的图案等均会有所不同。例如,对于一个魔方而言,用户在正对魔方的某个面时,看到的是这个魔方中这个面上的各个块及其颜色等;而魔方的某条了棱边朝向用户时,用户可以看到该条棱边相邻两面上的各魔方块及其颜色等。
为了能够使得用户通过虚拟场景看到与真实场景中效果一致的对象呈现效果,本申请在结合输入操作确定虚拟对象在当前时刻之后的运动轨迹的同时,结合位于透明全息显示屏不同侧的用户的眼睛位置,来确定当前时刻之后该虚拟对象相对用户的眼睛位置所需呈现出的外观形态。
基于此,由于透明全息显示显示屏不同侧用户的眼睛位置不同,因此,本申请针对不同侧用户的眼睛位置,确定出的该虚拟对象当前时刻之后所需呈现出的外观形态也就会不同。
其中,虚拟交互对象相对用户的人眼位置的外观形态特征可以理解为从该用户的人眼位置来看,该虚拟交互对象在不同时刻所呈现出的外观形态的变化特征。
在一种可能的实现方式中,考虑虚拟交互对象相对用户的人眼位置的相对位置与该虚拟交互对象的运动轨迹有关,本申请还可以结合虚拟交互对象的运动轨迹,确定虚拟交互对象相对第一用户的人眼位置的第一外观形态特征,以及虚拟交互对象相对第二用户的人眼位置的第二外观形态特征。
其中,用户的人眼位置可以基于图像采集装置或者人眼追踪器追踪到的用于定位用户人眼的人眼定位数据确定,具体方式可以有多种,本申请对此不加限制。
S203,向透明全息显示屏的第一显示面显示具有运动轨迹和第一外观形态特征的该虚拟交互对象。
如,在虚拟交互对象已存在的基础上,控制虚拟交互对象维持该运动轨迹,并调整其属性的第一外观形态特征。例如,按照该运动轨迹确定当前时刻之后虚拟交互对象在不同时刻点对应的运动位置,基于第一外观形态特征确定当前时刻之后虚拟交互对象在不同时刻点的第一外观形态,在此基础上,可以在当前时刻之后各时刻点输出处于相应运动位置且具有该时刻点对应外观形态的该虚拟交换对象。
当然,呈现出具有该运动轨迹和第一外观形态特征的虚拟交互对象的具体方式可以有多种可能,对此不加限制。
S204,向透明全息显示屏的第二显示面显示具有运动轨迹和第二外观形态特征的虚拟交互对象。
可以理解的是,为了实现透明全息显示屏两侧的用户能够基于同一虚拟交互对象的互动,因此,在透明全息显示屏的两个显示面均需要显示出同一个虚拟交互对象。但是,为了贴合现实世界中两人或者多人对同一对象的互动场景,透明全息显示屏两个显示面输出的同一虚拟交互对象的属性不同。即,全息透明显示屏两个显示面输出的虚拟交互对象的运动轨迹相同,但是外观形态却不同。
可以理解的是,为了能够实现更好的同步效果,该步骤S203和S204可以同步执行。当然,也可以根据需要设定这两个步骤的顺序,对此不加限制。
由以上内容可知,获得透明全息显示屏的第一用户对该第一显示面显示的虚拟交互对象的输入操作后,会根据该输入操作确定当前时刻之后该虚拟交互对象的运动轨迹,该虚拟交互对象相对该第一用户的人眼位置的第一外观形态,以及该虚拟交互对象相对该全息透明显示屏另一侧的第二用户的人眼位置的第二外观形态特征。由于现实场景中,对某个对象进行操作后,对象的运动轨迹是固定的,但如果不同用户与对象的相对位置不同,不同用户看到的对象的外观形态也会有所差异,基于此,本申请通过分别向全息投影显示屏的两个显示面分别输出运动轨迹相同但外观形态不同的虚拟交互对象,可以使得全息透明显示屏两侧的用户均能够看到更为符合现实场景中对象变化特征的虚拟场景效果,使得呈现出的虚拟场景更为贴合真实场景。
可以理解的是,在本申请中虚拟交互对象的外观形态特征可以有多种可能。为了便于理解,下面以外观形态特征的几种可能情况为例对本申请的图像显示方法进行说明。
如图3所示,其示出了本申请一种图像显示方法又一个实施例的流程示意图,本实施例的方法应用于前面提到的控制设备。本实施例的方法可以包括:
S301,获得第一用户对透明全息显示屏的第一显示面显示的虚拟交互对象的输入操作。
该第一用户位于透明全息显示屏的第一显示面一侧。
S302,结合该输入操作,确定当前时刻之后所述虚拟交互对象的运动轨迹。
该步骤可以参照前面确定运动轨迹的相关介绍,在此不再赘述。
S303,结合该运动轨迹,确定当前时刻之后虚拟交互对象的第一尺寸对应的第一尺寸变化特征。
该第一尺寸为虚拟交互对象相对第一用户的人眼位置的尺寸,也就是从第一用户的眼睛看,该虚拟交互对象所呈现出的尺寸。
其中,该第一尺寸变化特征可以包括当前时刻之后至少一个时刻的第一尺寸,或者是,包括当前时刻之后第一尺寸的变化趋势或者变化规律等。
可以理解的是,考虑到现实场景中,针对同一个对象,该对象距离用户的距离越近,人眼看到的对象尺寸就越大,反之相对距离越远则尺寸越小,因此,为了使得虚拟场景中虚拟交互对象能够随着相对第一用户的人眼位置而呈现出的贴合现实场景中相应的尺寸变化特征,在本申请中,虚拟交互对象相对第一用户的人眼位置的距离越远,该虚拟交互对象相对用户的人眼的尺寸越大。
如,在一种可能的方式中,可以设定虚拟交互对象相对用户的人眼的不同距离与尺寸的对应关系,在该对应关系中虚拟交互对象相对用户的人眼的距离越大,对应的尺寸也越小。因此,可以通过查询该对应关系,确定随着虚拟交互对象的运动轨迹的变化,虚拟交互对象所呈现出的第一尺寸的变化特征。
S304,结合运动轨迹,确定当前时刻之后所述虚拟交互对象的第二尺寸对应的第二尺寸变化特征。
其中,第二尺寸为所述虚拟交互对象相对所述第二用户的人眼位置的尺寸;
其中,虚拟交互对象相对第二用户的人眼位置的距离越远,虚拟交互对象相对第一用户的人眼的尺寸越大。
基于运动轨迹确定第二尺寸变化特征的具体方式与前面基于确定第一尺寸变化特征的过程相似,在此不再赘述。
S305,向透明全息显示屏的第一显示面显示具有该运动轨迹和第一尺寸变化特征的该虚拟交互对象。
S306,向透明全息显示屏的第二显示面显示具有运动轨迹和第二尺寸变化特征的该虚拟交互对象。
步骤S305和S306可以参见前面实施例的相关介绍,在此不再赘述。
为了便于理解图3所示的方案,下面结合本申请的一种混合现实场景为例进行说明。
如图4和图5所示,其示出了透明全息显示屏两侧的用户利用透明全息显示屏呈现出的虚拟场景打球的一种混合现实场景示意图。
由图4和图5的混合现实场景中包括:全息透明显示屏401、第一用户402和第二用户403。
其中,第一用户和第二用户分别位于该全息透明显示屏的两侧,如图所示,第一用户位于该透明全息显示屏的第一显示面一侧,如图4和图5中第一显示面一侧的空间区域404,而第二用户位于透明全息显示屏的第二显示面一侧的区域405。
由于全息透明显示屏的第一显示面和第二显示面都可以呈现虚拟场景图像,因此,在第一显示面和第二显示面都呈现有虚拟球体,不过由于角度问题,在图4和图5中仅示出了第一显示面呈现出的虚拟球体406的图像。
在图4中,在第一显示面呈现出的虚拟球体406距离第一用户402的位置较近,相对图5,由于图4中虚拟球体406距离第一用户402的距离较近,虚拟球体的尺寸也相对较大。
当然,在图4对应的时刻,第二显示面也会呈现出该虚拟球体且第二显示面中虚拟球体相对透明全息显示屏的相对位置,与第一显示面中的虚拟球体相对透明全息显示屏相对位置相同。在此基础上,根据第二用户的位置可知,第二显示面上虚拟球体距离第二用户的人眼位置较远,因此,该第二显示面中呈现出的虚拟球体的尺寸会比第一显示面中呈现出的虚拟球体的尺寸小很多。
在图4所示的场景中,第一用户拍打第一显示面中该虚拟球体406之后,该虚拟球体会沿着从左到右且呈现抛物状的运动轨迹不断运动。与此同时,由于该虚拟球体406相对第一用户的人眼位置的距离不断变化,该虚拟球体的直径尺寸会越变越小。如参见图5,在第一显示面的虚拟球体从更靠近第一用户的位置处移动到更靠近第二用户的位置处时,该虚拟球体406的尺寸相对图4中的尺寸明显较小,从而从第一用户的视觉角度看,该虚拟球体在离自己越来越远的同时,看上去也在逐渐变小,从而在第一用户的视觉角度上呈现出与真实球体被跑远之后看上去逐渐变小的真实效果。
类似的,第二显示面一侧呈现出的虚拟球体的运动轨迹与第一显示面中呈现出的虚拟球体的运动轨迹是一致的,在第二显示面中呈现出的虚拟球体会在沿着该运动轨迹运动的过程中尺寸逐渐增大,使得从第二用户的视角看,随着虚拟球体逐渐靠近自己而看上去逐渐变大的效果。
在又一种可能的实现方式中,虚拟交互对象的外观形态特征可以为虚拟交互对象的颜色特征。在该种情况下,可以先结合该输入操作,确定当前时刻之后虚拟交互对象的运动轨迹。
相应的,结合运动轨迹,确定当前时刻之后虚拟交互对象所需呈现的第一颜色的第一颜色变化特征。该第一颜色为虚拟交互对象相对第一用户的人眼位置所需呈现出的颜色。如,第一颜色变化特征可以包括:当前时刻之后至少一个时刻的第一颜色;或者是,当前时刻之后第一颜色的变化规律等。
其中,虚拟交互对象相对第一用户的人眼位置的距离越远,该虚拟交互对象所需呈现的第一颜色越淡。
类似的,结合运动轨迹,可以确定当前时刻之后虚拟交互对象所需呈现的第二颜色的第二颜色变化特征。该第二颜色为虚拟交互对象相对第二用户的人眼位置所需呈现出的颜色。
其中,虚拟交互对象相对第二用户的人眼位置的距离越远,第二虚拟交互对象所需呈现的颜色越淡。
可以理解的是,以上是以外观形态特征的两种可能情况为例说明,在实际应用中,外观形态特征还可以有其他可能,在此不再赘述。
需要说明的,在实际应用中,外观形态特征还可以同时包括多种可能,如前面第一外观形态特征可以同时包括第一尺寸变化特征和该第一颜色变化特征。相应的,可以在透明全息显示屏的第一显示面显示出具有该运动轨迹、第一尺寸变化特征和第一颜色变化特征的虚拟交互对象。
类似的,可以第二外观形态特征可以同时包括第二尺寸变化特征和第二颜色变化特征,然后,可以向透明全息显示屏的第二显示面显示出具有该运动轨迹、第二尺寸变化特征和第二颜色变化特征的虚拟交互对象。
可以理解的是,在透明全息显示屏的两个显示面同时显示不同虚拟场景图像的情况下,为了减少两个显示面显示内容的相互干扰,在本申请中,透明全息显示屏的第一显示面还可以叠加有第一衍射光栅,该透明全息显示屏的第二显示面叠加有第二衍射光栅。
其中,衍射光栅是光栅的一种。它通过有规律的结构,使入射光的振幅或相位(或两者同时)受到周期性空间调制。由于衍射光栅中的缝隙小且密集,因此,即使在透明全息显示屏的显示面上叠加了衍射光栅,但是从用户角度来看衍射光栅是不可见的。
在本申请中透明全息显示屏的显示面上叠加的衍射光栅为可控衍射光栅,因此,可以控制改变该衍射光栅中不同光栅区域的光衍射情况,实现改变相应光栅区域的透光性。
在此基础上,控制设备通过控制这两个衍射光栅,可以实现更好的向第一显示面以及第二显示面分别展现不同的虚拟场景图像。
如,参见图6,其示出了本申请一种图像显示方法又一个实施例的流程示意图,本实施例的方法可以包括:
S601,获得第一用户对透明全息显示屏的第一显示面显示的虚拟交互对象的输入操作。
该第一用户位于透明全息显示屏的第一显示面一侧。
S602,结合输入操作,确定当前时刻之后虚拟交互对象的运动轨迹、虚拟交互对象相对第一用户的人眼位置的第一外观形态特征以及虚拟交互对象相对第二用户的人眼位置的第二外观形态特征。
S603,向透明全息显示屏的第一显示面显示具有运动轨迹和第一外观形态特征的该虚拟交互对象。
以上步骤S601到S603可以参见前面任意一个实施例的相关介绍,在此不再赘述。
S604,控制该第二衍射光栅遮挡具有运动轨迹和第一外观形态特征的虚拟交互对象对应的第一图像光线,使得具有运动轨迹和第一外观形态特征的虚拟交互对象在第二显示面不可见。
其中,为了便于区分,控制设备控制向全息投影设备的第一显示面投射出的具有运动轨迹和第一外观形态特征的虚拟对象对应的图像光线(也可以称为投射光线)称为第一图像光线。相应的,将后续具有该运动轨迹和第二外观形态特征的虚拟对应的图像光线称为第二图像光线。
可以理解的是,在第二衍射光栅遮挡住第一图像光线的基础上,在第二显示面的一侧的用户对于该第一图像光线是不可见的,自然也就无法看到该具有运动轨迹和第一外观形态特征的虚拟交互对象。
其中,本申请中衍射光栅是可调控衍射光栅可以有多种可能情况。
在一种可能的情况中,第一衍射光栅和第二衍射光栅为光栅间距可调的衍射光栅。如,第一衍射光栅和第二衍射光栅的光栅间距为机械可调的。
在该种情况下,控制设备可以向第二衍射光栅发出第一电控信号,该第一电控信号可以为指示第二衍射光栅调整中处于该第一图像光线覆盖的第一子光栅区的光栅物理间距直至处于遮光状态的控制指令。
在又一种可能的实现方式中,该第二衍射光栅为衍射系数可控的衍射光栅。相应的,在以上实施例中,第一电控信号可以用于控制第二衍射光栅中的至少一个第一子光栅区的衍射系数为不透光状态对应的衍射系数。
如,第二衍射光栅为电可控衍射光栅,通过调节施加到第二衍射光栅的不同衍射区域的驱动电压,可以调整相应衍射区域的衍射参数。在此基础上,控制设备可以向第二衍射光栅发出第一电控信号,且该第一电控制信号为用于控制施加到第二衍射光栅中至少一个第一子光栅区的目标驱动电压,第一子光栅区被施加该目标驱动电压,则该第一子光栅区的衍射系数为处于不透光状态对应的衍射系数,第一子光栅区可以第二衍射光栅中能够被第一图像光线覆盖的区域。
当然,此处是以一种电可控衍射光栅调整衍射系数的一种实现方式为例说明,在实际应用中电可控衍射光栅的衍射系数调整方式还可以有其他可能,对此不加限制。
需要说明的是,在实际应用中,步骤S603和S604的顺序并不限于图6,在实际应用中,为了能够更好的保持第一显示面中呈现内容的隐私性,也避免干扰第二显示面的图像呈现,该步骤S603和S604可以同步执行。
S605,向透明全息显示屏的第二显示面显示具有运动轨迹和第二外观形态特征的虚拟交互对象。
该步骤可以参见前面实施例的相关介绍,在此不再赘述。
S606,控制第一衍射光栅遮挡具有运动轨迹和第二外观形态特征的虚拟交互对象对应的第二图像光线,使得具有运动轨迹和第二外观形态特征的虚拟交互对象在第一显示面不可见。
与步骤S604类似,在第一衍射光栅遮挡住第二图像光线的基础双,在第一显示面的一侧的用户对于该第二图像光线是不可见的,自然也就无法看到该具有运动轨迹和第二外观形态特征的虚拟交互对象。
其中,控制第一衍射光栅的具体方式可以有多种。如,在一种可能的情况中,如果第一衍射光栅为光栅间距可调的衍射光栅,控制设备可以向第一衍射光栅发送第二电控制信号。该第二电控制信号为用于控制第一衍射光栅调整其第二子光栅区的光栅物理间距直至处于遮光状态的控制指令。
第一衍射光栅的第二子光栅区可以有一个或者多个,该第二子光栅区为第一衍射光栅中处于第二图像光线的覆盖内的光栅区域。
在又一种可能的情况中,如果第一衍射光栅为衍射系数可控的衍射光栅。相应的,控制设备向第一衍射光栅发从第二电控信号,该第二电控制信号可以用于控制第一衍射光栅中的至少一个第二子光栅区的衍射系数为不透光状态对应的衍射系数。
需要说明的是,S605和S606可以同步执行,以更为可靠的实现第二显示面呈现的虚拟交互对象在第一显示面不可见。
可以理解的是,在本申请中,为了能够实现分别向第一显示面和第二显示面投射不同的虚拟场景图像,还可以根据需要所需投影的显示面,从多个投影装置选择不同的投影装置进行投影。
如,参见图7,其示出了本申请一种图像显示方法又一个实施例的流程示意图,本实施例的方法可以包括:
S701,获得第一用户对透明全息显示屏的第一显示面显示的虚拟交互对象的输入操作。
该第一用户位于透明全息显示屏的第一显示面一侧。
S702,结合输入操作,确定当前时刻之后虚拟交互对象的运动轨迹、虚拟交互对象相对第一用户的人眼位置的第一外观形态特征以及虚拟交互对象相对第二用户的人眼位置的第二外观形态特征。
S703,通过至少一个第一投射光源向全息透明显示屏的第一显示面投射具有运动轨迹和第一外观形态特征的虚拟交互对象。
其中,第一投射光源设置于全息透明显示屏内,或者是,朝向全息透明显示屏。该至少一个第一投射光源属于设置与全息透明显示屏内或者是设置与图像投射系统所在场景内的多个投影光源,且属于能够实现向第一显示面投射图像的投射光源。
如,可以结合图像投射系统中多个投射光源的光投射方向,选取光投射方向朝向该第一显示面的至少一个第一投射光源。
S704,向第二衍射光栅输出第一电控制信号。
其中,该第一电控制信号用于控制第二衍射光栅中处于第一投射光源的光投射区域内的第一子光栅区域处于不透光状态。
第二控制信号控制第一子光栅区域处于不透光状态的具体方式可以参见前面的相关介绍,在此不再赘述。
S705,通过至少一个第二投射光源向全息透明显示屏的第二显示面投射具有运动轨迹和第二外观形态特征的虚拟交互对象。
其中,第二投射光源设置于全息透明显示屏内,或者是,朝向全息透明显示屏。
该第二投射光源为图像投射系统内具有的多个投射光源中,能够向第二显示面投射虚拟图像的投射光源。如,可以从多个投射光源中,选择光投射方向朝向该第二显示面的至少一个第二投射光源。
S706,向第一衍射光栅输出第二电控制信号。
该第二电控制信号用于控制第一衍射光栅中处于第二投射光源的光投射区域内的第二子光栅区域处于不透光状态。第二电控制信号的具体形式可以参见前面实施例的相关介绍,在此不再赘述。
对应本申请的一种图像显示方法,本申请还提供了一种图像显示装置。
如图8所示,其示出了本申请一种图像显示装置一个实施例的组成结构示意图,本实施例的装置可以包括:
操作获得单元801,用于获得第一用户对透明全息显示屏的第一显示面显示的虚拟交互对象的输入操作,所述第一用户位于所述透明全息显示屏的第一显示面一侧;
特征确定单元802,用于结合所述输入操作,确定当前时刻之后所述虚拟交互对象的运动轨迹、所述虚拟交互对象相对所述第一用户的人眼位置的第一外观形态特征以及所述虚拟交互对象相对第二用户的人眼位置的第二外观形态特征,所述第二用户位于所述透明全息显示屏的第二显示面一侧;
第一显示控制单元803,用于向所述透明全息显示屏的第一显示面显示具有所述运动轨迹和第一外观形态特征的所述虚拟交互对象;
第二显示控制单元804,用于向所述透明全息显示屏的第二显示面显示具有所述运动轨迹和第二外观形态特征的所述虚拟交互对象。
在一种可能的实现方式中,所述特征确定单元,包括:
轨迹确定单元,用于结合所述输入操作,确定当前时刻之后所述虚拟交互对象的运动轨迹;
第一尺寸确定单元,用于结合所述运动轨迹,确定当前时刻之后所述虚拟交互对象的第一尺寸对应的第一尺寸变化特征,所述第一尺寸为所述虚拟交互对象相对所述第一用户的人眼位置的尺寸;
第二尺寸确定单元,用于结合所述运动轨迹,确定当前时刻之后所述虚拟交互对象的第二尺寸对应的第二尺寸变化特征,所述第二尺寸为所述虚拟交互对象相对所述第二用户的人眼位置的尺寸;
其中,虚拟交互对象相对用户的人眼位置的距离越远,所述虚拟交互对象相对所述用户的人眼的尺寸越大,所述用户为所述第一用户和第二用户中任意一个。
在一种可选方式中,所述特征确定单元,还包括:
第一颜色确定单元,用于结合所述运动轨迹,确定当前时刻之后所述虚拟交互对象所需呈现的第一颜色的第一颜色变化特征,所述第一颜色为所述虚拟交互对象相对所述第一用户的人眼位置所需呈现出的颜色;
第二颜色确定单元,用于结合所述运动轨迹,确定当前时刻之后所述虚拟交互对象所需呈现的第二颜色的第二颜色变化特征,所述第二颜色为所述虚拟交互对象相对所述第二用户的人眼位置所需呈现出的颜色;
其中,所述虚拟交互对象相对所述用户的人眼位置的距离越远,所述虚拟交互对象所需呈现的颜色越淡。
在又一种可能的实现方式中,所述透明全息显示屏的第一显示面叠加有第一衍射光栅,所述透明全息显示屏的第二显示面叠加有第二衍射光栅;
所述装置还包括:
第一光栅控制单元,用于控制所述第二衍射光栅遮挡具有所述运动轨迹和第一外观形态特征的所述虚拟交互对象对应的第一图像光线,使得具有所述运动轨迹和第一外观形态特征的所述虚拟交互对象在所述第二显示面不可见;
第二光栅控制单元,用于控制所述第一衍射光栅遮挡具有所述运动轨迹和第二外观形态特征的所述虚拟交互对象对应的第二图像光线,使得具有所述运动轨迹和第二外观形态特征的所述虚拟交互对象在所述第一显示面不可见。
在又一种可能的实现方式中,第一显示控制单元,具体为,用于通过至少一个第一投射光源向所述全息透明显示屏的第一显示面投射具有所述运动轨迹和第一外观形态特征的所述虚拟交互对象,所述第一投射光源设置于所述全息透明显示屏内,或者是,朝向所述全息透明显示屏;
该第一光栅控制单元,具体为,用于向所述第二衍射光栅输出第一电控制信号,所述第一电控制信号用于控制所述第二衍射光栅中处于所述第一投射光源的光投射区域内的第一子光栅区域处于不透光状态。
在又一种可能的实现方式中,第二显示控制单元具体为,用于通过至少一个第二投射光源向所述全息透明显示屏的第二显示面投射具有所述运动轨迹和第二外观形态特征的所述虚拟交互对象,所述第二投射光源设置于所述全息透明显示屏内,或者是,朝向所述全息透明显示屏。
第二光栅控制单元,具体为,用于向所述第一衍射光栅输出第二电控制信号,所述第二电控制信号用于控制所述第一衍射光栅中处于所述第二投射光源的光投射区域内的第二子光栅区域处于不透光状态。
又一方面,本申请还提供了一种电子设备,如图9所示,其示出了该电子设备的一种组成结构示意图,该电子设备可以为任意类型的电子设备,该电子设备至少包括存储器901和处理器902;
其中,处理器901用于执行如上任意一个实施例中的图像显示方法。
该存储器902用于存储处理器执行操作所需的程序。
可以理解的是,该电子设备还可以包括显示单元903以及输入单元904。
当然,该电子设备还可以具有比图9更多或者更少的部件,对此不加限制。
另一方面,本申请还提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由处理器加载并执行以实现如上任意一个实施例所述的图像显示方法。
本申请还提出了一种计算机程序,该计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机程序在电子设备上运行时,用于执行如上任意一个实施例中的图像显示方法。
需要说明的是,本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。同时,本说明书中各实施例中记载的特征可以相互替换或者组合,使本领域专业技术人员能够实现或使用本申请。对于装置类实施例而言,由于其与方法实施例基本相似,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括要素的过程、方法、物品或者设备中还存在另外的相同要素。
对所公开的实施例的上述说明,使本领域技术人员能够实现或使用本申请。对这些实施例的多种修改对本领域技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本申请的精神或范围的情况下,在其它实施例中实现。因此,本申请将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (10)
1.一种图像显示方法,包括:
获得第一用户对透明全息显示屏的第一显示面显示的虚拟交互对象的输入操作,所述第一用户位于所述透明全息显示屏的第一显示面一侧;
结合所述输入操作,确定当前时刻之后所述虚拟交互对象的运动轨迹、所述虚拟交互对象相对所述第一用户的人眼位置的第一外观形态特征以及所述虚拟交互对象相对第二用户的人眼位置的第二外观形态特征,所述第二用户位于所述透明全息显示屏的第二显示面一侧;
向所述透明全息显示屏的第一显示面显示具有所述运动轨迹和第一外观形态特征的所述虚拟交互对象;
向所述透明全息显示屏的第二显示面显示具有所述运动轨迹和第二外观形态特征的所述虚拟交互对象。
2.根据权利要求1所述的方法,所述结合所述输入操作,确定当前时刻之后所述虚拟交互对象的运动轨迹、所述虚拟交互对象相对所述第一用户的人眼位置的第一外观形态特征以及所述虚拟交互对象相对第二用户的人眼位置的第二外观形态特征,包括:
结合所述输入操作,确定当前时刻之后所述虚拟交互对象的运动轨迹;
结合所述运动轨迹,确定当前时刻之后所述虚拟交互对象的第一尺寸对应的第一尺寸变化特征,所述第一尺寸为所述虚拟交互对象相对所述第一用户的人眼位置的尺寸;
结合所述运动轨迹,确定当前时刻之后所述虚拟交互对象的第二尺寸对应的第二尺寸变化特征,所述第二尺寸为所述虚拟交互对象相对所述第二用户的人眼位置的尺寸;
其中,虚拟交互对象相对用户的人眼位置的距离越远,所述虚拟交互对象相对所述用户的人眼的尺寸越大,所述用户为所述第一用户和第二用户中任意一个。
3.根据权利要求2所述的方法,所述结合所述输入操作,确定当前时刻之后所述虚拟交互对象的运动轨迹、所述虚拟交互对象相对所述第一用户的人眼位置的第一外观形态特征以及所述虚拟交互对象相对第二用户的人眼位置的第二外观形态特征,还包括:
结合所述运动轨迹,确定当前时刻之后所述虚拟交互对象所需呈现的第一颜色的第一颜色变化特征,所述第一颜色为所述虚拟交互对象相对所述第一用户的人眼位置所需呈现出的颜色;
结合所述运动轨迹,确定当前时刻之后所述虚拟交互对象所需呈现的第二颜色的第二颜色变化特征,所述第二颜色为所述虚拟交互对象相对所述第二用户的人眼位置所需呈现出的颜色;
其中,所述虚拟交互对象相对所述用户的人眼位置的距离越远,所述虚拟交互对象所需呈现的颜色越淡。
4.根据权利要求1所述的方法,所述透明全息显示屏的第一显示面叠加有第一衍射光栅,所述透明全息显示屏的第二显示面叠加有第二衍射光栅;
所述方法还包括:
控制所述第二衍射光栅遮挡具有所述运动轨迹和第一外观形态特征的所述虚拟交互对象对应的第一图像光线,使得具有所述运动轨迹和第一外观形态特征的所述虚拟交互对象在所述第二显示面不可见;
控制所述第一衍射光栅遮挡具有所述运动轨迹和第二外观形态特征的所述虚拟交互对象对应的第二图像光线,使得具有所述运动轨迹和第二外观形态特征的所述虚拟交互对象在所述第一显示面不可见。
5.根据权利要求4所述的方法,所述向所述透明全息显示屏的第一显示面显示具有所述运动轨迹和第一外观形态特征的所述虚拟交互对象,包括:
通过至少一个第一投射光源向所述全息透明显示屏的第一显示面投射具有所述运动轨迹和第一外观形态特征的所述虚拟交互对象,所述第一投射光源设置于所述全息透明显示屏内,或者是,朝向所述全息透明显示屏;
所述控制所述第二衍射光栅遮挡具有所述运动轨迹和第一外观形态特征的所述虚拟交互对象对应的第一图像光线,包括:
向所述第二衍射光栅输出第一电控制信号,所述第一电控制信号用于控制所述第二衍射光栅中处于所述第一投射光源的光投射区域内的第一子光栅区域处于不透光状态。
6.根据权利要求4所述的方法,所述向所述透明全息显示屏的第二显示面显示具有所述运动轨迹和第二外观形态特征的所述虚拟交互对象,包括:
通过至少一个第二投射光源向所述全息透明显示屏的第二显示面投射具有所述运动轨迹和第二外观形态特征的所述虚拟交互对象,所述第二投射光源设置于所述全息透明显示屏内,或者是,朝向所述全息透明显示屏;
所述控制所述第一衍射光栅遮挡具有所述运动轨迹和第二外观形态特征的所述虚拟交互对象对应的第二图像光线,包括:
向所述第一衍射光栅输出第二电控制信号,所述第二电控制信号用于控制所述第一衍射光栅中处于所述第二投射光源的光投射区域内的第二子光栅区域处于不透光状态。
7.一种图像显示装置,包括:
操作获得单元,用于获得第一用户对透明全息显示屏的第一显示面显示的虚拟交互对象的输入操作,所述第一用户位于所述透明全息显示屏的第一显示面一侧;
特征确定单元,用于结合所述输入操作,确定当前时刻之后所述虚拟交互对象的运动轨迹、所述虚拟交互对象相对所述第一用户的人眼位置的第一外观形态特征以及所述虚拟交互对象相对第二用户的人眼位置的第二外观形态特征,所述第二用户位于所述透明全息显示屏的第二显示面一侧;
第一显示控制单元,用于向所述透明全息显示屏的第一显示面显示具有所述运动轨迹和第一外观形态特征的所述虚拟交互对象;
第二显示控制单元,用于向所述透明全息显示屏的第二显示面显示具有所述运动轨迹和第二外观形态特征的所述虚拟交互对象。
8.根据权利要求7所述的装置,所述特征确定单元,包括:
轨迹确定单元,用于结合所述输入操作,确定当前时刻之后所述虚拟交互对象的运动轨迹;
第一尺寸确定单元,用于结合所述运动轨迹,确定当前时刻之后所述虚拟交互对象的第一尺寸对应的第一尺寸变化特征,所述第一尺寸为所述虚拟交互对象相对所述第一用户的人眼位置的尺寸;
第二尺寸确定单元,用于结合所述运动轨迹,确定当前时刻之后所述虚拟交互对象的第二尺寸对应的第二尺寸变化特征,所述第二尺寸为所述虚拟交互对象相对所述第二用户的人眼位置的尺寸;
其中,虚拟交互对象相对用户的人眼位置的距离越远,所述虚拟交互对象相对所述用户的人眼的尺寸越大,所述用户为所述第一用户和第二用户中任意一个。
9.根据权利要求8所述的装置,所述特征确定单元,还包括:
第一颜色确定单元,用于结合所述运动轨迹,确定当前时刻之后所述虚拟交互对象所需呈现的第一颜色的第一颜色变化特征,所述第一颜色为所述虚拟交互对象相对所述第一用户的人眼位置所需呈现出的颜色;
第二颜色确定单元,用于结合所述运动轨迹,确定当前时刻之后所述虚拟交互对象所需呈现的第二颜色的第二颜色变化特征,所述第二颜色为所述虚拟交互对象相对所述第二用户的人眼位置所需呈现出的颜色;
其中,所述虚拟交互对象相对所述用户的人眼位置的距离越远,所述虚拟交互对象所需呈现的颜色越淡。
10.根据权利要求7所述的装置,所述透明全息显示屏的第一显示面叠加有第一衍射光栅,所述透明全息显示屏的第二显示面叠加有第二衍射光栅;
所述装置还包括:
第一光栅控制单元,用于控制所述第二衍射光栅遮挡具有所述运动轨迹和第一外观形态特征的所述虚拟交互对象对应的第一图像光线,使得具有所述运动轨迹和第一外观形态特征的所述虚拟交互对象在所述第二显示面不可见;
第二光栅控制单元,用于控制所述第一衍射光栅遮挡具有所述运动轨迹和第二外观形态特征的所述虚拟交互对象对应的第二图像光线,使得具有所述运动轨迹和第二外观形态特征的所述虚拟交互对象在所述第一显示面不可见。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111037975.8A CN113703582A (zh) | 2021-09-06 | 2021-09-06 | 图像显示方法和装置 |
US17/679,661 US20230071571A1 (en) | 2021-09-06 | 2022-02-24 | Image display method and apparatus |
GB2205263.3A GB2610889B (en) | 2021-09-06 | 2022-04-11 | Image display method and apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111037975.8A CN113703582A (zh) | 2021-09-06 | 2021-09-06 | 图像显示方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113703582A true CN113703582A (zh) | 2021-11-26 |
Family
ID=78660383
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111037975.8A Pending CN113703582A (zh) | 2021-09-06 | 2021-09-06 | 图像显示方法和装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20230071571A1 (zh) |
CN (1) | CN113703582A (zh) |
GB (1) | GB2610889B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115191788A (zh) * | 2022-07-14 | 2022-10-18 | 慕思健康睡眠股份有限公司 | 一种基于智能床垫的体感互动方法及相关产品 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020084974A1 (en) * | 1997-09-01 | 2002-07-04 | Toshikazu Ohshima | Apparatus for presenting mixed reality shared among operators |
WO2019178635A1 (en) * | 2018-03-21 | 2019-09-26 | Euclideon Holographics Pty Ltd | Computer assisted virtual reality display system |
CN110673735A (zh) * | 2019-09-30 | 2020-01-10 | 长沙自由视像信息科技有限公司 | 全息虚拟人ar互动展示方法、装置及设备 |
CN110673340A (zh) * | 2019-09-24 | 2020-01-10 | 歌尔科技有限公司 | 增强现实设备的控制方法及增强现实设备 |
CN111862341A (zh) * | 2020-07-09 | 2020-10-30 | 北京市商汤科技开发有限公司 | 虚拟对象的驱动方法、装置、显示设备及计算机存储介质 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103248905A (zh) * | 2013-03-22 | 2013-08-14 | 深圳市云立方信息科技有限公司 | 一种模仿全息3d场景的显示装置和视觉显示方法 |
US9158189B2 (en) * | 2014-02-11 | 2015-10-13 | Disney Enterprises, Inc. | Display system with a transparent projection surface with reduced blow-by |
US20160327729A1 (en) * | 2015-05-07 | 2016-11-10 | Taptl, LLC | Transparent display device |
WO2017127897A1 (en) * | 2016-01-27 | 2017-08-03 | Paul Lapstun | Shuttered waveguide light field display |
CN106886289B (zh) * | 2017-04-02 | 2023-05-23 | 浙江工业大学 | 一种双用户互动的全息显示装置 |
US10627911B2 (en) * | 2017-04-25 | 2020-04-21 | International Business Machines Corporation | Remote interaction with content of a transparent display |
US10701308B2 (en) * | 2017-07-31 | 2020-06-30 | Noah Zimmerman | Methods and systems for a natural and realistic telepresence experience |
US11982906B1 (en) * | 2018-03-05 | 2024-05-14 | Beam Engineering For Advanced Measurements Co. | Polarization-independent diffractive optical structures |
CN110146989A (zh) * | 2019-05-21 | 2019-08-20 | 京东方科技集团股份有限公司 | 光波导元件及其显示方法、显示装置及其显示方法 |
US10924639B2 (en) * | 2019-05-29 | 2021-02-16 | Disney Enterprises, Inc. | System and method for polarization and wavelength gated transparent displays |
-
2021
- 2021-09-06 CN CN202111037975.8A patent/CN113703582A/zh active Pending
-
2022
- 2022-02-24 US US17/679,661 patent/US20230071571A1/en active Pending
- 2022-04-11 GB GB2205263.3A patent/GB2610889B/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020084974A1 (en) * | 1997-09-01 | 2002-07-04 | Toshikazu Ohshima | Apparatus for presenting mixed reality shared among operators |
WO2019178635A1 (en) * | 2018-03-21 | 2019-09-26 | Euclideon Holographics Pty Ltd | Computer assisted virtual reality display system |
CN110673340A (zh) * | 2019-09-24 | 2020-01-10 | 歌尔科技有限公司 | 增强现实设备的控制方法及增强现实设备 |
CN110673735A (zh) * | 2019-09-30 | 2020-01-10 | 长沙自由视像信息科技有限公司 | 全息虚拟人ar互动展示方法、装置及设备 |
CN111862341A (zh) * | 2020-07-09 | 2020-10-30 | 北京市商汤科技开发有限公司 | 虚拟对象的驱动方法、装置、显示设备及计算机存储介质 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115191788A (zh) * | 2022-07-14 | 2022-10-18 | 慕思健康睡眠股份有限公司 | 一种基于智能床垫的体感互动方法及相关产品 |
CN115191788B (zh) * | 2022-07-14 | 2023-06-23 | 慕思健康睡眠股份有限公司 | 一种基于智能床垫的体感互动方法及相关产品 |
Also Published As
Publication number | Publication date |
---|---|
GB202205263D0 (en) | 2022-05-25 |
US20230071571A1 (en) | 2023-03-09 |
GB2610889B (en) | 2024-05-15 |
GB2610889A (en) | 2023-03-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8570372B2 (en) | Three-dimensional imager and projection device | |
Wozniak et al. | Possible applications of the LEAP motion controller for more interactive simulated experiments in augmented or virtual reality | |
US8890812B2 (en) | Graphical user interface adjusting to a change of user's disposition | |
US10481755B1 (en) | Systems and methods to present virtual content in an interactive space | |
US9886102B2 (en) | Three dimensional display system and use | |
US10739936B2 (en) | Zero parallax drawing within a three dimensional display | |
EP3106963B1 (en) | Mediated reality | |
US9703400B2 (en) | Virtual plane in a stylus based stereoscopic display system | |
Tatzgern et al. | Exploring real world points of interest: Design and evaluation of object-centric exploration techniques for augmented reality | |
US10469834B2 (en) | Stereoscopic display | |
US11057612B1 (en) | Generating composite stereoscopic images usually visually-demarked regions of surfaces | |
Toyama et al. | A natural interface for multi-focal plane head mounted displays using 3D gaze | |
US20190138207A1 (en) | Mediated reality | |
Broll | Augmented reality | |
Valkov et al. | Touching Floating Objects in Projection-based Virtual Reality Environments. | |
CN113703582A (zh) | 图像显示方法和装置 | |
Shumaker et al. | Virtual, Augmented and Mixed Reality | |
Ismail et al. | Implementation of natural hand gestures in holograms for 3D object manipulation | |
US12205219B1 (en) | Nested stereoscopic projections | |
Arslan et al. | E-Pad: Large display pointing in a continuous interaction space around a mobile device | |
Delamare et al. | Designing disambiguation techniques for pointing in the physical world | |
CN108829478A (zh) | 窗口显示方法及电子设备、计算机存储介质 | |
US11417055B1 (en) | Integrated display rendering | |
RE | Low cost augmented reality for industrial problems | |
Hamadouche | Augmented reality X-ray vision on optical see-through head mounted displays |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |