WO2022254833A1 - Information processing device, information processing method, and program recording medium - Google Patents
Information processing device, information processing method, and program recording medium Download PDFInfo
- Publication number
- WO2022254833A1 WO2022254833A1 PCT/JP2022/008177 JP2022008177W WO2022254833A1 WO 2022254833 A1 WO2022254833 A1 WO 2022254833A1 JP 2022008177 W JP2022008177 W JP 2022008177W WO 2022254833 A1 WO2022254833 A1 WO 2022254833A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- signal
- viewpoint position
- user
- information processing
- phase
- Prior art date
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 54
- 238000003672 processing method Methods 0.000 title claims description 8
- 238000012937 correction Methods 0.000 claims abstract description 77
- 238000009877 rendering Methods 0.000 claims abstract description 31
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 claims abstract description 17
- 238000000034 method Methods 0.000 claims description 45
- 230000008569 process Effects 0.000 claims description 35
- 230000002194 synthesizing effect Effects 0.000 claims description 20
- 238000006243 chemical reaction Methods 0.000 claims description 18
- 230000015572 biosynthetic process Effects 0.000 claims description 12
- 238000003786 synthesis reaction Methods 0.000 claims description 12
- 230000000644 propagated effect Effects 0.000 claims description 9
- 230000001678 irradiating effect Effects 0.000 claims description 2
- 230000015556 catabolic process Effects 0.000 abstract 1
- 238000006731 degradation reaction Methods 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 35
- 238000012986 modification Methods 0.000 description 34
- 230000004048 modification Effects 0.000 description 34
- 230000008859 change Effects 0.000 description 28
- 210000003128 head Anatomy 0.000 description 20
- 238000004364 calculation method Methods 0.000 description 14
- 238000012545 processing Methods 0.000 description 13
- 230000000694 effects Effects 0.000 description 12
- 230000003287 optical effect Effects 0.000 description 11
- 230000006870 function Effects 0.000 description 5
- 238000001514 detection method Methods 0.000 description 4
- 230000006866 deterioration Effects 0.000 description 4
- 230000001427 coherent effect Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000001131 transforming effect Effects 0.000 description 3
- 230000015654 memory Effects 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 208000013057 hereditary mucoepithelial dysplasia Diseases 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03H—HOLOGRAPHIC PROCESSES OR APPARATUS
- G03H1/00—Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
- G03H1/04—Processes or apparatus for producing holograms
- G03H1/08—Synthesising holograms, i.e. holograms synthesized from objects or objects from holograms
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03H—HOLOGRAPHIC PROCESSES OR APPARATUS
- G03H1/00—Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
- G03H1/22—Processes or apparatus for obtaining an optical image from holograms
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
Definitions
- the present disclosure relates to an information processing device, an information processing method, and a recording medium recording a program.
- VR virtual reality
- HMD head-mounted display
- rendering is performed based on the detected positions of the user's head and eyes.
- Eye position is constantly moving. Therefore, there is a time lag (latency) between the detection of the position of the user's head and eyes and the display of the image, and as a result, the actual movement of the user's head and eyes when viewing the displayed image.
- the problem arises that the positions are different from the user's head and eye positions used for rendering, making it difficult to provide the user with a smooth viewing experience.
- Time warp processing exists as a way to deal with such problems.
- Time warp processing detects the positions of the user's head and eyes immediately before displaying the image after the image is generated by rendering, and compensates for the displayed image based on the detected positions. This technology reduces the gap between the position of the head and eyes at the time of viewing and the displayed image.
- AR augmented reality
- CGH computer-generated holograms
- the present disclosure proposes an information processing device, an information processing method, and a recording medium that records a program that can suppress deterioration of the user's viewing experience.
- an information processing apparatus includes a viewpoint position acquisition unit that acquires a viewpoint position of a user, a rendering unit that generates a rendering image based on the viewpoint position, and A wavefront propagation unit that generates a propagation signal representing a hologram based on a rendered image; a phase signal generation unit that generates a first phase signal for displaying a hologram based on the propagation signal; a correction unit that performs correction based on the current viewpoint position of the user acquired by the viewpoint position acquisition unit.
- FIG. 1 is a schematic diagram for explaining the outline of a hologram display system according to a first embodiment
- FIG. 1 is a simplified schematic diagram of a hologram display system according to a first embodiment
- FIG. FIG. 3 is a diagram obtained by rotating the schematic diagram shown in FIG. 2
- 1 is a block diagram showing a schematic configuration example of a hologram display system according to a first embodiment
- FIG. 4 is a flowchart showing an operation example of the hologram display system according to the first embodiment
- 6 is a diagram showing a specific example for explaining step S102 of FIG. 5 according to the first embodiment
- FIG. FIG. 4 is a diagram showing an example of RGB image data according to the first embodiment
- FIG. 4 is a diagram for explaining a case where a user's viewpoint position changes between time T1 and time T2 according to the first embodiment;
- FIG. 4 is a diagram showing an example of a linear phase pattern in the x direction according to the first embodiment;
- FIG. 10 is a diagram showing an example of a phase pattern when the compensating phase pattern shown in FIG. 9 has a period of 0 to 2 ⁇ ;
- 11 is a two-dimensional image expressing the compensating phase pattern shown in FIG. 10 in grayscale;
- FIG. 4 is a diagram for explaining a case where a user's viewpoint position changes between time T1 and time T2 according to the first embodiment;
- FIG. 4 is a diagram showing an example of a linear phase pattern in the x direction according to the first embodiment;
- FIG. 10 is a diagram showing an example of a phase pattern when the compensating phase pattern shown
- FIG. 9 is a timing chart for explaining the operation flow according to Modification 1 of the first embodiment
- FIG. FIG. 10 is a diagram showing an example of a pre-computed one-dimensional compensation phase pattern according to Modification 3 of the first embodiment
- 15 is a two-dimensional image obtained by two-dimensionally representing the compensating phase pattern shown in FIG. 14
- FIG. 11 is a diagram showing an example of a y-direction compensating phase pattern according to Modification 4 of the first embodiment
- FIG. 11 is a diagram showing an example of compensation phase patterns in the x-direction and the y-direction according to Modification 4 of the first embodiment
- FIG. 11 is a block diagram showing a schematic configuration example of a hologram display system according to a second embodiment
- FIG. 9 is a flowchart showing an operation example of the hologram display system according to the second embodiment
- FIG. 11 is a schematic diagram for explaining an outline of an AR HUD system using CGH according to the third embodiment
- 1 is a block diagram showing a hardware configuration example of an information processing apparatus according to an embodiment
- an information processing apparatus, an information processing method, and a recording medium storing a program according to a first embodiment of the present disclosure will be described in detail with reference to the drawings.
- an AR device using an optical see-through HMD is exemplified as a hologram display system to which the information processing apparatus, information processing method, and program according to the embodiment are applied. is not limited to
- FIG. 1 is a schematic diagram for explaining the outline of the hologram display system according to this embodiment.
- (A) to (F) indicate respective schematic positions.
- this embodiment exemplifies a hologram display system 1 including a light source 11, an enlarging optical system composed of a plurality of lenses 12 and 13, a beam splitter 14, and a spatial light modulator 15. do.
- a laser beam L1 emitted from a light source 11 at position (D) is converted into coherent light L2 with an enlarged beam diameter by an expansion optical system composed of a plurality of lenses 12 and 13 at position (C). be done.
- the coherent light L 2 passes through the beam splitter 14 and enters the spatial light modulator 15 .
- a reflective SLM is exemplified as the spatial light modulator 15, but it is not limited to this, and may be a transmissive SLM. Also, in this description, a phase-only SLM is exemplified, but the present invention is not limited to this, and an amplitude-only SLM may be used.
- the coherent light L2 is modulated by the spatial light modulator 15 so as to display a hologram at a desired display position (E) in real space.
- the beam splitter 14 at the position (B) is arranged so that a viewer (hereinafter referred to as a user) 19 at the position (viewpoint position (F)) can observe the hologram 18 reproduced by the spatial light modulator 15. For example, Projected at the display position (E) on the real space. A user 19 at the viewpoint position (F) can see the hologram 18 superimposed on the real space seen through the beam splitter 14 by observing the direction of the display position (E).
- the hologram display system can make a virtual object or the like appear in the real space, direct an object in the real space with a special effect or the like, or present predetermined information to the user. experience can be provided.
- FIG. 1 the schematic diagram of the hologram display system 1 illustrated in FIG. 1 can be simplified as shown in FIG.
- the spatial light modulator 15 of FIG. 1 which was of a reflective type, is changed to a transmissive type.
- FIG. 3 is a diagram rotated 90 degrees to the right to make the schematic diagram shown in FIG. 2 easier to see.
- FIG. 4 is a block diagram showing a schematic configuration example of the hologram display system according to this embodiment.
- the hologram display system 1 includes a viewpoint position acquisition unit 110, a rendering unit 120, a wavefront propagation unit 130, a viewpoint position change calculation unit 140, and a correction signal generation unit 150. , a complex signal synthesizing unit 160 , an interference fringe transforming unit 170 , and an output device 180 .
- the complex signal synthesizing unit 160 and the interference fringe transforming unit 170 can correspond to, for example, an example of the phase signal generating unit in the scope of claims.
- the viewpoint position change calculation unit 140 and the correction signal generation unit 150 can correspond to an example of the correction unit in the claims, for example.
- the viewpoint position acquisition unit 110 receives input from a sensor such as an IMU (Inertial Measurement Unit) provided in an HMD worn on the head of the user 19 or a camera that acquires images of the eyes and face of the user 19, for example. Based on the information, information about the viewpoint position (F) of the user 19 (hereinafter referred to as viewpoint position information) is acquired.
- a sensor such as an IMU (Inertial Measurement Unit) provided in an HMD worn on the head of the user 19 or a camera that acquires images of the eyes and face of the user 19, for example.
- viewpoint position information information about the viewpoint position (F) of the user 19
- the viewpoint position information may be the position of the viewpoint of the user 19 in the physical space. Further, the position of the viewpoint of the user 19 in the physical space may be the position of both eyes or one eye of the user 19 in the physical space, or the position of the head of the user 19 in the physical space. good too.
- the viewpoint position information may include information regarding the orientation of both eyes or one eye or the head of the user 19 in addition to the information regarding the position of the user's 19 eyes or one eye or the head.
- the viewpoint position acquisition unit 110 may acquire the viewpoint position of the user 19 in the physical space by SLAM (Simultaneous Localization and Mapping). Furthermore, the viewpoint position acquisition unit 110 predicts the viewpoint position after a predetermined time (for example, a preset time) has elapsed from the current viewpoint position (F), and acquires this predicted viewpoint position as the user's viewpoint position.
- SLAM Simultaneous Localization and Mapping
- the rendering unit 120 renders the three-dimensional image information 101 of the object displayed as a hologram based on the viewpoint position information input from the viewpoint position acquisition unit 110, thereby obtaining RGB image data representing the texture of the object and Generate a depth map representing depth.
- a set of RGB image data and a depth map indicating the depth value of each pixel of the RGB image data is also called RGB+D image data or rendered image.
- the wavefront propagation unit 130 propagates the RGB+D image data generated by the rendering unit 120 to generate a propagation signal of the hologram pattern displayed by the spatial light modulator 15 .
- the viewpoint position change calculation unit 140 calculates the viewpoint position information acquired by the viewpoint position acquisition unit 110 when the rendering unit 120 renders the three-dimensional image information 101 (that is, the viewpoint position information used by the rendering unit 120 for rendering the three-dimensional image information 101).
- the difference between the viewpoint position (F) of the user 19 in the viewpoint position information acquired by the viewpoint position acquisition unit 110 and the viewpoint position of the user 19 in the current viewpoint position information acquired by the viewpoint position acquisition unit 110 is It is calculated as a viewpoint position change amount.
- the correction signal generation unit 150 generates a correction signal for correcting the propagation signal of the hologram pattern generated by the wavefront propagation unit 130 based on the viewpoint position change amount calculated by the viewpoint position change calculation unit 140 .
- the complex signal synthesizing unit 160 synthesizes the propagation signal generated by the wavefront propagating unit 130 and the correction signal generated by the correction signal generating unit 150 to generate a complex signal of the hologram pattern.
- the interference fringe conversion unit 170 converts the complex signal generated by the complex signal synthesis unit 160 to generate a phase signal for displaying the hologram pattern on the spatial light modulator 15 .
- the output device 180 displays the phase signal generated by the interference fringe converter 170 on the spatial light modulator 15 . As a result, the hologram is superimposed on the real space and displayed to the user 19 .
- FIG. 5 is a flowchart showing an operation example of the hologram display system according to this embodiment.
- the operation of the hologram display system 1 includes a first half step S100 of generating a propagation signal of the hologram pattern based on the viewpoint position (F) of the user 19 at a certain time (time T1);
- the hologram pattern is corrected based on the viewpoint position (F′) of the user 19 at the time immediately before the display (time T2), and the second half step S200 of displaying the corrected hologram pattern.
- a first half step S100 of generating a propagation signal of the hologram pattern based on the viewpoint position (F) of the user 19 at a certain time (time T1) The hologram pattern is corrected based on the viewpoint position (F′) of the user 19 at the time immediately before the display (time T2), and the second half step S200 of displaying the corrected hologram pattern.
- Step S101 As shown in FIG. 5, in the first half step S100, first, the viewpoint position acquisition unit 110, for example, based on sensor information from a sensor such as an IMU provided in an HMD or the like worn on the head of the user 19, , the viewpoint position information of the user 19 at time T1 is obtained (step S101).
- the acquired viewpoint position information may include a time stamp indicating the time T1 at which the viewpoint position information was acquired.
- the acquired viewpoint position information is input to the rendering unit 120 and the viewpoint position change calculation unit 140 .
- Step S102 the rendering unit 120 renders the externally input three-dimensional image information 101 based on the viewpoint position (F) of the user 19 indicated by the viewpoint position information at time T1, thereby generating an RGB image representing the texture of the object. Data and a depth map representing the depth of the object are generated (step S102).
- FIG. 6 is a diagram showing a specific example for explaining step S102 in FIG. 6, in the simplified schematic diagram shown in FIG. 2, the initial position is 500 mm (millimeters) forward from the viewpoint position (F) of the user 19 (for example, the position of the right eye).
- the initial position is 500 mm (millimeters) forward from the viewpoint position (F) of the user 19 (for example, the position of the right eye).
- a case where three-dimensional image information 101 for displaying a distant point object 18a is input to the rendering unit 120 will be illustrated.
- the spatial light modulator 15 is assumed to be arranged at a position 100 mm (millimeters) away from the viewpoint position (right eye) of the user 19 in front.
- FIG. 7A is a diagram showing an example of RGB image data 18RGB when the hologram of the point object 18a shown in FIG. 6 is displayed to the user.
- FIG. 10 is a diagram showing an example of a depth map 18D displayed for .
- the rendering unit 120 sets black to areas where there is no image to be projected. Further, as shown in FIG. 6, when displaying the hologram of the point object 18a 500 mm away from the viewpoint position (F) to the user 19, as shown in FIG. are given colored pixel values corresponding to the texture of the point object 18a, and pixels in the other regions are given black pixel values to generate RGB image data 18RGB. That is, the rendering unit 120 sets black to areas where there is no image to be projected. Further, as shown in FIG.
- the rendering unit 120 gives, for example, a depth value corresponding to 400 mm, which is the distance from the spatial light modulator 15 to the point object 18a, to pixels in the area of the point object 18a, and A depth map 18D is generated in which white pixel values indicating that the distance from the spatial light modulator 15 is infinite are given to the pixels in the other area.
- Step S103 the wavefront propagation unit 130 wavefront propagates the RGB+D image data generated in step S102, so that the hologram pattern at the position (hereinafter also referred to as the SLM position) (A) where the spatial light modulator 15 is arranged is generated (step S103).
- Arithmetic processing for generating a propagation signal of a hologram pattern depends on the type of spatial light modulator 15, propagation distance, and encoding technique.
- a case where a phase-only liquid crystal on silicon (LCoS) is used as the spatial light modulator 15 will be exemplified.
- the wavefront propagation can be expressed by the Fresnel diffraction formula.
- a dual-phase encoding algorithm can also be used for phase-only encoding. The propagation formula and encoding algorithm according to this embodiment will be described below.
- the wavefront propagating unit 130 propagates the wavefront of each point represented in units of pixels in FIGS. 7A and 7B by using Fresnel's wavefront diffraction formula shown in Equation (1) below.
- z indicates the distance from the display position (E) on the real space where each point is displayed to the SLM position (A) where the spatial light modulator 15 is arranged.
- the distance (400 mm) from the display position (E) in the real space where the point object 18a is displayed to the SLM position (A) where the spatial light modulator 15 is arranged is Set as the value of z.
- the wavefront propagation unit 130 sets the value of z for all points and causes wavefront propagation for each point using equation (1), thereby generating a propagation signal of the hologram pattern for all points.
- the values of all points are summed to generate the hologram pattern, as shown in equation (1).
- Other wave propagation functions that can be used to generate the hologram pattern at SLM position A can also be used.
- the wavefront propagation unit 130 Through the processing of step S103, the wavefront propagation unit 130 generates a propagation signal representing a complex number that displays a hologram at the SLM position (A).
- the generated propagation signal is input to the complex signal synthesizing section 160 .
- Step S201 Subsequently, in the second half step S200, first, similar to step S101, the viewpoint position acquisition unit 110, for example, based on sensor information from a sensor such as an IMU provided in the HMD or the like worn on the head of the user 19. Thus, viewpoint position information of the user 19 at time T2 is obtained (step S201). The acquired viewpoint position information is input to the viewpoint position change calculation unit 140 .
- Step S202 the viewpoint position change calculation unit 140 calculates the viewpoint position (F) in the viewpoint position information at time T1 input in step S101 and the viewpoint position in the viewpoint position information at time T2 newly input in step S201. A difference (viewpoint position change amount) from (F') is obtained (step S202). Note that the viewpoint position information acquired in step S201 may also be input to the rendering unit 120 and used for rendering the 3D image information 101 from the next time onward.
- FIG. 8 is a diagram for explaining a case where the user's viewpoint position changes between time T1 and time T2. 8, the positional relationship between the viewpoint position (F) of the user 19, the spatial light modulator 15, and the display position (E) where the hologram 18 (however, the point object 18a shown in FIG. 6 and the like) is displayed. are the same as those illustrated in FIGS. 3 and 6 to 7B.
- the hologram pattern (point object 18a) displayed by the spatial light modulator 15 is calculated based on the viewpoint position (F) of the user 19 at time T1.
- the point object 18a calculated based on the viewpoint position (F) at time T1 is displayed as it is when the position (A) is translated to the viewpoint positions (F') and (A') separated by a distance d to the right, for example, , the point object 18a is displayed at the display position (E') which is moved rightward by a distance d from the display position (E) where it should be displayed.
- an arrow extending from the point object 18a indicates an optical path from the point object 18a through the spatial light modulator 15 to the viewpoint position (F) or (F') of the user 19.
- the rendering unit 120 uses the 3D image information 101 to render the three-dimensional image information 101 in order to correct the deviation of the display position of the hologram pattern due to the movement of the viewpoint position (F) between rendering and display.
- the difference between the viewpoint position (F) of the user 19 in the viewpoint position information at time T1 and the viewpoint position (F′) of the user 19 in the viewpoint position information acquired by the viewpoint position acquisition unit 110 at time T2 immediately before the display is Acquired as a viewpoint position change amount. For example, in the example shown in FIG.
- the viewpoint position change calculation unit 140 changes the viewpoint position (F) and A distance d (for example, 3 mm) from the viewpoint position (F′) is acquired as the viewpoint position change amount.
- the viewpoint position change amount may be a vector from the viewpoint position (F) to the viewpoint position (F').
- Step S203 the correction signal generation unit 150 generates a correction signal for reducing display position deviation due to a change in viewpoint position based on the viewpoint position change amount generated in step S202 (step S203).
- This embodiment illustrates a method of adding a linear phase signal to the propagation signal generated in step S103.
- a linear phase signal is a correction signal for shifting an object displayed in the field of complex numbers in accordance with a change in viewpoint position, and can be expressed by the following equation (2), for example.
- the viewpoint position change amount is 3 mm and the distance from the SLM position (A) to the display position (E) is 400 mm, based on the above equation (2), from the point object 18a
- the display position of the point object 18a can be changed to the position before the movement even when the viewpoint position moves from (F) to (F′). can be set to the display position (E).
- the incident angle of the optical path from the point object 18a to the spatial light modulator 15 in the case of FIG. 5 in the initial state is assumed to be zero degrees, and the wavelength of the light emitted from the light source 11 is assumed to be Assuming 532 nm (nanometers) and the pixel pitch of the spatial light modulator 15 to be 3.74 ⁇ m (micrometers), in order to rotate the optical path of light from the spatial light modulator 15 by 0.86 degrees, the complex number field should be approximately 0.33128 radians, or 19 degrees, between adjacent pixels in linear phase added to .
- FIG. 9 is a diagram showing an example of a compensating phase pattern of linear phase only in the x direction.
- the horizontal axis indicates the viewpoint position change amount (in units of pixels), and the vertical axis indicates the phase.
- the linear phase shown in FIG. 9 can be a phase pattern that repeats with a period of 0 to 2 ⁇ .
- FIG. 11 is a two-dimensional image of a linear phase compensation phase pattern in which phase values in the range of 0 to 2 ⁇ are expressed in gray scale.
- black has the smallest phase difference, and the closer to white, the greater the phase difference.
- Step S204 the complex signal synthesizing unit 160 synthesizes the propagation signal generated in step S103 and the correction signal generated in step S203 to generate a complex signal of the hologram pattern (step S204). Equation (3) shown below, for example, is used to synthesize the propagation signal and the correction signal.
- Step S205 the interference fringe conversion unit 170 executes hologram pattern conversion processing (step S205).
- the complex number field represented by the complex signal generated in step S204 is converted into a hologram pattern phase signal that can be displayed using the spatial light modulator 15 .
- This hologram pattern conversion process requires a different conversion technique for each type of spatial light modulator 15 . If the spatial light modulator 15 is a phase-only SLM, as exemplified in this description, the complex number field needs to be converted to a phase-only field in order for the hologram to be displayed on the spatial light modulator 15. be. However, it is not limited to this, and various other encoding methods may be used.
- Pa and Pb in equation (4) alternate in a checkerboard pattern to form a phase-only signal (phase signal) for displaying the hologram pattern on spatial light modulator 15.
- phase signal phase signal
- Step S206 The phase signal of the hologram pattern generated in step S205 is input to the output device 180 that controls the light source 11. FIG. Then, by controlling the light source 11 based on the phase signal input by the output device 180, the light for displaying the hologram pattern is irradiated onto the modulation surface of the spatial light modulator 15, thereby causing the user 19 to Then, the hologram at the display position (E) is displayed (step S206).
- step S300 the control unit that controls the overall operation of the hologram display system determines whether or not to continue this operation (step S300), and ends the operation. If so (YES in step S300), this operation is terminated. On the other hand, when not ending (NO of step S300), a control part returns to step S101 and performs subsequent operation
- the hologram pattern to be displayed is corrected based on the viewpoint position (F′) immediately before display. can be reduced. As a result, it is possible to reduce the sense of discomfort that the user feels due to the positional deviation between the real space and the object superimposed thereon, so that it is possible to suppress deterioration in the user's viewing experience.
- the first half step S100 of generating the propagation signal of the hologram pattern based on the viewpoint position (F) of the user 19 at a certain time T1 and the The hologram pattern is corrected based on the viewpoint position (F') of the user 19 at time T2, and the hologram pattern is displayed after correction.
- S200 was configured to be executed.
- FIG. 13 is a timing chart for explaining the operation flow according to Modification 1. As shown in FIG.
- the viewpoint position acquisition unit 110 generates line-of-sight position information in a predetermined cycle based on sensor information sequentially input from sensors provided in an HMD or the like (step S101, S201).
- the generated line-of-sight position information is sequentially input to the rendering unit 120 and the viewpoint position change calculation unit 140 .
- the first half process S100 that is, steps S101 to S103 in FIG. 5 are looped asynchronously with the second half process S200. is looped asynchronously.
- the cycle in which the viewpoint position acquisition unit 110 outputs the viewpoint position information may be a cycle shorter than the cycle in which the first half step S100 and the second half step S200 are looped.
- a correction signal is generated based on the acquired viewpoint position change amount (S203), and by using the generated correction signal, is corrected (S204), and the complex signal generated by this correction is converted into a phase signal (S205) and output, so that the hologram pattern is displayed on the spatial light modulator 15 (S206 ) is repeated.
- the wavefront propagation process of step S103 requires a much longer processing time than the other processes. Therefore, for example, when displaying a hologram to the user 19 at time T3, the propagation signal used to generate the hologram pattern is based on the rendered image rendered using the viewpoint position information at time T1. If the propagated signal is not corrected based on the viewpoint position information at the time T2 immediately before the display, there is a possibility that a very large shift in the display position will occur. Since the user 19 is sensitive to such display position deviation, there is a possibility that the user's viewing experience will be significantly degraded if no correction is made.
- the correction signal generation unit 150 generates the correction signal asynchronously with the generation of the propagation signal by the wavefront propagation unit 130, so that the hologram based on the latest viewpoint position is always displayed to the user 19. is possible, it is possible to reduce the deviation of the display position. As a result, it becomes possible to suppress deterioration of the user's viewing experience.
- the propagation signals generated in the same first half step S100 can be corrected based on each of two or more viewpoint positions at different times to display the hologram, the substantial frame rate of the hologram displayed to the user 19 can be increased.
- Modification 2 refers to the viewpoint position acquisition unit 110 .
- the viewpoint position acquisition unit 110 receives input from sensors such as an IMU provided in the HMD worn on the head of the user 19 and a camera that acquires images of the eyes and face of the user 19. The case where the viewpoint position information of the user 19 is acquired based on the sensor information obtained is illustrated.
- the viewpoint position (head and eye positions) of the user 19 is estimated from the position and posture of the HMD worn on the head of the user 19 will be illustrated.
- the sensors include, for example, an internal sensor such as an IMU, such as a sensor used for SLAM, an external camera, a ToF (Time of Flight) sensor, and the like.
- IMU internal sensor
- the IMU is capable of sensing at a high sampling frequency of 1000 Hz or higher and at a low cost of several milliseconds (milliseconds) or less. It is possible to acquire with low latency and high frequency.
- the viewpoint position (head and eye position) of the user 19 can be estimated from the position and posture of the HMD. Therefore, by using the sensor information from the IMU for estimating the viewpoint position of the user 19, it is possible to obtain an accurate viewpoint position with low latency and high frequency. Such acquisition of an accurate viewpoint position with low latency and high frequency eliminates side effects such as displacement of the display position caused by the operation illustrated in FIG. can contribute to reducing
- the hologram pattern is displayed after obtaining the viewpoint position information of the viewpoint position (F′) of the display straight line during the processing time of the latter step S200. It is effective to shorten the time to Therefore, in Modification 3, a lookup table (LUT) is used in the process of generating the correction signal shown in step S202 in the latter half of the process S200, thereby shortening the processing time of the entire latter half of the process S200 including step S202.
- LUT lookup table
- the LUT stores pre-calculated compensating phase patterns to compensate based on the required diffraction angle ⁇ given in equation (2) above.
- the number of compensating phase patterns stored in the LUT depends on how many diffraction angles ⁇ are quantized. For example, when the diffraction angle ⁇ of 0.1 to 3.0 degrees is quantized in increments of 0.1 degrees, the LUT stores 30 compensating phase patterns.
- FIG. 14 shows an example of a pre-computed one-dimensional representation of the compensating phase pattern.
- FIG. 15 shows a two-dimensional image obtained by two-dimensionally expressing the compensating phase pattern shown in FIG.
- Other compensating phase patterns in the LUT can also be generated by a simple method similar to the method described above.
- the compensation phase obtained from the LUT illustrated in Modification 3 may be corrected based on actual use. For example, if the viewpoint of the user 19 moves not only horizontally (x-direction) but also vertically (y-direction), the compensation phase (correction signal) shifts the object displayed as a hologram in two dimensions. may be corrected as follows.
- the display position (E′) of the point object 18a is changed to It is possible to shift the display position of the point object 18a in the x direction and the y direction to the original display position (E) by continuously applying the compensation phase pattern for shifting to .
- a compensation phase pattern for shifting the display position in the x-direction and the y-direction can be a combination of an x-direction compensation phase pattern and a y-direction compensation phase pattern.
- the compensating phase pattern illustrated in FIG. 11 can be used as the compensating phase pattern in the x direction.
- the compensating phase pattern in the y direction is as shown in FIG.
- the x direction of the compensating phase pattern obtained by rotating the compensating phase pattern in the x direction to the right by 90 degrees is multiplied by m/n.
- the compensating phase pattern obtained by setting the resolution to (m:n) may be used as the compensating phase pattern in the y direction.
- the (m:n) area is cut out (cropped) from the (m:n) area.
- the propagation signal generated by the wavefront propagation unit 130 and the correction signal generated by the correction signal generation unit 150 are combined in the complex signal synthesis unit 160,
- the obtained complex signal is converted into a phase signal in the interference fringe converter 170 .
- the propagation signal is converted into a phase signal before synthesizing the correction signal, and then the correction signal is synthesized.
- FIG. 18 is a block diagram showing a schematic configuration example of a hologram display system according to this embodiment.
- the hologram display system 2 according to the present embodiment has a configuration similar to that of the hologram display system 1 described in the first embodiment with reference to FIG. 260 , and the arrangement of the interference fringe conversion section 170 is changed between the wavefront propagation section 130 and the phase signal synthesis section 260 .
- the interference fringe conversion section 170 converts the propagation signal of the hologram pattern generated by the wavefront propagation section 130 into a phase signal, and inputs the phase signal to the phase signal synthesis section 260 .
- the phase signal synthesizing unit 260 synthesizes the phase signal input from the interference fringe converting unit 170 and the correction signal generated by the correction signal generating unit 150 to display the hologram pattern on the spatial light modulator 15. is generated and input to the output device 180 .
- the interference fringe conversion unit 170 and the phase signal synthesis unit 260 can correspond to an example of the phase signal generation unit in the scope of claims, for example.
- the viewpoint position change calculation unit 140 and the correction signal generation unit 150 can correspond to an example of the correction unit in the claims, for example.
- FIG. 19 is a flowchart showing an operation example of the hologram display system according to this embodiment.
- the operation of the hologram display system 2 is similar to the operation described using FIG. 5 in the first embodiment, based on the viewpoint position (F) of the user 19 at a certain time T1. and a second half step S500 of correcting the hologram pattern based on the viewpoint position (F′) of the user 19 at time T2 immediately before display and displaying the corrected hologram pattern. It consists of processes.
- Step S401 the interference fringe conversion unit 170 performs hologram pattern conversion processing on the propagation signal of the hologram pattern generated by the wavefront propagation unit 130 (step S401).
- the content of the hologram pattern conversion processing may be the same as the processing content shown in step S205 of FIG. 5 illustrated in the first embodiment.
- Step S501 the phase signal synthesizer 260 synthesizes the phase signal generated in step S401 and the correction signal generated in step S203 to generate the phase signal of the hologram pattern (step S501).
- Formula (6) shown below, for example, is used to synthesize the phase signal and the correction signal.
- Step S206 the phase signal of the hologram pattern generated in step S501 is input to the output device 180 that controls the light source 11, and the output device 180 controls the light source 11 based on the input phase signal.
- the modulation surface of the spatial light modulator 15 is irradiated with light for displaying the hologram pattern, and the hologram at the display position (E) is displayed to the user 19 (step S206).
- the control unit determines whether or not to continue this operation (step S300), and if it ends (YES in step S300), end the action. On the other hand, when not ending (NO of step S300), a control part returns to step S101 and performs subsequent operation
- an AR device using an optical see-through HMD was exemplified as a hologram display system, but the present invention is not limited to this. It can be applied to various AR devices that can superimpose and display a hologram on the real world, such as an AR device using a naked-eye stereoscopic television or the like.
- an AR HUD system using CGH can be realized as an application example of the hologram display system described with reference to FIG. 1 in the first embodiment. Therefore, in the third embodiment, an AR HUD system using CGH will be described as an example.
- FIG. 20 is a schematic diagram for explaining the outline of the AR HUD system using the CGH according to this embodiment.
- the principle by which the spatial light modulator 15 forms the hologram 18 may be the same as the principle by which the spatial light modulator 15 forms the hologram 18 in the first embodiment, for example.
- a transmissive SLM is used as the spatial light modulator 15 .
- the light emitted from the light source 11 is magnified by a magnifying optical system composed of a plurality of lenses 12 and 13, and then transmitted through the spatial light modulator 15, thereby creating a hologram at the display position (E). form 18.
- the hologram 18 formed at the display position (E) is reflected by the combiner 30 and viewed by the user 19 at the viewpoint position (F) as the hologram 18A at the display position (G).
- a hologram combiner that reflects light from the light source 11 while transmitting light in the visible light range may be used.
- the technology according to the present disclosure is not limited to HMD type AR devices, but can be applied to various AR devices that can display holograms superimposed on the real world.
- FIG. 21 is a hardware configuration diagram showing an example of a computer 1000 that implements the functions of the information processing apparatus according to the above-described embodiments.
- the computer 1000 has a CPU 1100 , a RAM 1200 , a ROM (Read Only Memory) 1300 , a HDD (Hard Disk Drive) 1400 , a communication interface 1500 and an input/output interface 1600 . Each part of computer 1000 is connected by bus 1050 .
- the CPU 1100 operates based on programs stored in the ROM 1300 or HDD 1400 and controls each section. For example, the CPU 1100 loads programs stored in the ROM 1300 or HDD 1400 into the RAM 1200 and executes processes corresponding to various programs.
- the ROM 1300 stores a boot program such as BIOS (Basic Input Output System) executed by the CPU 1100 when the computer 1000 is started, and programs dependent on the hardware of the computer 1000.
- BIOS Basic Input Output System
- the HDD 1400 is a computer-readable recording medium that non-temporarily records programs executed by the CPU 1100 and data used by such programs.
- HDD 1400 is a recording medium that records the program according to the present disclosure, which is an example of program data 1450 .
- a communication interface 1500 is an interface for connecting the computer 1000 to an external network 1550 (for example, the Internet).
- the CPU 1100 receives data from another device via the communication interface 1500, and transmits data generated by the CPU 1100 to another device.
- the input/output interface 1600 is an interface for connecting the input/output device 1650 and the computer 1000 .
- the CPU 1100 receives data from input devices such as a keyboard and mouse via the input/output interface 1600 .
- the CPU 1100 transmits data to an output device such as a display, a speaker, or a printer via the input/output interface 1600 .
- the input/output interface 1600 may function as a media interface for reading a program or the like recorded on a predetermined recording medium.
- Media include, for example, optical recording media such as DVD (Digital Versatile Disc) and PD (Phase change rewritable disk), magneto-optical recording media such as MO (Magneto-Optical disk), tape media, magnetic recording media, semiconductor memories, etc. is.
- optical recording media such as DVD (Digital Versatile Disc) and PD (Phase change rewritable disk)
- magneto-optical recording media such as MO (Magneto-Optical disk)
- tape media magnetic recording media
- magnetic recording media semiconductor memories, etc. is.
- the CPU 1100 of the computer 1000 executes a program loaded on the RAM 1200 to obtain the viewpoint position acquisition unit 110, the rendering unit 120, the wavefront propagation At least part of the functions of the unit 130, the viewpoint position change calculation unit 140, the correction signal generation unit 150, the complex signal synthesis unit 160 or the phase signal synthesis unit 260, the interference fringe conversion unit 170, and the output device 180 are realized.
- the HDD 1400 also stores programs and the like according to the present disclosure. Although CPU 1100 reads and executes program data 1450 from HDD 1400 , as another example, these programs may be obtained from another device via external network 1550 .
- the present technology can also take the following configuration.
- a viewpoint position acquisition unit that acquires a user's viewpoint position; a rendering unit that generates a rendered image based on the viewpoint position; a wavefront propagation unit that generates a propagated signal representing a hologram based on the rendered image; a phase signal generator that generates a first phase signal for displaying a hologram based on the propagation signal; a correction unit that corrects the displayed hologram based on the current viewpoint position of the user acquired by the viewpoint position acquisition unit; Information processing device.
- the correction unit generates a correction signal for correcting the propagation signal based on the user's current viewpoint position acquired by the viewpoint position acquisition unit
- the phase signal generator is a complex signal synthesizing unit that generates a complex signal based on the propagation signal and the correction signal; an interference fringe conversion unit that converts the complex signal into the first phase signal; including, The information processing device according to (1) above.
- the phase signal generation unit includes an interference fringe conversion unit that converts the propagation signal into a second phase signal,
- the correction unit generates a correction signal for correcting the second phase signal based on the current viewpoint position of the user acquired by the viewpoint position acquisition unit,
- the phase signal generation unit further includes a phase signal synthesis unit that generates the first phase signal based on the second phase signal and the correction signal,
- the information processing device according to (1) above.
- the correction unit generates the correction signal by referring to a lookup table prepared in advance based on the current viewpoint position of the user. information processing equipment.
- the information processing apparatus corrects the correction signal obtained from the lookup table prepared in advance based on the current viewpoint position of the user.
- the correction signal has a compensating phase pattern of a linear phase.
- the compensating phase pattern has a phase pattern that repeats with a period of 0 to 2 ⁇ .
- the correction signal includes a horizontal compensating phase pattern and a vertical compensating phase pattern.
- the information processing apparatus according to any one of (2) to (9), wherein the correction signal has a compensating phase pattern obtained by synthesizing a horizontal compensating phase pattern and a vertical compensating phase pattern.
- the correction unit generates the correction signal asynchronously with generation of the propagation signal by the wavefront propagation unit.
- the information processing apparatus according to any one of (1) to (12) above, further comprising an output unit that controls a light source that outputs light to the spatial light modulator based on the first phase signal.
- the spatial light modulator is a phase limited spatial light modulator or an amplitude limited spatial light modulator.
- An information processing method comprising: (19) A recording medium recording a program for operating a processor mounted in a system for displaying a hologram by irradiating a spatial light modulator with light, to the processor; a process of acquiring a user's viewpoint position; a process of generating a rendered image based on the viewpoint position; generating a propagated signal representing a hologram based on the rendered image; a process of generating a first phase signal for displaying a hologram based on the propagation signal; a process of obtaining the user's current viewpoint position; a process of correcting the displayed hologram based
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- Holo Graphy (AREA)
Abstract
The present invention suppresses a degradation in user viewing experience. An information processing device comprises a viewpoint position acquisition unit (110) that acquires the viewpoint position of a user, a rendering unit (120) that generates a rendering image on the basis of the viewpoint position, a wave-front propagation unit (130) that generates a propagation signal indicating a hologram on the basis of the rendering image, a phase signal generation unit (160,170) that generates a first phase signal for displaying the hologram on the basis of the propagation signal, and a correction unit (140,150) that corrects the displayed hologram on the basis of the current viewpoint position of the user, the viewpoint position being acquired by the viewpoint position acquisition unit.
Description
本開示は、情報処理装置、情報処理方法及びプログラムを記録した記録媒体に関する。
The present disclosure relates to an information processing device, an information processing method, and a recording medium recording a program.
ヘッドマウントディスプレイ(HMD)を利用してユーザに仮想空間を表示する仮想現実(VR)の分野では、検出されたユーザの頭や目の位置に基づいてレンダリングが実行されるが、ユーザの頭や目の位置は常に動いている。そのため、ユーザの頭や目の位置を検出してから映像を表示するまでの間に時間差(レイテンシー)が生じ、それにより、ユーザが表示された映像を観る際のユーザの頭や目の実際の位置が、レンダリングに使用したユーザの頭や目の位置とは異なってしまい、ユーザにスムーズな視聴体験を提供することが困難になるという問題が生じる。
In the field of virtual reality (VR), in which a head-mounted display (HMD) is used to display a virtual space to a user, rendering is performed based on the detected positions of the user's head and eyes. Eye position is constantly moving. Therefore, there is a time lag (latency) between the detection of the position of the user's head and eyes and the display of the image, and as a result, the actual movement of the user's head and eyes when viewing the displayed image. The problem arises that the positions are different from the user's head and eye positions used for rendering, making it difficult to provide the user with a smooth viewing experience.
このような問題に対処する方法としては、タイムワープ処理が存在する。タイムワープ処理は、レンダリングにより映像を生成した後、その映像を表示する直前に、ユーザの頭や目の位置を検出し、検出された位置に基づいて表示する映像を補償することで、ユーザの視聴時点での頭や目の位置と表示される映像とのずれを低減する技術である。
Time warp processing exists as a way to deal with such problems. Time warp processing detects the positions of the user's head and eyes immediately before displaying the image after the image is generated by rendering, and compensates for the displayed image based on the detected positions. This technology reduces the gap between the position of the head and eyes at the time of viewing and the displayed image.
上述のようなレイテンシーによる問題は、コンピュータにより生成されたホログラム(以下、CGHともいう)を現実世界にHMD等を用いて重畳する拡張現実(AR)の分野でも生じる。しかしながら、ARの場合、VRの場合と比較して、ホログラムパターンの生成に長い処理時間を要する。そのため、ユーザの頭や目の位置を検出してから映像を表示するまでの時間差がより大きくなり、ユーザにスムーズな視聴体験を提供することが困難になり得るという問題が存在する。
The problem of latency as described above also occurs in the field of augmented reality (AR), in which computer-generated holograms (hereinafter also referred to as CGH) are superimposed on the real world using HMDs and the like. However, AR requires a longer processing time to generate a hologram pattern than VR. As a result, there is a problem that the time difference between detection of the position of the user's head and eyes and display of the image increases, making it difficult to provide the user with a smooth viewing experience.
また、現実空間に重畳される点が空間光変調器(SLM)上の領域における複数のピクセルに投射されるため、ホログラムパターンの単純な変換、回転又は再投影であっても副作用が生じてしまい、ユーザにスムーズな視聴体験を提供することが困難になるという問題も存在する。
Also, even a simple translation, rotation or reprojection of the hologram pattern will have side effects, since the superimposed point in real space will be projected onto multiple pixels in the area on the spatial light modulator (SLM). , there is also the problem that it becomes difficult to provide users with a smooth viewing experience.
そこで本開示では、ユーザの視聴体験の低下を抑制することが可能な情報処理装置、情報処理方法及びプログラムを記録した記録媒体を提案する。
Therefore, the present disclosure proposes an information processing device, an information processing method, and a recording medium that records a program that can suppress deterioration of the user's viewing experience.
上記の課題を解決するために、本開示の一形態に係る情報処理装置は、ユーザの視点位置を取得する視点位置取得部と、前記視点位置に基づいてレンダリング画像を生成するレンダリング部と、前記レンダリング画像に基づいてホログラムを表す伝搬信号を生成する波面伝搬部と、前記伝搬信号に基づいてホログラムを表示するための第1位相信号を生成する位相信号生成部と、表示される前記ホログラムを前記視点位置取得部で取得された前記ユーザの現在の視点位置に基づいて補正する補正部と、を備える。
To solve the above problems, an information processing apparatus according to an aspect of the present disclosure includes a viewpoint position acquisition unit that acquires a viewpoint position of a user, a rendering unit that generates a rendering image based on the viewpoint position, and A wavefront propagation unit that generates a propagation signal representing a hologram based on a rendered image; a phase signal generation unit that generates a first phase signal for displaying a hologram based on the propagation signal; a correction unit that performs correction based on the current viewpoint position of the user acquired by the viewpoint position acquisition unit.
以下に、本開示の実施形態について図面に基づいて詳細に説明する。なお、以下の各実施形態において、同一の部位には同一の符号を付することにより重複する説明を省略する。
Below, embodiments of the present disclosure will be described in detail based on the drawings. In addition, in each of the following embodiments, the same parts are denoted by the same reference numerals, thereby omitting redundant explanations.
また、以下に示す項目順序に従って本開示を説明する。
1.第1の実施形態
1.1 概要
1.2 構成例
1.3 動作例
1.3.1 前半工程S100
1.3.2 後半工程S200
1.4 作用効果
1.5 変形例
1.5.1 変形例1
1.5.2 変形例2
1.5.3 変形例3
1.5.4 変形例4
2.第2の実施形態
2.1 構成例
2.2 動作例
2.2.1 前半工程S400
2.2.2 後半工程S500
2.3 作用効果
3.第3の実施形態
3.1 作用効果
4.ハードウエア構成 Also, the present disclosure will be described according to the order of items shown below.
1. First Embodiment 1.1 Overview 1.2 Configuration Example 1.3 Operation Example 1.3.1 First Half Process S100
1.3.2 Second half process S200
1.4 Effects 1.5 Modification 1.5.1Modification 1
1.5.2Modification 2
1.5.3Modification 3
1.5.4Modification 4
2. Second Embodiment 2.1 Configuration Example 2.2 Operation Example 2.2.1 First Half Process S400
2.2.2 Second half process S500
2.3Effects 3. Third Embodiment 3.1 Effects 4. Hardware configuration
1.第1の実施形態
1.1 概要
1.2 構成例
1.3 動作例
1.3.1 前半工程S100
1.3.2 後半工程S200
1.4 作用効果
1.5 変形例
1.5.1 変形例1
1.5.2 変形例2
1.5.3 変形例3
1.5.4 変形例4
2.第2の実施形態
2.1 構成例
2.2 動作例
2.2.1 前半工程S400
2.2.2 後半工程S500
2.3 作用効果
3.第3の実施形態
3.1 作用効果
4.ハードウエア構成 Also, the present disclosure will be described according to the order of items shown below.
1. First Embodiment 1.1 Overview 1.2 Configuration Example 1.3 Operation Example 1.3.1 First Half Process S100
1.3.2 Second half process S200
1.4 Effects 1.5 Modification 1.5.1
1.5.2
1.5.3
1.5.4
2. Second Embodiment 2.1 Configuration Example 2.2 Operation Example 2.2.1 First Half Process S400
2.2.2 Second half process S500
2.3
1.第1の実施形態
まず、本開示の第1の実施形態に係る情報処理装置、情報処理方法及びプログラムを記録した記録媒体について、図面を参照して詳細に説明する。なお、以下の説明では、本実施形態に係る実施形態に係る情報処理装置、情報処理方法及びプログラムが適用されるホログラム表示システムとして、光学シースルー型のHMDを用いたARデバイスを例示するが、これに限定されるものではない。 1. First Embodiment First, an information processing apparatus, an information processing method, and a recording medium storing a program according to a first embodiment of the present disclosure will be described in detail with reference to the drawings. In the following description, an AR device using an optical see-through HMD is exemplified as a hologram display system to which the information processing apparatus, information processing method, and program according to the embodiment are applied. is not limited to
まず、本開示の第1の実施形態に係る情報処理装置、情報処理方法及びプログラムを記録した記録媒体について、図面を参照して詳細に説明する。なお、以下の説明では、本実施形態に係る実施形態に係る情報処理装置、情報処理方法及びプログラムが適用されるホログラム表示システムとして、光学シースルー型のHMDを用いたARデバイスを例示するが、これに限定されるものではない。 1. First Embodiment First, an information processing apparatus, an information processing method, and a recording medium storing a program according to a first embodiment of the present disclosure will be described in detail with reference to the drawings. In the following description, an AR device using an optical see-through HMD is exemplified as a hologram display system to which the information processing apparatus, information processing method, and program according to the embodiment are applied. is not limited to
1.1 概要
まず、本実施形態に係るホログラム表示システムの概要について説明する。図1は、本実施形態に係るホログラム表示システムの概要を説明するための模式図である。なお、図1及び以下の図において、(A)~(F)は、それぞれの概略的な位置を示している。 1.1 Overview First, an overview of the hologram display system according to this embodiment will be described. FIG. 1 is a schematic diagram for explaining the outline of the hologram display system according to this embodiment. In addition, in FIG. 1 and the following figures, (A) to (F) indicate respective schematic positions.
まず、本実施形態に係るホログラム表示システムの概要について説明する。図1は、本実施形態に係るホログラム表示システムの概要を説明するための模式図である。なお、図1及び以下の図において、(A)~(F)は、それぞれの概略的な位置を示している。 1.1 Overview First, an overview of the hologram display system according to this embodiment will be described. FIG. 1 is a schematic diagram for explaining the outline of the hologram display system according to this embodiment. In addition, in FIG. 1 and the following figures, (A) to (F) indicate respective schematic positions.
図1に示すように、本実施形態では、光源11と、複数のレンズ12及び13で構成された拡大光学系と、ビームスプリッタ14と、空間光変調器15とを備えるホログラム表示システム1を例示する。
As shown in FIG. 1, this embodiment exemplifies a hologram display system 1 including a light source 11, an enlarging optical system composed of a plurality of lenses 12 and 13, a beam splitter 14, and a spatial light modulator 15. do.
図1において、位置(D)の光源11から出射したレーザ光L1は、位置(C)の複数のレンズ12及び13で構成された拡大光学系により、ビーム径が拡大されたコヒーレント光L2に変換される。コヒーレント光L2は、ビームスプリッタ14を通過して空間光変調器15に入射する。
In FIG. 1, a laser beam L1 emitted from a light source 11 at position (D) is converted into coherent light L2 with an enlarged beam diameter by an expansion optical system composed of a plurality of lenses 12 and 13 at position (C). be done. The coherent light L 2 passes through the beam splitter 14 and enters the spatial light modulator 15 .
本実施形態では、空間光変調器15として、反射型のSLMを例示するが、これに低減されず、透過型のSLMであってもよい。また、本説明では、位相限定型(Phase-Only)のSLMを例示するが、これに限定されず、振幅限定型(Amplitude-Only)のSLMであってもよい。コヒーレント光L2は、空間光変調器15によって、実空間上の所望の表示位置(E)にホログラムを表示するように変調される。
In this embodiment, a reflective SLM is exemplified as the spatial light modulator 15, but it is not limited to this, and may be a transmissive SLM. Also, in this description, a phase-only SLM is exemplified, but the present invention is not limited to this, and an amplitude-only SLM may be used. The coherent light L2 is modulated by the spatial light modulator 15 so as to display a hologram at a desired display position (E) in real space.
位置(B)のビームスプリッタ14は、空間光変調器15によって再生されたホログラム18を、位置(視点位置(F))の視聴者(以下、ユーザという)19が観察可能なように、例えば、実空間上の表示位置(E)に映し出す。視点位置(F)のユーザ19は、表示位置(E)の方向を観察することで、ビームスプリッタ14越しに見える実空間に重畳ざれたホログラム18を見ることができる。
The beam splitter 14 at the position (B) is arranged so that a viewer (hereinafter referred to as a user) 19 at the position (viewpoint position (F)) can observe the hologram 18 reproduced by the spatial light modulator 15. For example, Projected at the display position (E) on the real space. A user 19 at the viewpoint position (F) can see the hologram 18 superimposed on the real space seen through the beam splitter 14 by observing the direction of the display position (E).
このように、本実施形態に係るホログラム表示システムは、実空間に仮想オブジェクト等を出現させたり、実空間の物体を特殊効果等によって演出したり、ユーザに所定の情報を提示したりなどの視聴体験を提供することが可能である。
As described above, the hologram display system according to the present embodiment can make a virtual object or the like appear in the real space, direct an object in the real space with a special effect or the like, or present predetermined information to the user. experience can be provided.
なお、光源11及びビームスプリッタ14は、表示位置(E)と空間光変調器15の位置(A)と、ユーザ19の視点位置(F)との相対的な位置関係に対してほとんど影響しない。そのため、図1に例示するホログラム表示システム1の模式図は、図2に示すように簡素化することができる。なお、図2では、説明の都合上、図1において反射型であった空間光変調器15が透過型に変更されている。また、図3は、図2に示す模式図をさらに見やすくするために、右に90度回転させた図である。
The light source 11 and the beam splitter 14 hardly affect the relative positional relationship between the display position (E), the position (A) of the spatial light modulator 15, and the user's 19 viewpoint position (F). Therefore, the schematic diagram of the hologram display system 1 illustrated in FIG. 1 can be simplified as shown in FIG. In FIG. 2, for convenience of explanation, the spatial light modulator 15 of FIG. 1, which was of a reflective type, is changed to a transmissive type. Also, FIG. 3 is a diagram rotated 90 degrees to the right to make the schematic diagram shown in FIG. 2 easier to see.
1.2 構成例
図4は、本実施形態に係るホログラム表示システムの概略構成例を示すブロック図である。図4に示すように、本実施形態に係るホログラム表示システム1は、視点位置取得部110と、レンダリング部120と、波面伝搬部130と、視点位置変化計算部140と、補正信号生成部150と、複素信号合成部160と、干渉縞変換部170と、出力装置180とを備える。 1.2 Configuration Example FIG. 4 is a block diagram showing a schematic configuration example of the hologram display system according to this embodiment. As shown in FIG. 4, thehologram display system 1 according to the present embodiment includes a viewpoint position acquisition unit 110, a rendering unit 120, a wavefront propagation unit 130, a viewpoint position change calculation unit 140, and a correction signal generation unit 150. , a complex signal synthesizing unit 160 , an interference fringe transforming unit 170 , and an output device 180 .
図4は、本実施形態に係るホログラム表示システムの概略構成例を示すブロック図である。図4に示すように、本実施形態に係るホログラム表示システム1は、視点位置取得部110と、レンダリング部120と、波面伝搬部130と、視点位置変化計算部140と、補正信号生成部150と、複素信号合成部160と、干渉縞変換部170と、出力装置180とを備える。 1.2 Configuration Example FIG. 4 is a block diagram showing a schematic configuration example of the hologram display system according to this embodiment. As shown in FIG. 4, the
本実施形態において、複素信号合成部160と干渉縞変換部170とは、例えば、請求の範囲における位相信号生成部の一例に相当し得る。また、視点位置変化計算部140と補正信号生成部150とは、例えば、請求の範囲における補正部の一例に相当し得る。
In this embodiment, the complex signal synthesizing unit 160 and the interference fringe transforming unit 170 can correspond to, for example, an example of the phase signal generating unit in the scope of claims. Also, the viewpoint position change calculation unit 140 and the correction signal generation unit 150 can correspond to an example of the correction unit in the claims, for example.
(視点位置取得部110)
視点位置取得部110は、例えば、ユーザ19の頭部に装着されるHMDに設けられたIMU(Inertial Measurement Unit)やユーザ19の眼や顔の画像を取得するカメラなどのセンサから入力されたセンサ情報に基づいて、ユーザ19の視点位置(F)に関する情報(以下、視点位置情報という)を取得する。 (Viewpoint position acquisition unit 110)
The viewpoint position acquisition unit 110 receives input from a sensor such as an IMU (Inertial Measurement Unit) provided in an HMD worn on the head of theuser 19 or a camera that acquires images of the eyes and face of the user 19, for example. Based on the information, information about the viewpoint position (F) of the user 19 (hereinafter referred to as viewpoint position information) is acquired.
視点位置取得部110は、例えば、ユーザ19の頭部に装着されるHMDに設けられたIMU(Inertial Measurement Unit)やユーザ19の眼や顔の画像を取得するカメラなどのセンサから入力されたセンサ情報に基づいて、ユーザ19の視点位置(F)に関する情報(以下、視点位置情報という)を取得する。 (Viewpoint position acquisition unit 110)
The viewpoint position acquisition unit 110 receives input from a sensor such as an IMU (Inertial Measurement Unit) provided in an HMD worn on the head of the
なお、本説明において、視点位置情報は、現実空間内でのユーザ19の視点の位置であってよい。また、現実空間内でのユーザ19の視点の位置は、現実空間内でのユーザ19の両目又は片目の位置であってもよいし、現実空間内でのユーザ19の頭部の位置であってもよい。加えて、視点位置情報には、ユーザ19の両目又は片目若しくは頭部の位置に関する情報の他に、ユーザ19の両目又は片目若しくは頭部の向きに関する情報が含まれてもよい。
In this description, the viewpoint position information may be the position of the viewpoint of the user 19 in the physical space. Further, the position of the viewpoint of the user 19 in the physical space may be the position of both eyes or one eye of the user 19 in the physical space, or the position of the head of the user 19 in the physical space. good too. In addition, the viewpoint position information may include information regarding the orientation of both eyes or one eye or the head of the user 19 in addition to the information regarding the position of the user's 19 eyes or one eye or the head.
また、さらに、視点位置取得部110は、SLAM(Simultaneous Localization and Mapping)により現実空間内でのユーザ19の視点位置を取得してもよい。さらに、視点位置取得部110は、現在の視点位置(F)から所定時間(例えば予め設定された時間)経過後の視点位置を予測し、この予測された視点位置をユーザの視点位置として取得してもよい。
Furthermore, the viewpoint position acquisition unit 110 may acquire the viewpoint position of the user 19 in the physical space by SLAM (Simultaneous Localization and Mapping). Furthermore, the viewpoint position acquisition unit 110 predicts the viewpoint position after a predetermined time (for example, a preset time) has elapsed from the current viewpoint position (F), and acquires this predicted viewpoint position as the user's viewpoint position. may
(レンダリング部120)
レンダリング部120は、ホログラムとして表示するオブジェクトの3次元画像情報101を、視点位置取得部110から入力された視点位置情報に基づいてレンダリングすることで、オブジェクトのテクスチャを表すRGB画像データと、オブジェクトの奥行を表すデプスマップとを生成する。なお、以下の説明では、RGB画像データと、RGB画像データの各画素のデプス値を示すデプスマップとのセットをRGB+D画像データ又はレンダリング画像ともいう。 (Rendering unit 120)
The rendering unit 120 renders the three-dimensional image information 101 of the object displayed as a hologram based on the viewpoint position information input from the viewpoint position acquisition unit 110, thereby obtaining RGB image data representing the texture of the object and Generate a depth map representing depth. In the following description, a set of RGB image data and a depth map indicating the depth value of each pixel of the RGB image data is also called RGB+D image data or rendered image.
レンダリング部120は、ホログラムとして表示するオブジェクトの3次元画像情報101を、視点位置取得部110から入力された視点位置情報に基づいてレンダリングすることで、オブジェクトのテクスチャを表すRGB画像データと、オブジェクトの奥行を表すデプスマップとを生成する。なお、以下の説明では、RGB画像データと、RGB画像データの各画素のデプス値を示すデプスマップとのセットをRGB+D画像データ又はレンダリング画像ともいう。 (Rendering unit 120)
The rendering unit 120 renders the three-
(波面伝搬部130)
波面伝搬部130は、レンダリング部120により生成されたRGB+D画像データを波面伝搬することで、空間光変調器15で表示するホログラムパターンの伝搬信号を生成する。 (Wavefront propagation unit 130)
The wavefront propagation unit 130 propagates the RGB+D image data generated by the rendering unit 120 to generate a propagation signal of the hologram pattern displayed by the spatiallight modulator 15 .
波面伝搬部130は、レンダリング部120により生成されたRGB+D画像データを波面伝搬することで、空間光変調器15で表示するホログラムパターンの伝搬信号を生成する。 (Wavefront propagation unit 130)
The wavefront propagation unit 130 propagates the RGB+D image data generated by the rendering unit 120 to generate a propagation signal of the hologram pattern displayed by the spatial
(視点位置変化計算部140)
視点位置変化計算部140は、レンダリング部120が3次元画像情報101をレンダリングする際に視点位置取得部110により取得された視点位置情報(すなわち、レンダリング部120が3次元画像情報101のレンダリングに使用した視点位置情報)におけるユーザ19の視点位置(F)と、視点位置取得部110により取得された現在の視点位置情報におけるユーザ19の視点位置(これを視点位置F’とする)との差分を視点位置変化量として計算する。 (Viewpoint position change calculator 140)
The viewpoint positionchange calculation unit 140 calculates the viewpoint position information acquired by the viewpoint position acquisition unit 110 when the rendering unit 120 renders the three-dimensional image information 101 (that is, the viewpoint position information used by the rendering unit 120 for rendering the three-dimensional image information 101). The difference between the viewpoint position (F) of the user 19 in the viewpoint position information acquired by the viewpoint position acquisition unit 110 and the viewpoint position of the user 19 in the current viewpoint position information acquired by the viewpoint position acquisition unit 110 (this is assumed to be the viewpoint position F′) is It is calculated as a viewpoint position change amount.
視点位置変化計算部140は、レンダリング部120が3次元画像情報101をレンダリングする際に視点位置取得部110により取得された視点位置情報(すなわち、レンダリング部120が3次元画像情報101のレンダリングに使用した視点位置情報)におけるユーザ19の視点位置(F)と、視点位置取得部110により取得された現在の視点位置情報におけるユーザ19の視点位置(これを視点位置F’とする)との差分を視点位置変化量として計算する。 (Viewpoint position change calculator 140)
The viewpoint position
(補正信号生成部150)
補正信号生成部150は、視点位置変化計算部140により計算された視点位置変化量に基づいて、波面伝搬部130により生成されたホログラムパターンの伝搬信号を補正するための補正信号を生成する。 (Correction signal generator 150)
The correctionsignal generation unit 150 generates a correction signal for correcting the propagation signal of the hologram pattern generated by the wavefront propagation unit 130 based on the viewpoint position change amount calculated by the viewpoint position change calculation unit 140 .
補正信号生成部150は、視点位置変化計算部140により計算された視点位置変化量に基づいて、波面伝搬部130により生成されたホログラムパターンの伝搬信号を補正するための補正信号を生成する。 (Correction signal generator 150)
The correction
(複素信号合成部160)
複素信号合成部160は、波面伝搬部130により生成された伝搬信号と、補正信号生成部150により生成された補正信号とを合成することで、ホログラムパターンの複素信号を生成する。 (Complex signal synthesizing unit 160)
The complexsignal synthesizing unit 160 synthesizes the propagation signal generated by the wavefront propagating unit 130 and the correction signal generated by the correction signal generating unit 150 to generate a complex signal of the hologram pattern.
複素信号合成部160は、波面伝搬部130により生成された伝搬信号と、補正信号生成部150により生成された補正信号とを合成することで、ホログラムパターンの複素信号を生成する。 (Complex signal synthesizing unit 160)
The complex
(干渉縞変換部170)
干渉縞変換部170は、複素信号合成部160により生成された複素信号を変換することで、ホログラムパターンを空間光変調器15で表示するための位相信号を生成する。 (Interference fringe converter 170)
The interferencefringe conversion unit 170 converts the complex signal generated by the complex signal synthesis unit 160 to generate a phase signal for displaying the hologram pattern on the spatial light modulator 15 .
干渉縞変換部170は、複素信号合成部160により生成された複素信号を変換することで、ホログラムパターンを空間光変調器15で表示するための位相信号を生成する。 (Interference fringe converter 170)
The interference
(出力装置180)
出力装置180は、干渉縞変換部170により生成された位相信号を空間光変調器15で表示する。それにより、ユーザ19に対して、ホログラムが現実空間に重畳して表示される。 (Output device 180)
Theoutput device 180 displays the phase signal generated by the interference fringe converter 170 on the spatial light modulator 15 . As a result, the hologram is superimposed on the real space and displayed to the user 19 .
出力装置180は、干渉縞変換部170により生成された位相信号を空間光変調器15で表示する。それにより、ユーザ19に対して、ホログラムが現実空間に重畳して表示される。 (Output device 180)
The
1.3 動作例
図5は、本実施形態に係るホログラム表示システムの動作例を示すフローチャートである。図5に示すように、ホログラム表示システム1の動作は、ある時刻(これを時刻T1とする)におけるユーザ19の視点位置(F)に基づいてホログラムパターンの伝搬信号を生成する前半工程S100と、表示直前の時刻(これを時刻T2とする)のユーザ19の視点位置(F’)に基づいてホログラムパターンを補正して補正後のホログラムパターンを表示する後半工程S200との2つの工程から構成されている。 1.3 Operation Example FIG. 5 is a flowchart showing an operation example of the hologram display system according to this embodiment. As shown in FIG. 5, the operation of thehologram display system 1 includes a first half step S100 of generating a propagation signal of the hologram pattern based on the viewpoint position (F) of the user 19 at a certain time (time T1); The hologram pattern is corrected based on the viewpoint position (F′) of the user 19 at the time immediately before the display (time T2), and the second half step S200 of displaying the corrected hologram pattern. ing.
図5は、本実施形態に係るホログラム表示システムの動作例を示すフローチャートである。図5に示すように、ホログラム表示システム1の動作は、ある時刻(これを時刻T1とする)におけるユーザ19の視点位置(F)に基づいてホログラムパターンの伝搬信号を生成する前半工程S100と、表示直前の時刻(これを時刻T2とする)のユーザ19の視点位置(F’)に基づいてホログラムパターンを補正して補正後のホログラムパターンを表示する後半工程S200との2つの工程から構成されている。 1.3 Operation Example FIG. 5 is a flowchart showing an operation example of the hologram display system according to this embodiment. As shown in FIG. 5, the operation of the
1.3.1 前半工程S100
(ステップS101)
図5に示すように、前半工程S100では、まず、視点位置取得部110が、例えば、ユーザ19の頭部に装着されるHMD等に設けられたIMUなどのセンサからのセンサ情報に基づくことで、時刻T1でのユーザ19の視点位置情報を取得する(ステップS101)。なお、取得された視点位置情報には、この視点位置情報を取得した時刻T1を示すタイムスタンプが含まれていてよい。そして、取得された視点位置情報は、レンダリング部120及び視点位置変化計算部140に入力される。 1.3.1 First half process S100
(Step S101)
As shown in FIG. 5, in the first half step S100, first, the viewpoint position acquisition unit 110, for example, based on sensor information from a sensor such as an IMU provided in an HMD or the like worn on the head of theuser 19, , the viewpoint position information of the user 19 at time T1 is obtained (step S101). Note that the acquired viewpoint position information may include a time stamp indicating the time T1 at which the viewpoint position information was acquired. The acquired viewpoint position information is input to the rendering unit 120 and the viewpoint position change calculation unit 140 .
(ステップS101)
図5に示すように、前半工程S100では、まず、視点位置取得部110が、例えば、ユーザ19の頭部に装着されるHMD等に設けられたIMUなどのセンサからのセンサ情報に基づくことで、時刻T1でのユーザ19の視点位置情報を取得する(ステップS101)。なお、取得された視点位置情報には、この視点位置情報を取得した時刻T1を示すタイムスタンプが含まれていてよい。そして、取得された視点位置情報は、レンダリング部120及び視点位置変化計算部140に入力される。 1.3.1 First half process S100
(Step S101)
As shown in FIG. 5, in the first half step S100, first, the viewpoint position acquisition unit 110, for example, based on sensor information from a sensor such as an IMU provided in an HMD or the like worn on the head of the
(ステップS102)
次に、レンダリング部120が、外部から入力された3次元画像情報101を時刻T1の視点位置情報が示すユーザ19の視点位置(F)に基づいてレンダリングすることで、オブジェクトのテクスチャを表すRGB画像データと、オブジェクトの奥行(デプス)を表すデプスマップとを生成する(ステップS102)。 (Step S102)
Next, the rendering unit 120 renders the externally input three-dimensional image information 101 based on the viewpoint position (F) of the user 19 indicated by the viewpoint position information at time T1, thereby generating an RGB image representing the texture of the object. Data and a depth map representing the depth of the object are generated (step S102).
次に、レンダリング部120が、外部から入力された3次元画像情報101を時刻T1の視点位置情報が示すユーザ19の視点位置(F)に基づいてレンダリングすることで、オブジェクトのテクスチャを表すRGB画像データと、オブジェクトの奥行(デプス)を表すデプスマップとを生成する(ステップS102)。 (Step S102)
Next, the rendering unit 120 renders the externally input three-
ここで、ステップS102の処理を、具体例を用いて説明する。図6は、図5のステップS102を説明するための具体例を示す図である。なお、図6では、説明の簡略化のため、図2に示す簡素化された模式図において、初期位置がユーザ19の視点位置(F)(例えば右眼の位置)から前方に500mm(ミリメートル)離れた点オブジェクト18aを表示するための3次元画像情報101がレンダリング部120に入力された場合を例示する。ただし、図6に示す例では、簡単のため、平行射影の場合が示されているが、これに限定されず、透視投影の場合であっても同様に適用可能である。また、図6に示す例では、空間光変調器15は、ユーザ19の視点位置(右眼)から前方に100mm(ミリメートル)離れた位置に配置されているものとする。
Here, the processing of step S102 will be described using a specific example. FIG. 6 is a diagram showing a specific example for explaining step S102 in FIG. 6, in the simplified schematic diagram shown in FIG. 2, the initial position is 500 mm (millimeters) forward from the viewpoint position (F) of the user 19 (for example, the position of the right eye). A case where three-dimensional image information 101 for displaying a distant point object 18a is input to the rendering unit 120 will be illustrated. However, in the example shown in FIG. 6, for the sake of simplicity, the case of parallel projection is shown, but the present invention is not limited to this, and can be similarly applied to the case of perspective projection. In the example shown in FIG. 6, the spatial light modulator 15 is assumed to be arranged at a position 100 mm (millimeters) away from the viewpoint position (right eye) of the user 19 in front.
図7Aは、図6に示す点オブジェクト18aのホログラムをユーザに対して表示する場合のRGB画像データ18RGBの一例を示す図であり、図7Bは、同じく図6に示す点オブジェクト18aのホログラムをユーザに対して表示する場合のデプスマップ18Dの一例を示す図である。
FIG. 7A is a diagram showing an example of RGB image data 18RGB when the hologram of the point object 18a shown in FIG. 6 is displayed to the user. FIG. 10 is a diagram showing an example of a depth map 18D displayed for .
図6に示すように、視点位置(F)から500mm離れた点オブジェクト18aのホログラムをユーザ19に表示する場合、図7Aに示すように、レンダリング部120は、例えば、点オブジェクト18aの領域の画素には点オブジェクト18aのテクスチャに対応する有色の画素値が与えられ、それ以外の領域の画素には黒の画素値が与えられたRGB画像データ18RGBを生成する。すなわち、レンダリング部120は、投影される画像が存在しない領域に黒を設定する。また、図7Bに示すように、レンダリング部120は、例えば、点オブジェクト18aの領域の画素には空間光変調器15から点オブジェクト18aまでの距離である400mmに相当するデプス値が与えられ、それ以外の領域の画素には空間光変調器15からの距離が無限遠であることを示す白の画素値が与えられたデプスマップ18Dを生成する。
As shown in FIG. 6, when displaying the hologram of the point object 18a 500 mm away from the viewpoint position (F) to the user 19, as shown in FIG. are given colored pixel values corresponding to the texture of the point object 18a, and pixels in the other regions are given black pixel values to generate RGB image data 18RGB. That is, the rendering unit 120 sets black to areas where there is no image to be projected. Further, as shown in FIG. 7B, the rendering unit 120 gives, for example, a depth value corresponding to 400 mm, which is the distance from the spatial light modulator 15 to the point object 18a, to pixels in the area of the point object 18a, and A depth map 18D is generated in which white pixel values indicating that the distance from the spatial light modulator 15 is infinite are given to the pixels in the other area.
(ステップS103)
次に、波面伝搬部130が、ステップS102で生成されたRGB+D画像データを波面伝搬することで、空間光変調器15が配置された位置(以下、SLM位置ともいう)(A)でのホログラムパターンの伝搬信号を生成する(ステップS103)。 (Step S103)
Next, the wavefront propagation unit 130 wavefront propagates the RGB+D image data generated in step S102, so that the hologram pattern at the position (hereinafter also referred to as the SLM position) (A) where the spatiallight modulator 15 is arranged is generated (step S103).
次に、波面伝搬部130が、ステップS102で生成されたRGB+D画像データを波面伝搬することで、空間光変調器15が配置された位置(以下、SLM位置ともいう)(A)でのホログラムパターンの伝搬信号を生成する(ステップS103)。 (Step S103)
Next, the wavefront propagation unit 130 wavefront propagates the RGB+D image data generated in step S102, so that the hologram pattern at the position (hereinafter also referred to as the SLM position) (A) where the spatial
ホログラムパターンの伝搬信号を生成するための演算処理は、空間光変調器15のタイプと、伝搬距離と、符号化手法とに依存する。本実施形態では、位相限定型のLCoS(Phase-Only Liquid Crystal on Silicon)を空間光変調器15として用いた場合を例示する。
Arithmetic processing for generating a propagation signal of a hologram pattern depends on the type of spatial light modulator 15, propagation distance, and encoding technique. In this embodiment, a case where a phase-only liquid crystal on silicon (LCoS) is used as the spatial light modulator 15 will be exemplified.
図6~図7Bに示した例のように、伝搬距離が数100mmの範囲である場合、波面伝搬は、フレネル回折の公式により表すことができる。また、位相限定符号化には、二重相符号化アルゴリズムを用いることができる。以下に、本実施形態に係る伝搬式及び符号化アルゴリズムについて説明する。
As in the examples shown in FIGS. 6 to 7B, when the propagation distance is in the range of several 100 mm, the wavefront propagation can be expressed by the Fresnel diffraction formula. A dual-phase encoding algorithm can also be used for phase-only encoding. The propagation formula and encoding algorithm according to this embodiment will be described below.
波面伝搬部130は、図7A及び図7Bにおいて画素単位で表される各点を、以下の式(1)に示すフレネルの波面回折式を用いることで波面伝搬させる。
The wavefront propagating unit 130 propagates the wavefront of each point represented in units of pixels in FIGS. 7A and 7B by using Fresnel's wavefront diffraction formula shown in Equation (1) below.
式(1)において、zは各点が表示される実空間上の表示位置(E)から空間光変調器15が配置されたSLM位置(A)までの距離を示す。例えば、図6~図7Bに示した例では、点オブジェクト18aが表示される実空間上の表示位置(E)から空間光変調器15が配置されたSLM位置(A)まで距離(400mm)がzの値として設定される。
In Equation (1), z indicates the distance from the display position (E) on the real space where each point is displayed to the SLM position (A) where the spatial light modulator 15 is arranged. For example, in the examples shown in FIGS. 6 to 7B, the distance (400 mm) from the display position (E) in the real space where the point object 18a is displayed to the SLM position (A) where the spatial light modulator 15 is arranged is Set as the value of z.
なお、本例では、簡略化のため、点オブジェクト18aが1画素に対応している場合を例示するが、1つのオブジェクトが複数の点より構成されている場合や複数のオブジェクトを表示する場合などでは、波面伝搬部130は、全ての点についてzの値を設定し、各点を式(1)を用いて波面伝搬させることで、全ての点についてホログラムパターンの伝搬信号を生成する。
In this example, for the sake of simplification, the case where the point object 18a corresponds to one pixel is exemplified. Then, the wavefront propagation unit 130 sets the value of z for all points and causes wavefront propagation for each point using equation (1), thereby generating a propagation signal of the hologram pattern for all points.
本例では、式(1)に示すように、ホログラムパターンを生成するために、全ての点の値が合計される。しかしながら、実際のユースケースでは、デプス値が異なる領域を合成する手法を用いる必要がある。例えば、個々の点のデプスオクルージョンを考慮した伝搬アルゴリズムを用いる必要がある。また、SLM位置Aにおけるホログラムパターンの生成に利用することができる他の波動伝搬関数を用いることも可能である。例えば、異なる前提で使用することが可能なレイリー・ゾンマーフェルトの回折式やフラウンホーファーの回折式を用いることも可能である。
In this example, the values of all points are summed to generate the hologram pattern, as shown in equation (1). However, in an actual use case, it is necessary to use a method of synthesizing regions with different depth values. For example, it is necessary to use a propagation algorithm that takes into account depth occlusion of individual points. Other wave propagation functions that can be used to generate the hologram pattern at SLM position A can also be used. For example, it is possible to use the Rayleigh-Sommerfeld diffraction formula and the Fraunhofer diffraction formula, which can be used under different assumptions.
このようなステップS103の処理により、波面伝搬部130は、SLM位置(A)にホログラムを表示する複素数体を表す伝搬信号を生成する。生成された伝搬信号は、複素信号合成部160に入力される。
Through the processing of step S103, the wavefront propagation unit 130 generates a propagation signal representing a complex number that displays a hologram at the SLM position (A). The generated propagation signal is input to the complex signal synthesizing section 160 .
1.3.2 後半工程S200
(ステップS201)
つづいて、後半工程S200では、まず、ステップS101と同様に、視点位置取得部110が、例えば、ユーザ19の頭部に装着されるHMD等に設けられたIMUなどのセンサからのセンサ情報に基づくことで、時刻T2でのユーザ19の視点位置情報を取得する(ステップS201)。そして、取得された視点位置情報は、視点位置変化計算部140に入力される。 1.3.2 Second half process S200
(Step S201)
Subsequently, in the second half step S200, first, similar to step S101, the viewpoint position acquisition unit 110, for example, based on sensor information from a sensor such as an IMU provided in the HMD or the like worn on the head of theuser 19. Thus, viewpoint position information of the user 19 at time T2 is obtained (step S201). The acquired viewpoint position information is input to the viewpoint position change calculation unit 140 .
(ステップS201)
つづいて、後半工程S200では、まず、ステップS101と同様に、視点位置取得部110が、例えば、ユーザ19の頭部に装着されるHMD等に設けられたIMUなどのセンサからのセンサ情報に基づくことで、時刻T2でのユーザ19の視点位置情報を取得する(ステップS201)。そして、取得された視点位置情報は、視点位置変化計算部140に入力される。 1.3.2 Second half process S200
(Step S201)
Subsequently, in the second half step S200, first, similar to step S101, the viewpoint position acquisition unit 110, for example, based on sensor information from a sensor such as an IMU provided in the HMD or the like worn on the head of the
(ステップS202)
次に、視点位置変化計算部140が、ステップS101で入力された時刻T1での視点位置情報における視点位置(F)と、ステップS201で新たに入力された時刻T2での視点位置情報における視点位置(F’)との差分(視点位置変化量)を取得する(ステップS202)。なお、ステップS201で取得された視点位置情報は、レンダリング部120にも入力されて、次以降の3次元画像情報101のレンダリングに使用されてよい。 (Step S202)
Next, the viewpoint positionchange calculation unit 140 calculates the viewpoint position (F) in the viewpoint position information at time T1 input in step S101 and the viewpoint position in the viewpoint position information at time T2 newly input in step S201. A difference (viewpoint position change amount) from (F') is obtained (step S202). Note that the viewpoint position information acquired in step S201 may also be input to the rendering unit 120 and used for rendering the 3D image information 101 from the next time onward.
次に、視点位置変化計算部140が、ステップS101で入力された時刻T1での視点位置情報における視点位置(F)と、ステップS201で新たに入力された時刻T2での視点位置情報における視点位置(F’)との差分(視点位置変化量)を取得する(ステップS202)。なお、ステップS201で取得された視点位置情報は、レンダリング部120にも入力されて、次以降の3次元画像情報101のレンダリングに使用されてよい。 (Step S202)
Next, the viewpoint position
図8は、時刻T1から時刻T2の間にユーザの視点位置が変化した場合を説明するための図である。なお、図8において、ユーザ19の視点位置(F)と、空間光変調器15と、ホログラム18(ただし、図6等に示す点オブジェクト18a)が表示される表示位置(E)との位置関係は、図3及び図6~図7Bに例示したものと同じであるとする。
FIG. 8 is a diagram for explaining a case where the user's viewpoint position changes between time T1 and time T2. 8, the positional relationship between the viewpoint position (F) of the user 19, the spatial light modulator 15, and the display position (E) where the hologram 18 (however, the point object 18a shown in FIG. 6 and the like) is displayed. are the same as those illustrated in FIGS. 3 and 6 to 7B.
図8の左図(T1)に示すように、空間光変調器15で表示されるホログラムパターン(点オブジェクト18a)は、時刻T1におけるユーザ19の視点位置(F)に基づいて算出される。しかしながら、図8の左図(T1)から右図(T2)に示すように、時刻T1から時刻T2までの間にユーザ19の視点位置及び空間光変調器15の位置が視点位置(F)及び位置(A)から例えば右側に距離d離れた視点位置(F’)及び(A’)に平行移動した場合、時刻T1の視点位置(F)に基づいて算出された点オブジェクト18aをそのまま表示すると、点オブジェクト18aは、本来表示されるべき表示位置(E)から右方向へ距離d移動した表示位置(E’)に表示されることとなる。なお、図8において、点オブジェクト18aから延びる矢印は、点オブジェクト18aから空間光変調器15を介してユーザ19の視点位置(F)又は(F’)までの光路を示している。
As shown in the left diagram (T1) of FIG. 8, the hologram pattern (point object 18a) displayed by the spatial light modulator 15 is calculated based on the viewpoint position (F) of the user 19 at time T1. However, as shown in the left diagram (T1) to the right diagram (T2) of FIG. If the point object 18a calculated based on the viewpoint position (F) at time T1 is displayed as it is when the position (A) is translated to the viewpoint positions (F') and (A') separated by a distance d to the right, for example, , the point object 18a is displayed at the display position (E') which is moved rightward by a distance d from the display position (E) where it should be displayed. In FIG. 8, an arrow extending from the point object 18a indicates an optical path from the point object 18a through the spatial light modulator 15 to the viewpoint position (F) or (F') of the user 19. FIG.
そこで、図5のステップS202では、レンダリングから表示までの間の視点位置(F)の移動によるホログラムパターンの表示位置のずれを補正するために、レンダリング部120が3次元画像情報101のレンダリングに使用した時刻T1の視点位置情報におけるユーザ19の視点位置(F)と、表示直前の時刻T2に視点位置取得部110により取得された視点位置情報におけるユーザ19の視点位置(F’)との差分が視点位置変化量として取得される。例えば、図8に示す例では、点オブジェクト18aが表示される位置を表示位置(E’)から表示位置(E)に補正するために、視点位置変化計算部140は、視点位置(F)と視点位置(F’)との距離d(例えば3mm)を視点位置変化量として取得する。なお、視点位置変化量は、視点位置(F)から視点位置(F’)までのベクトルであってもよい。
Therefore, in step S202 of FIG. 5, the rendering unit 120 uses the 3D image information 101 to render the three-dimensional image information 101 in order to correct the deviation of the display position of the hologram pattern due to the movement of the viewpoint position (F) between rendering and display. The difference between the viewpoint position (F) of the user 19 in the viewpoint position information at time T1 and the viewpoint position (F′) of the user 19 in the viewpoint position information acquired by the viewpoint position acquisition unit 110 at time T2 immediately before the display is Acquired as a viewpoint position change amount. For example, in the example shown in FIG. 8, in order to correct the position where the point object 18a is displayed from the display position (E') to the display position (E), the viewpoint position change calculation unit 140 changes the viewpoint position (F) and A distance d (for example, 3 mm) from the viewpoint position (F′) is acquired as the viewpoint position change amount. Note that the viewpoint position change amount may be a vector from the viewpoint position (F) to the viewpoint position (F').
(ステップS203)
次に、補正信号生成部150が、ステップS202で生成された視点位置変化量に基づいて、視点位置の変化による表示位置のずれを低減するための補正信号を生成する(ステップS203)。 (Step S203)
Next, the correctionsignal generation unit 150 generates a correction signal for reducing display position deviation due to a change in viewpoint position based on the viewpoint position change amount generated in step S202 (step S203).
次に、補正信号生成部150が、ステップS202で生成された視点位置変化量に基づいて、視点位置の変化による表示位置のずれを低減するための補正信号を生成する(ステップS203)。 (Step S203)
Next, the correction
ここで、視点位置の変化による表示位置のずれを低減する方法としては、いくつかの方法が存在する。本実施形態では、ステップS103で生成された伝搬信号に直線位相信号を加算する方法を例示する。
Here, there are several methods for reducing display position deviation due to changes in viewpoint position. This embodiment illustrates a method of adding a linear phase signal to the propagation signal generated in step S103.
直線位相信号は、視点位置の変化に従って複素数体で表示されるオブジェクトをシフトさせるための補正信号であり、例えば、以下の式(2)で表すことができる。
A linear phase signal is a correction signal for shifting an object displayed in the field of complex numbers in accordance with a change in viewpoint position, and can be expressed by the following equation (2), for example.
例えば、図8に示す例のように、視点位置変化量が3mmで、SLM位置(A)から表示位置(E)までの距離が400mmの場合、上記式(2)に基づき、点オブジェクト18aからの光路をtan-1(3/400)(約0.43度)左回転させることで、視点位置が(F)から(F’)に移動した場合でも、点オブジェクト18aの表示位置を移動前の表示位置(E)とすることが可能となる。
For example, as in the example shown in FIG. 8, when the viewpoint position change amount is 3 mm and the distance from the SLM position (A) to the display position (E) is 400 mm, based on the above equation (2), from the point object 18a By rotating the optical path tan −1 (3/400) (about 0.43 degrees) counterclockwise, the display position of the point object 18a can be changed to the position before the movement even when the viewpoint position moves from (F) to (F′). can be set to the display position (E).
ここで、図5に示す模式図において、初期状態での点オブジェクト18aからの光路の空間光変調器15(図5の場合)に対する入射角をゼロ度とし、光源11から出射する光の波長を532nm(ナノメートル)とし、空間光変調器15の画素ピッチを3.74μm(マイクロメートル)と仮定すると、空間光変調器15からの光の光路を0.86度回転させるためには、複素数体に加算される直線位相での隣接画素間の位相差を約0.33128ラジアン、つまり19度とする必要がある。
Here, in the schematic diagram shown in FIG. 5, the incident angle of the optical path from the point object 18a to the spatial light modulator 15 (in the case of FIG. 5) in the initial state is assumed to be zero degrees, and the wavelength of the light emitted from the light source 11 is assumed to be Assuming 532 nm (nanometers) and the pixel pitch of the spatial light modulator 15 to be 3.74 μm (micrometers), in order to rotate the optical path of light from the spatial light modulator 15 by 0.86 degrees, the complex number field should be approximately 0.33128 radians, or 19 degrees, between adjacent pixels in linear phase added to .
そして、図8に示す例のように、視点位置が右方向(これをx方向とする)にのみ移動する場合を仮定すると、補正信号は、点オブジェクト18aの位置をx方向に移動させればよいこととなる。その場合、x方向に対してのみ直線位相が適用される。
Assuming that the position of the viewpoint moves only in the right direction (this is assumed to be the x direction) as in the example shown in FIG. 8, the correction signal is It will be good. In that case, linear phase is applied only for the x-direction.
図9は、x方向のみの直線位相の補償位相パターンの一例を示す図である。なお、図9において、横軸は視点位置変化量(画素単位)を示し、縦軸は位相を示している。また、図10に示すように、図9に示す直線位相は、0~2πの周期で繰り返される位相パターンとするが可能である。
FIG. 9 is a diagram showing an example of a compensating phase pattern of linear phase only in the x direction. In FIG. 9, the horizontal axis indicates the viewpoint position change amount (in units of pixels), and the vertical axis indicates the phase. Also, as shown in FIG. 10, the linear phase shown in FIG. 9 can be a phase pattern that repeats with a period of 0 to 2π.
また、図11は、0~2πの範囲の位相値がグレースケールで表現された直線位相の補償位相パターンの2次元画像である。なお、図11に示す例では、黒色が最も位相差が小さく、白色に近づくほど位相差が大きい。
Also, FIG. 11 is a two-dimensional image of a linear phase compensation phase pattern in which phase values in the range of 0 to 2π are expressed in gray scale. In the example shown in FIG. 11, black has the smallest phase difference, and the closer to white, the greater the phase difference.
(ステップS204)
次に、複素信号合成部160が、ステップS103で生成された伝搬信号と、ステップS203で生成された補正信号とを合成することで、ホログラムパターンの複素信号を生成する(ステップS204)。伝搬信号と補正信号との合成には、例えば、以下に示す式(3)が使用される。
(Step S204)
Next, the complexsignal synthesizing unit 160 synthesizes the propagation signal generated in step S103 and the correction signal generated in step S203 to generate a complex signal of the hologram pattern (step S204). Equation (3) shown below, for example, is used to synthesize the propagation signal and the correction signal.
次に、複素信号合成部160が、ステップS103で生成された伝搬信号と、ステップS203で生成された補正信号とを合成することで、ホログラムパターンの複素信号を生成する(ステップS204)。伝搬信号と補正信号との合成には、例えば、以下に示す式(3)が使用される。
Next, the complex
(ステップS205)
次に、干渉縞変換部170が、ホログラムパターン変換処理を実行する(ステップS205)。ホログラムパターン変換処理では、ステップS204で生成された複素信号により表される複素数体が空間光変調器15を用いて表示できるホログラムパターンの位相信号に変換される。このホログラムパターン変換処理には、空間光変調器15のタイプごとに異なる変換手法が要求される。本説明で例示したように、空間光変調器15が位相限定型のSLMである場合、ホログラムを空間光変調器15で表示するためには、複素数体が位相のみのフィールドに変換される必要がある。ただし、これに限定されず、その他の種々の符号化手法が用いられてもよい。例えば、振幅廃棄法(Amplitude Discard method)やGerchberg-Saxtonアルゴリズムや二重相符号化アルゴリズムなどの手法が用いられてもよい。本例では、上述したように、二重相符号化アルゴリズムを用いた場合を例示する。その場合の計算式を以下の式(4)に示す。
(Step S205)
Next, the interferencefringe conversion unit 170 executes hologram pattern conversion processing (step S205). In the hologram pattern conversion process, the complex number field represented by the complex signal generated in step S204 is converted into a hologram pattern phase signal that can be displayed using the spatial light modulator 15 . This hologram pattern conversion process requires a different conversion technique for each type of spatial light modulator 15 . If the spatial light modulator 15 is a phase-only SLM, as exemplified in this description, the complex number field needs to be converted to a phase-only field in order for the hologram to be displayed on the spatial light modulator 15. be. However, it is not limited to this, and various other encoding methods may be used. For example, techniques such as the Amplitude Discard method, the Gerchberg-Saxton algorithm, and the Dual Phase Encoding algorithm may be used. In this example, as described above, the case of using the dual-phase encoding algorithm is illustrated. The calculation formula in that case is shown in the following formula (4).
次に、干渉縞変換部170が、ホログラムパターン変換処理を実行する(ステップS205)。ホログラムパターン変換処理では、ステップS204で生成された複素信号により表される複素数体が空間光変調器15を用いて表示できるホログラムパターンの位相信号に変換される。このホログラムパターン変換処理には、空間光変調器15のタイプごとに異なる変換手法が要求される。本説明で例示したように、空間光変調器15が位相限定型のSLMである場合、ホログラムを空間光変調器15で表示するためには、複素数体が位相のみのフィールドに変換される必要がある。ただし、これに限定されず、その他の種々の符号化手法が用いられてもよい。例えば、振幅廃棄法(Amplitude Discard method)やGerchberg-Saxtonアルゴリズムや二重相符号化アルゴリズムなどの手法が用いられてもよい。本例では、上述したように、二重相符号化アルゴリズムを用いた場合を例示する。その場合の計算式を以下の式(4)に示す。
Next, the interference
図12に示すように、式(4)におけるPa及びPbは、ホログラムパターンを空間光変調器15で表示するための位相のみの信号(位相信号)を形成するために、市松模様のように交互に入れ替わっている。この市松模様のパターンは固定されているため、空間光変調器15の画素ごとに式(4)におけるPa及びPbが計算されるように、符号化処理を実行することができる。
As shown in FIG. 12, Pa and Pb in equation (4) alternate in a checkerboard pattern to form a phase-only signal (phase signal) for displaying the hologram pattern on spatial light modulator 15. has been replaced by Since this checkerboard pattern is fixed, the encoding process can be performed such that Pa and Pb in equation (4) are calculated for each pixel of spatial light modulator 15 .
なお、Pa及びPbは、共に位相値であるため、式(4)で計算された値が空間光変調器15が対応可能な範囲を超えた場合でも、0~2πの範囲に落とし込むことが可能である。
Since both Pa and Pb are phase values, even if the value calculated by the formula (4) exceeds the range that the spatial light modulator 15 can handle, it can be reduced to the range of 0 to 2π. is.
(ステップS206)
ステップS205で生成されたホログラムパターンの位相信号は、光源11を制御する出力装置180に入力される。そして、出力装置180が入力された位相信号に基づいて光源11を制御することで、ホログラムパターンを表示するための光が空間光変調器15の変調面に照射され、それにより、ユーザ19に対して表示位置(E)のホログラムが表示される(ステップS206)。 (Step S206)
The phase signal of the hologram pattern generated in step S205 is input to theoutput device 180 that controls the light source 11. FIG. Then, by controlling the light source 11 based on the phase signal input by the output device 180, the light for displaying the hologram pattern is irradiated onto the modulation surface of the spatial light modulator 15, thereby causing the user 19 to Then, the hologram at the display position (E) is displayed (step S206).
ステップS205で生成されたホログラムパターンの位相信号は、光源11を制御する出力装置180に入力される。そして、出力装置180が入力された位相信号に基づいて光源11を制御することで、ホログラムパターンを表示するための光が空間光変調器15の変調面に照射され、それにより、ユーザ19に対して表示位置(E)のホログラムが表示される(ステップS206)。 (Step S206)
The phase signal of the hologram pattern generated in step S205 is input to the
以上のように、前半工程S100と後半工程S200とを実行すると、例えば、ホログラム表示システムの全体動作を制御する制御部は、本動作を継続するか否かを判定し(ステップS300)、終了する場合(ステップS300のYES)、本動作を終了する。一方、終了しない場合(ステップS300のNO)、制御部は、ステップS101へ戻り、以降の動作を実行する。
As described above, when the first half step S100 and the second half step S200 are executed, for example, the control unit that controls the overall operation of the hologram display system determines whether or not to continue this operation (step S300), and ends the operation. If so (YES in step S300), this operation is terminated. On the other hand, when not ending (NO of step S300), a control part returns to step S101 and performs subsequent operation|movements.
1.4 作用効果
以上のように、本実施形態によれば、表示直前の視点位置(F’)に基づいて表示対象のホログラムパターンが補正されるため、視点位置の変化による表示位置のずれを低減することが可能となる。それにより、実空間とそれに重畳されたオブジェクトと位置ずれによるユーザが抱く違和感等を低減することが可能となるため、ユーザの視聴体験の低下を抑制することが可能となる。 1.4 Effects As described above, according to the present embodiment, the hologram pattern to be displayed is corrected based on the viewpoint position (F′) immediately before display. can be reduced. As a result, it is possible to reduce the sense of discomfort that the user feels due to the positional deviation between the real space and the object superimposed thereon, so that it is possible to suppress deterioration in the user's viewing experience.
以上のように、本実施形態によれば、表示直前の視点位置(F’)に基づいて表示対象のホログラムパターンが補正されるため、視点位置の変化による表示位置のずれを低減することが可能となる。それにより、実空間とそれに重畳されたオブジェクトと位置ずれによるユーザが抱く違和感等を低減することが可能となるため、ユーザの視聴体験の低下を抑制することが可能となる。 1.4 Effects As described above, according to the present embodiment, the hologram pattern to be displayed is corrected based on the viewpoint position (F′) immediately before display. can be reduced. As a result, it is possible to reduce the sense of discomfort that the user feels due to the positional deviation between the real space and the object superimposed thereon, so that it is possible to suppress deterioration in the user's viewing experience.
1.5 変形例
つづいて、上述した第1の実施形態の変形例について、いくつか例を挙げて説明する。 1.5 Modifications Next, several modifications of the above-described first embodiment will be described.
つづいて、上述した第1の実施形態の変形例について、いくつか例を挙げて説明する。 1.5 Modifications Next, several modifications of the above-described first embodiment will be described.
1.5.1 変形例1
上述した第1の実施形態では、図5を用いて説明したように、ある時刻T1におけるユーザ19の視点位置(F)に基づいてホログラムパターンの伝搬信号を生成する前半工程S100と、表示直前の時刻T2のユーザ19の視点位置(F’)に基づいてホログラムパターンを補正して補正後のホログラムパターンを表示する後半工程S200との2つの工程から構成され、前半工程S100が完了した後に後半工程S200が実行されるように構成されていた。 1.5.1Modification 1
In the first embodiment described above, as described with reference to FIG. 5, the first half step S100 of generating the propagation signal of the hologram pattern based on the viewpoint position (F) of theuser 19 at a certain time T1, and the The hologram pattern is corrected based on the viewpoint position (F') of the user 19 at time T2, and the hologram pattern is displayed after correction. S200 was configured to be executed.
上述した第1の実施形態では、図5を用いて説明したように、ある時刻T1におけるユーザ19の視点位置(F)に基づいてホログラムパターンの伝搬信号を生成する前半工程S100と、表示直前の時刻T2のユーザ19の視点位置(F’)に基づいてホログラムパターンを補正して補正後のホログラムパターンを表示する後半工程S200との2つの工程から構成され、前半工程S100が完了した後に後半工程S200が実行されるように構成されていた。 1.5.1
In the first embodiment described above, as described with reference to FIG. 5, the first half step S100 of generating the propagation signal of the hologram pattern based on the viewpoint position (F) of the
これに対し、本変形例1では、前半工程S100と後半工程S200とが独立して動作する場合を例に挙げる。図13は、本変形例1に係る動作フローを説明するためのタイミングチャートである。
On the other hand, in Modification 1, the case where the first half process S100 and the second half process S200 operate independently will be taken as an example. FIG. 13 is a timing chart for explaining the operation flow according to Modification 1. As shown in FIG.
図13に示すように、本変形例1では、視点位置取得部110は、HMD等に設けられたセンサから順次入力されるセンサ情報に基づいて、所定の周期で視線位置情報を生成する(ステップS101、S201)。生成された視線位置情報は、順次、レンダリング部120及び視点位置変化計算部140に入力される。
As shown in FIG. 13, in Modification 1, the viewpoint position acquisition unit 110 generates line-of-sight position information in a predetermined cycle based on sensor information sequentially input from sensors provided in an HMD or the like (step S101, S201). The generated line-of-sight position information is sequentially input to the rendering unit 120 and the viewpoint position change calculation unit 140 .
また、本変形例1では、前半工程S100、すなわち図5におけるステップS101~S103が後半工程S200とは非同期にループされ、同様に、後半工程S200、すなわち図5におけるステップS201~S205が前半工程S100とは非同期にループされる。なお、視点位置取得部110が視点位置情報を出力する周期は、前半工程S100及び後半工程S200がループされる周期よりも短い周期であってよい。
Further, in Modification 1, the first half process S100, that is, steps S101 to S103 in FIG. 5 are looped asynchronously with the second half process S200. is looped asynchronously. The cycle in which the viewpoint position acquisition unit 110 outputs the viewpoint position information may be a cycle shorter than the cycle in which the first half step S100 and the second half step S200 are looped.
前半工程S100のループでは、図5を用いて説明した動作と同様に、視点位置取得部110から順次入力(S101)される視点位置情報のうち最新の視点位置情報に基づいて最新の3次元画像情報101がレンダリング(S102)され、それにより生成されたレンダリング画像からホログラムパターンの伝搬信号が生成(S103)される動作が繰り返される。
In the loop of the first half step S100, similar to the operation described using FIG. The operation of rendering the information 101 (S102) and generating the propagation signal of the hologram pattern from the rendered image thus generated (S103) is repeated.
また、後半工程S200のループでは、図5を用いて説明した動作と同様に、視点位置取得部110から順次入力(S201)される視点位置情報のうち最新のセンサ情報に基づいて視点位置変化量が取得(S202)され、取得された視点位置変化量に基づいて補正信号が生成(S203)され、生成された補正信号を用いることで、前半工程S100のループにおいて順次生成される伝搬信号のうちの最新の伝搬信号が補正(S204)され、そして、この補正により生成された複素信号が位相信号に変換(S205)されて出力されることで、ホログラムパターンが空間光変調器15で表示(S206)される動作が繰り返される。
Further, in the loop of the second half step S200, similar to the operation described with reference to FIG. is acquired (S202), a correction signal is generated based on the acquired viewpoint position change amount (S203), and by using the generated correction signal, is corrected (S204), and the complex signal generated by this correction is converted into a phase signal (S205) and output, so that the hologram pattern is displayed on the spatial light modulator 15 (S206 ) is repeated.
ここで、図13に示されているように、ステップS101~S103及びS201~S206の処理のうち、ステップS103の波面伝搬処理は、他の処理と比較して、非常に長い処理時間を要する。そのため、例えば、時刻T3にてユーザ19にホログラムを表示する場合、そのホログラムパターンの生成に使用される伝搬信号が時刻T1の視点位置情報を用いてレンダリングされたレンダリング画像に基づく伝搬信号となるため、表示直前の時刻T2での視点位置情報に基づいて伝搬信号を補正しない場合、非常に大きな表示位置のずれが生じてしまう可能性が存在する。そして、ユーザ19は、このような表示位置のずれに対して敏感であるため、何ら補正をしない場合、ユーザの視聴体験を著しく低下させてしまう可能性が存在する。
Here, as shown in FIG. 13, among the processes of steps S101 to S103 and S201 to S206, the wavefront propagation process of step S103 requires a much longer processing time than the other processes. Therefore, for example, when displaying a hologram to the user 19 at time T3, the propagation signal used to generate the hologram pattern is based on the rendered image rendered using the viewpoint position information at time T1. If the propagated signal is not corrected based on the viewpoint position information at the time T2 immediately before the display, there is a possibility that a very large shift in the display position will occur. Since the user 19 is sensitive to such display position deviation, there is a possibility that the user's viewing experience will be significantly degraded if no correction is made.
これに対し、本変形例1のように、前半工程S100のループで順次生成される伝搬信号を表示直線の視点位置にて補正する後半工程S200を前半工程S100とは非同期にループさせることで、より具体的には、補正信号生成部150が波面伝搬部130による伝搬信号の生成とは非同期に補正信号を生成することで、ユーザ19に対して常に最新の視点位置に基づくホログラムを表示することが可能となるため、表示位置のずれを低減することが可能となる。その結果、ユーザの視聴体験の低下を抑制することが可能となる。
On the other hand, as in Modification 1, by looping the second half step S200 for correcting the propagation signals sequentially generated in the loop of the first half step S100 at the viewpoint position of the display straight line asynchronously with the first half step S100, More specifically, the correction signal generation unit 150 generates the correction signal asynchronously with the generation of the propagation signal by the wavefront propagation unit 130, so that the hologram based on the latest viewpoint position is always displayed to the user 19. is possible, it is possible to reduce the deviation of the display position. As a result, it becomes possible to suppress deterioration of the user's viewing experience.
また、前半工程S100のループで順次生成される伝搬信号を表示直線の視点位置にて補正する後半工程S200を前半工程S100とは非同期にループさせることで、同じ前半工程S100で生成された伝搬信号を時刻の異なる2以上の視点位置それぞれに基づいて補正してホログラムを表示することが可能となるため、ユーザ19に表示されるホログラムの実質的なフレームレートを上げることが可能となる。
In addition, by looping the second half step S200 in which the propagation signals sequentially generated in the loop of the first half step S100 are corrected at the viewpoint position of the display straight line asynchronously with the first half step S100, the propagation signals generated in the same first half step S100 can be corrected based on each of two or more viewpoint positions at different times to display the hologram, the substantial frame rate of the hologram displayed to the user 19 can be increased.
1.5.2 変形例2
変形例2では、視点位置取得部110について言及する。上述した第1の実施形態では、視点位置取得部110は、ユーザ19の頭部に装着されるHMDに設けられたIMUやユーザ19の眼や顔の画像を取得するカメラなどのセンサから入力されたセンサ情報に基づいて、ユーザ19の視点位置情報を取得する場合を例示した。これに対し、変形例2では、ユーザ19の頭部に装着されたHMDの位置や姿勢からユーザ19の視点位置(頭や目の位置)を推定する場合を例示する。 1.5.2Modification 2
Modification 2 refers to the viewpoint position acquisition unit 110 . In the first embodiment described above, the viewpoint position acquisition unit 110 receives input from sensors such as an IMU provided in the HMD worn on the head of the user 19 and a camera that acquires images of the eyes and face of the user 19. The case where the viewpoint position information of the user 19 is acquired based on the sensor information obtained is illustrated. On the other hand, in Modification 2, the case where the viewpoint position (head and eye positions) of the user 19 is estimated from the position and posture of the HMD worn on the head of the user 19 will be illustrated.
変形例2では、視点位置取得部110について言及する。上述した第1の実施形態では、視点位置取得部110は、ユーザ19の頭部に装着されるHMDに設けられたIMUやユーザ19の眼や顔の画像を取得するカメラなどのセンサから入力されたセンサ情報に基づいて、ユーザ19の視点位置情報を取得する場合を例示した。これに対し、変形例2では、ユーザ19の頭部に装着されたHMDの位置や姿勢からユーザ19の視点位置(頭や目の位置)を推定する場合を例示する。 1.5.2
HMDの位置や姿勢からユーザ19の視点位置を推定する場合、センサには、例えば、SLAMに用いられるセンサのように、IMUなどの内界センサと、外部カメラやToF(Time of Flight)センサやLiDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)などの外界センサとの組み合わせが用いられ得る。例えば、IMUは、1000Hz以上の高いサンプリング周波数で且つ数ms(ミリ秒)以下の低廉シーでのセンシングが可能であるため、IMUからのセンサ情報を用いることで、HMDの正確な位置や姿勢を低レイテンシーで且つ高頻度に取得することが可能となる。
When estimating the viewpoint position of the user 19 from the position and orientation of the HMD, the sensors include, for example, an internal sensor such as an IMU, such as a sensor used for SLAM, an external camera, a ToF (Time of Flight) sensor, and the like. A combination with external sensors such as LiDAR (Light Detection and Ranging, Laser Imaging Detection and Ranging) can be used. For example, the IMU is capable of sensing at a high sampling frequency of 1000 Hz or higher and at a low cost of several milliseconds (milliseconds) or less. It is possible to acquire with low latency and high frequency.
そして、ユーザ19の視点位置(頭や目の位置)は、HMDの位置や姿勢から推定することが可能である。したがって、ユーザ19の視点位置の推定にIMUからのセンサ情報を用いることで、正確な視点位置を低レイテンシーで且つ高頻度に取得することが可能となる。このような、正確な視点位置の低レイテンシーで且つ高頻度な取得は、図5に例示した動作(例えば、ステップS103の波面伝搬処理)に時間がかかることにより生じる表示位置のずれなどの副作用を低減することに寄与し得る。
Then, the viewpoint position (head and eye position) of the user 19 can be estimated from the position and posture of the HMD. Therefore, by using the sensor information from the IMU for estimating the viewpoint position of the user 19, it is possible to obtain an accurate viewpoint position with low latency and high frequency. Such acquisition of an accurate viewpoint position with low latency and high frequency eliminates side effects such as displacement of the display position caused by the operation illustrated in FIG. can contribute to reducing
1.5.3 変形例3
第1の実施形態において、表示位置のずれをより低減させるためには、後半工程S200の処理時間、すなわち表示直線の視点位置(F’)の視点位置情報を取得してからホログラムパターンを表示するまでの時間をより短縮することが有効である。そこで、本変形例3では、後半工程S200におけるステップS202に示す補正信号の生成処理にルックアップテーブル(LUT)を用いることで、ステップS202を含めた後半工程S200全体の処理時間を短縮する。 1.5.3Modification 3
In the first embodiment, in order to further reduce the deviation of the display position, the hologram pattern is displayed after obtaining the viewpoint position information of the viewpoint position (F′) of the display straight line during the processing time of the latter step S200. It is effective to shorten the time to Therefore, inModification 3, a lookup table (LUT) is used in the process of generating the correction signal shown in step S202 in the latter half of the process S200, thereby shortening the processing time of the entire latter half of the process S200 including step S202.
第1の実施形態において、表示位置のずれをより低減させるためには、後半工程S200の処理時間、すなわち表示直線の視点位置(F’)の視点位置情報を取得してからホログラムパターンを表示するまでの時間をより短縮することが有効である。そこで、本変形例3では、後半工程S200におけるステップS202に示す補正信号の生成処理にルックアップテーブル(LUT)を用いることで、ステップS202を含めた後半工程S200全体の処理時間を短縮する。 1.5.3
In the first embodiment, in order to further reduce the deviation of the display position, the hologram pattern is displayed after obtaining the viewpoint position information of the viewpoint position (F′) of the display straight line during the processing time of the latter step S200. It is effective to shorten the time to Therefore, in
LUTには、上述において式(2)に示した要求される回折角θに基づいて補償するために、事前に計算された補償位相パターンが格納されている。LUTに格納される補償位相パターンの数は、回折角θを幾つに量子化するかに依存する。例えば、0.1~3.0度の回折角θを0.1度刻みに量子化した場合には、LUTには、30個の補償位相パターンが格納される。
The LUT stores pre-calculated compensating phase patterns to compensate based on the required diffraction angle θ given in equation (2) above. The number of compensating phase patterns stored in the LUT depends on how many diffraction angles θ are quantized. For example, when the diffraction angle θ of 0.1 to 3.0 degrees is quantized in increments of 0.1 degrees, the LUT stores 30 compensating phase patterns.
ここで、例として、回折角θが1.0度の補償位相パターンを事前に計算する場合を説明する。例えば、図5に示す模式図において、初期状態での点オブジェクト18aからの光路の空間光変調器15(図5の場合)に対する入射角をゼロ度とし、光源11から出射する光の波長を532nm(ナノメートル)とし、空間光変調器15の画素ピッチを3.74μmと仮定すると、空間光変調器15からの光の光路を1.0度回転させるためには、複素数体に加算される直線位相での隣接画素間の位相差を約0.77ラジアン、つまり44度とする必要がある。図14に、事前に計算された1次元表現の補償位相パターンの一例を示す。また、図15に、図14に示す補償位相パターンを2次元表現することで得られる2次元画像を示す。なお、LUTにおける他の補償位相パターンについても、上述による手法と同様の簡単な手法で生成することが可能である。
Here, as an example, a case will be described in which a compensating phase pattern with a diffraction angle θ of 1.0 degrees is calculated in advance. For example, in the schematic diagram shown in FIG. 5, the incident angle of the optical path from the point object 18a to the spatial light modulator 15 (in the case of FIG. 5) in the initial state is zero degrees, and the wavelength of the light emitted from the light source 11 is 532 nm. (nanometers), and the pixel pitch of the spatial light modulator 15 is assumed to be 3.74 μm. The phase difference between adjacent pixels in phase should be about 0.77 radians, or 44 degrees. FIG. 14 shows an example of a pre-computed one-dimensional representation of the compensating phase pattern. Also, FIG. 15 shows a two-dimensional image obtained by two-dimensionally expressing the compensating phase pattern shown in FIG. Other compensating phase patterns in the LUT can also be generated by a simple method similar to the method described above.
1.5.4 変形例4
また、変形例3で例示したLUTから取得された補償位相は、実際の使用に基づいて補正されてもよい。例えば、ユーザ19の視点が水平方向(x方向)だけでなく垂直方向(y方向)にも移動するような場合、補償位相(補正信号)は、ホログラムとして表示するオブジェクトを2次元方向にシフトさせるように補正されてもよい。 1.5.4Modification 4
Also, the compensation phase obtained from the LUT illustrated inModification 3 may be corrected based on actual use. For example, if the viewpoint of the user 19 moves not only horizontally (x-direction) but also vertically (y-direction), the compensation phase (correction signal) shifts the object displayed as a hologram in two dimensions. may be corrected as follows.
また、変形例3で例示したLUTから取得された補償位相は、実際の使用に基づいて補正されてもよい。例えば、ユーザ19の視点が水平方向(x方向)だけでなく垂直方向(y方向)にも移動するような場合、補償位相(補正信号)は、ホログラムとして表示するオブジェクトを2次元方向にシフトさせるように補正されてもよい。 1.5.4
Also, the compensation phase obtained from the LUT illustrated in
例えば、図6~図8に示す例において、ユーザ19の視点位置(F)がx方向及びy方向にそれぞれ3mmずつ移動した場合、点オブジェクト18aの表示位置(E’)をx方向及びy方向にシフトさせるための補償位相パターンを連続して適用することで、点オブジェクト18aの表示位置をx方向及びy方向にシフトさせて本来の表示位置(E)とすることが可能である。
For example, in the examples shown in FIGS. 6 to 8, when the viewpoint position (F) of the user 19 moves 3 mm each in the x direction and the y direction, the display position (E′) of the point object 18a is changed to It is possible to shift the display position of the point object 18a in the x direction and the y direction to the original display position (E) by continuously applying the compensation phase pattern for shifting to .
表示位置をx方向及びy方向にシフトさせるための補償位相パターンは、x方向の補償位相パターンと、y方向の補償位相パターンとの組み合わせとすることができる。x方向の補償位相パターンには、例えば、図11に例示した補償位相パターンを用いることができる。その場合、空間光変調器15の画素のアスペクト比(x:y)が1:1である場合、すなわち、画素形状が正方形である場合、y方向の補償位相パターンには、図16に示すように、x方向の補償位相パターンを90度右回転させた補償位相パターンを用いることが可能である。なお、空間光変調器15の画素のアスペクト比(x:y)がm:nである場合、x方向の補償位相パターンを90度右回転させた補償位相パターンのx方向をm/n倍し、その解像度を(m:n)にすることで得られる補償位相パターンをy方向の補償位相パターンとして用いてもよい。これにより、(m:n)の領域から(m:n)の領域が切り出される(クロッピングされる)。
A compensation phase pattern for shifting the display position in the x-direction and the y-direction can be a combination of an x-direction compensation phase pattern and a y-direction compensation phase pattern. For example, the compensating phase pattern illustrated in FIG. 11 can be used as the compensating phase pattern in the x direction. In that case, when the pixel aspect ratio (x:y) of the spatial light modulator 15 is 1:1, that is, when the pixel shape is square, the compensating phase pattern in the y direction is as shown in FIG. In addition, it is possible to use a compensating phase pattern obtained by rotating the compensating phase pattern in the x direction to the right by 90 degrees. When the aspect ratio (x:y) of the pixels of the spatial light modulator 15 is m:n, the x direction of the compensating phase pattern obtained by rotating the compensating phase pattern in the x direction to the right by 90 degrees is multiplied by m/n. , the compensating phase pattern obtained by setting the resolution to (m:n) may be used as the compensating phase pattern in the y direction. As a result, the (m:n) area is cut out (cropped) from the (m:n) area.
このように、2つの位相成分をホログラムパターンの複素数体に連続して適用することは、位相成分として表現された複素数体とホログラムパターンの複素数体とを乗算することと同じである。そのため、以下の式(5)に示される結合法則を用いた場合、図11に示すx方向の補償位相パターンと図16に示すy方向の補償位相パターンとを合成した最終的な補償位相パターンは、図17に示すようになる。
Applying two phase components successively to the complex number field of the hologram pattern in this way is the same as multiplying the complex number field expressed as the phase component and the complex number field of the hologram pattern. Therefore, when the combination rule shown in the following equation (5) is used, the final compensating phase pattern obtained by synthesizing the compensating phase pattern in the x direction shown in FIG. 11 and the compensating phase pattern in the y direction shown in FIG. 16 is , as shown in FIG.
2.第2の実施形態
次に、本開示の第2の実施形態に係る情報処理装置、情報処理方法及びプログラムを記録した記録媒体について、図面を参照して詳細に説明する。なお、以下の説明において、第1の実施形態又はその変形例と同様の構成及び動作については、それらを引用することで、重複する説明を省略する。 2. Second Embodiment Next, an information processing apparatus, an information processing method, and a recording medium storing a program according to a second embodiment of the present disclosure will be described in detail with reference to the drawings. It should be noted that in the following description, configurations and operations that are the same as those of the first embodiment or its modification will be referred to, and redundant description will be omitted.
次に、本開示の第2の実施形態に係る情報処理装置、情報処理方法及びプログラムを記録した記録媒体について、図面を参照して詳細に説明する。なお、以下の説明において、第1の実施形態又はその変形例と同様の構成及び動作については、それらを引用することで、重複する説明を省略する。 2. Second Embodiment Next, an information processing apparatus, an information processing method, and a recording medium storing a program according to a second embodiment of the present disclosure will be described in detail with reference to the drawings. It should be noted that in the following description, configurations and operations that are the same as those of the first embodiment or its modification will be referred to, and redundant description will be omitted.
上述した第1の実施形態又はその変形例では、波面伝搬部130により生成された伝搬信号と、補正信号生成部150により生成された補正信号とを複素信号合成部160において合成した後、合成により得られた複素信号を干渉縞変換部170において位相信号に変換していた。これに対し、第2の実施形態では、補正信号を合成する前に伝搬信号を位相信号に変換し、その後、補正信号を合成する場合について例を挙げる。
In the above-described first embodiment or its modification, after the propagation signal generated by the wavefront propagation unit 130 and the correction signal generated by the correction signal generation unit 150 are combined in the complex signal synthesis unit 160, The obtained complex signal is converted into a phase signal in the interference fringe converter 170 . On the other hand, in the second embodiment, an example will be described in which the propagation signal is converted into a phase signal before synthesizing the correction signal, and then the correction signal is synthesized.
2.1 構成例
図18は、本実施形態に係るホログラム表示システムの概略構成例を示すブロック図である。図18に示すように、本実施形態に係るホログラム表示システム2は、第1の実施形態において図4を用いて説明したホログラム表示システム1と同様の構成において、複素信号合成部160が位相信号合成部260に置き換えられるとともに、干渉縞変換部170の配置が波面伝搬部130と位相信号合成部260との間に変更されている。 2.1 Configuration Example FIG. 18 is a block diagram showing a schematic configuration example of a hologram display system according to this embodiment. As shown in FIG. 18, thehologram display system 2 according to the present embodiment has a configuration similar to that of the hologram display system 1 described in the first embodiment with reference to FIG. 260 , and the arrangement of the interference fringe conversion section 170 is changed between the wavefront propagation section 130 and the phase signal synthesis section 260 .
図18は、本実施形態に係るホログラム表示システムの概略構成例を示すブロック図である。図18に示すように、本実施形態に係るホログラム表示システム2は、第1の実施形態において図4を用いて説明したホログラム表示システム1と同様の構成において、複素信号合成部160が位相信号合成部260に置き換えられるとともに、干渉縞変換部170の配置が波面伝搬部130と位相信号合成部260との間に変更されている。 2.1 Configuration Example FIG. 18 is a block diagram showing a schematic configuration example of a hologram display system according to this embodiment. As shown in FIG. 18, the
本実施形態において、干渉縞変換部170は、波面伝搬部130により生成されたホログラムパターンの伝搬信号を位相信号に変換し、位相信号合成部260に入力する。
In the present embodiment, the interference fringe conversion section 170 converts the propagation signal of the hologram pattern generated by the wavefront propagation section 130 into a phase signal, and inputs the phase signal to the phase signal synthesis section 260 .
位相信号合成部260は、干渉縞変換部170から入力された位相信号と、補正信号生成部150により生成された補正信号とを合成することで、ホログラムパターンを空間光変調器15で表示するための位相信号を生成し、これを出力装置180に入力する。
The phase signal synthesizing unit 260 synthesizes the phase signal input from the interference fringe converting unit 170 and the correction signal generated by the correction signal generating unit 150 to display the hologram pattern on the spatial light modulator 15. is generated and input to the output device 180 .
本実施形態において、干渉縞変換部170と位相信号合成部260とは、例えば、請求の範囲における位相信号生成部の一例に相当し得る。また、視点位置変化計算部140と補正信号生成部150とは、例えば、請求の範囲における補正部の一例に相当し得る。
In the present embodiment, the interference fringe conversion unit 170 and the phase signal synthesis unit 260 can correspond to an example of the phase signal generation unit in the scope of claims, for example. Also, the viewpoint position change calculation unit 140 and the correction signal generation unit 150 can correspond to an example of the correction unit in the claims, for example.
2.2 動作例
図19は、本実施形態に係るホログラム表示システムの動作例を示すフローチャートである。図19に示すように、ホログラム表示システム2の動作は、第1の実施形態において図5を用いて説明した動作と同様に、ある時刻T1におけるユーザ19の視点位置(F)に基づいてホログラムパターンの伝搬信号を生成する前半工程S400と、表示直前の時刻T2のユーザ19の視点位置(F’)に基づいてホログラムパターンを補正して補正後のホログラムパターンを表示する後半工程S500との2つの工程から構成されている。 2.2 Operation Example FIG. 19 is a flowchart showing an operation example of the hologram display system according to this embodiment. As shown in FIG. 19, the operation of thehologram display system 2 is similar to the operation described using FIG. 5 in the first embodiment, based on the viewpoint position (F) of the user 19 at a certain time T1. and a second half step S500 of correcting the hologram pattern based on the viewpoint position (F′) of the user 19 at time T2 immediately before display and displaying the corrected hologram pattern. It consists of processes.
図19は、本実施形態に係るホログラム表示システムの動作例を示すフローチャートである。図19に示すように、ホログラム表示システム2の動作は、第1の実施形態において図5を用いて説明した動作と同様に、ある時刻T1におけるユーザ19の視点位置(F)に基づいてホログラムパターンの伝搬信号を生成する前半工程S400と、表示直前の時刻T2のユーザ19の視点位置(F’)に基づいてホログラムパターンを補正して補正後のホログラムパターンを表示する後半工程S500との2つの工程から構成されている。 2.2 Operation Example FIG. 19 is a flowchart showing an operation example of the hologram display system according to this embodiment. As shown in FIG. 19, the operation of the
2.2.1 前半工程S400
(ステップS101~S103)
図19に示すように、前半工程S400では、まず、図5のステップS101~S103と同様の動作が実行されることで、SLM位置(A)にホログラムパターンを表現する複素数体を表す伝搬信号が生成される。 2.2.1 First half process S400
(Steps S101 to S103)
As shown in FIG. 19, in the first half step S400, the operations similar to those in steps S101 to S103 in FIG. generated.
(ステップS101~S103)
図19に示すように、前半工程S400では、まず、図5のステップS101~S103と同様の動作が実行されることで、SLM位置(A)にホログラムパターンを表現する複素数体を表す伝搬信号が生成される。 2.2.1 First half process S400
(Steps S101 to S103)
As shown in FIG. 19, in the first half step S400, the operations similar to those in steps S101 to S103 in FIG. generated.
(ステップS401)
次に、干渉縞変換部170が、波面伝搬部130により生成されたホログラムパターンの伝搬信号に対してホログラムパターン変換処理を実行する(ステップS401)。なお、ホログラムパターン変換処理の内容は、第1の実施形態において例示した図5のステップS205に示す処理内容と同様であってよい。 (Step S401)
Next, the interferencefringe conversion unit 170 performs hologram pattern conversion processing on the propagation signal of the hologram pattern generated by the wavefront propagation unit 130 (step S401). Note that the content of the hologram pattern conversion processing may be the same as the processing content shown in step S205 of FIG. 5 illustrated in the first embodiment.
次に、干渉縞変換部170が、波面伝搬部130により生成されたホログラムパターンの伝搬信号に対してホログラムパターン変換処理を実行する(ステップS401)。なお、ホログラムパターン変換処理の内容は、第1の実施形態において例示した図5のステップS205に示す処理内容と同様であってよい。 (Step S401)
Next, the interference
2.2.2 後半工程S500
(ステップS201)
つづいて、後半工程S500では、まず、図5のステップS201~S203と同様の動作が実行されることで、視点位置(F)から視点位置(F’)までの視点位置変化量に基づく補正信号が生成される。 2.2.2 Second half process S500
(Step S201)
Subsequently, in the second half step S500, the same operations as steps S201 to S203 in FIG. is generated.
(ステップS201)
つづいて、後半工程S500では、まず、図5のステップS201~S203と同様の動作が実行されることで、視点位置(F)から視点位置(F’)までの視点位置変化量に基づく補正信号が生成される。 2.2.2 Second half process S500
(Step S201)
Subsequently, in the second half step S500, the same operations as steps S201 to S203 in FIG. is generated.
(ステップS501)
次に、位相信号合成部260が、ステップS401で生成された位相信号と、ステップS203で生成された補正信号とを合成することで、ホログラムパターンの位相信号を生成する(ステップS501)。位相信号と補正信号との合成には、例えば、以下に示す式(6)が使用される。
(Step S501)
Next, thephase signal synthesizer 260 synthesizes the phase signal generated in step S401 and the correction signal generated in step S203 to generate the phase signal of the hologram pattern (step S501). Formula (6) shown below, for example, is used to synthesize the phase signal and the correction signal.
次に、位相信号合成部260が、ステップS401で生成された位相信号と、ステップS203で生成された補正信号とを合成することで、ホログラムパターンの位相信号を生成する(ステップS501)。位相信号と補正信号との合成には、例えば、以下に示す式(6)が使用される。
Next, the
(ステップS206)
その後、図5のステップS206と同様に、ステップS501で生成されたホログラムパターンの位相信号が光源11を制御する出力装置180に入力され、出力装置180が入力された位相信号に基づいて光源11を制御することで、ホログラムパターンを表示するための光が空間光変調器15の変調面に照射されて、ユーザ19に対して表示位置(E)のホログラムが表示される(ステップS206)。 (Step S206)
5, the phase signal of the hologram pattern generated in step S501 is input to theoutput device 180 that controls the light source 11, and the output device 180 controls the light source 11 based on the input phase signal. By controlling, the modulation surface of the spatial light modulator 15 is irradiated with light for displaying the hologram pattern, and the hologram at the display position (E) is displayed to the user 19 (step S206).
その後、図5のステップS206と同様に、ステップS501で生成されたホログラムパターンの位相信号が光源11を制御する出力装置180に入力され、出力装置180が入力された位相信号に基づいて光源11を制御することで、ホログラムパターンを表示するための光が空間光変調器15の変調面に照射されて、ユーザ19に対して表示位置(E)のホログラムが表示される(ステップS206)。 (Step S206)
5, the phase signal of the hologram pattern generated in step S501 is input to the
以上のように、前半工程S400と後半工程S500とを実行すると、例えば、制御部は、本動作を継続するか否かを判定し(ステップS300)、終了する場合(ステップS300のYES)、本動作を終了する。一方、終了しない場合(ステップS300のNO)、制御部は、ステップS101へ戻り、以降の動作を実行する。
As described above, when the first half process S400 and the second half process S500 are executed, for example, the control unit determines whether or not to continue this operation (step S300), and if it ends (YES in step S300), end the action. On the other hand, when not ending (NO of step S300), a control part returns to step S101 and performs subsequent operation|movements.
2.3 作用効果
以上のように、補正信号を合成する前に伝搬信号を位相信号に変換し、その後、補正信号を合成した場合でも、第1の実施形態又はその変形例と同様に、表示直前の視点位置(F’)に基づいて表示対象のホログラムパターンが補正されるため、視点位置の変化による表示位置のずれを低減することが可能となる。それにより、実空間とそれに重畳されたオブジェクトと位置ずれによるユーザが抱く違和感等を低減することが可能となるため、ユーザの視聴体験の低下を抑制することが可能となる。 2.3 Effects As described above, even when the propagation signal is converted into a phase signal before synthesizing the correction signal and then the correction signal is synthesized, the display Since the hologram pattern to be displayed is corrected based on the previous viewpoint position (F′), it is possible to reduce display position deviation due to changes in the viewpoint position. As a result, it is possible to reduce the sense of discomfort that the user feels due to the positional deviation between the real space and the object superimposed thereon, so that it is possible to suppress deterioration in the user's viewing experience.
以上のように、補正信号を合成する前に伝搬信号を位相信号に変換し、その後、補正信号を合成した場合でも、第1の実施形態又はその変形例と同様に、表示直前の視点位置(F’)に基づいて表示対象のホログラムパターンが補正されるため、視点位置の変化による表示位置のずれを低減することが可能となる。それにより、実空間とそれに重畳されたオブジェクトと位置ずれによるユーザが抱く違和感等を低減することが可能となるため、ユーザの視聴体験の低下を抑制することが可能となる。 2.3 Effects As described above, even when the propagation signal is converted into a phase signal before synthesizing the correction signal and then the correction signal is synthesized, the display Since the hologram pattern to be displayed is corrected based on the previous viewpoint position (F′), it is possible to reduce display position deviation due to changes in the viewpoint position. As a result, it is possible to reduce the sense of discomfort that the user feels due to the positional deviation between the real space and the object superimposed thereon, so that it is possible to suppress deterioration in the user's viewing experience.
その他の構成、動作及び効果は、第1の実施形態又はその変形例と同様であってよいため、ここでは詳細な説明を省略する。なお、第1の実施形態において説明した変形例1~4は、第2の実施形態に対しても同様に適用することが可能である。
Other configurations, operations, and effects may be the same as those of the first embodiment or its modification, so detailed descriptions are omitted here. Modifications 1 to 4 described in the first embodiment can be similarly applied to the second embodiment.
3.第3の実施形態
上述した実施形態又はその変形例では、ホログラム表示システムとして光学シースルー型のHMDを用いたARデバイスを例示したが、これに限定されず、例えば、ヘッドアップディスプレイ(HUD)や、裸眼立体テレビ等を用いたARデバイスなど、現実世界にホログラムを重畳して表示し得る種々のARデバイスに適用することが可能である。例えば、CGHを用いたAR HUDシステムは、第1の実施形態において図1を用いて説明したホログラム表示システムの応用例として実現することができる。そこで、第3の実施形態では、CGHを用いたAR HUDシステムを例に挙げて説明する。 3. Third Embodiment In the above-described embodiments and modifications thereof, an AR device using an optical see-through HMD was exemplified as a hologram display system, but the present invention is not limited to this. It can be applied to various AR devices that can superimpose and display a hologram on the real world, such as an AR device using a naked-eye stereoscopic television or the like. For example, an AR HUD system using CGH can be realized as an application example of the hologram display system described with reference to FIG. 1 in the first embodiment. Therefore, in the third embodiment, an AR HUD system using CGH will be described as an example.
上述した実施形態又はその変形例では、ホログラム表示システムとして光学シースルー型のHMDを用いたARデバイスを例示したが、これに限定されず、例えば、ヘッドアップディスプレイ(HUD)や、裸眼立体テレビ等を用いたARデバイスなど、現実世界にホログラムを重畳して表示し得る種々のARデバイスに適用することが可能である。例えば、CGHを用いたAR HUDシステムは、第1の実施形態において図1を用いて説明したホログラム表示システムの応用例として実現することができる。そこで、第3の実施形態では、CGHを用いたAR HUDシステムを例に挙げて説明する。 3. Third Embodiment In the above-described embodiments and modifications thereof, an AR device using an optical see-through HMD was exemplified as a hologram display system, but the present invention is not limited to this. It can be applied to various AR devices that can superimpose and display a hologram on the real world, such as an AR device using a naked-eye stereoscopic television or the like. For example, an AR HUD system using CGH can be realized as an application example of the hologram display system described with reference to FIG. 1 in the first embodiment. Therefore, in the third embodiment, an AR HUD system using CGH will be described as an example.
図20は、本実施形態に係るCGHを用いたAR HUDシステムの概要を説明するための模式図である。図20において、空間光変調器15がホログラム18を形成する原理は、例えば、第1の実施形態において空間光変調器15がホログラム18を形成する原理と同様であってよい。ただし、本実施形態では、空間光変調器15として、透過型のSLMが用いられている。
FIG. 20 is a schematic diagram for explaining the outline of the AR HUD system using the CGH according to this embodiment. In FIG. 20, the principle by which the spatial light modulator 15 forms the hologram 18 may be the same as the principle by which the spatial light modulator 15 forms the hologram 18 in the first embodiment, for example. However, in this embodiment, a transmissive SLM is used as the spatial light modulator 15 .
AR HUDシステム3では、光源11から出射した光が複数のレンズ12及び13で構成された拡大光学系により拡大された後、空間光変調器15を透過することで、表示位置(E)にホログラム18を形成する。表示位置(E)に形成されたホログラム18は、コンバイナ30によって反射されることで、表示位置(G)のホログラム18Aとして視点位置(F)のユーザ19に視聴される。コンバイナ30には、例えば、可視光域の光を透過しつつ光源11からの光を反射するホログラムコンバイナが使用されてよい。
In the AR HUD system 3, the light emitted from the light source 11 is magnified by a magnifying optical system composed of a plurality of lenses 12 and 13, and then transmitted through the spatial light modulator 15, thereby creating a hologram at the display position (E). form 18. The hologram 18 formed at the display position (E) is reflected by the combiner 30 and viewed by the user 19 at the viewpoint position (F) as the hologram 18A at the display position (G). For the combiner 30, for example, a hologram combiner that reflects light from the light source 11 while transmitting light in the visible light range may be used.
3.1 作用効果
このように、本開示に係る技術は、HMD型のARデバイスに限られず、現実世界にホログラムを重畳して表示し得る種々のARデバイスに適用することが可能である。 3.1 Effects As described above, the technology according to the present disclosure is not limited to HMD type AR devices, but can be applied to various AR devices that can display holograms superimposed on the real world.
このように、本開示に係る技術は、HMD型のARデバイスに限られず、現実世界にホログラムを重畳して表示し得る種々のARデバイスに適用することが可能である。 3.1 Effects As described above, the technology according to the present disclosure is not limited to HMD type AR devices, but can be applied to various AR devices that can display holograms superimposed on the real world.
その他の構成、動作及び効果は、上述した実施形態又はその変形例と同様であってよいため、ここでは詳細な説明を省略する。なお、第1の実施形態において説明した変形例1~4は、第3の実施形態に対しても同様に適用することが可能である。
Other configurations, operations, and effects may be the same as those of the above-described embodiment or its modification, so detailed descriptions are omitted here. Modifications 1 to 4 described in the first embodiment can be similarly applied to the third embodiment.
4.ハードウエア構成
上述してきた実施形態及びその変形例並びに応用例に係る視点位置取得部110、レンダリング部120、波面伝搬部130、視点位置変化計算部140、補正信号生成部150、複素信号合成部160又は位相信号合成部260、干渉縞変換部170、及び、出力装置180の少なくとも一部を備える情報処理装置は、例えば図21に示すような構成のコンピュータ1000によって実現され得る。図21は、上述した実施形態に係る情報処理装置の機能を実現するコンピュータ1000の一例を示すハードウエア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM(Read Only Memory)1300、HDD(Hard Disk Drive)1400、通信インタフェース1500、及び入出力インタフェース1600を有する。コンピュータ1000の各部は、バス1050によって接続される。 4. Hardware configuration Viewpoint position acquisition unit 110, rendering unit 120, wavefront propagation unit 130, viewpoint positionchange calculation unit 140, correction signal generation unit 150, complex signal synthesis unit 160 according to the above-described embodiments, modifications, and applications thereof Alternatively, an information processing device including at least part of the phase signal synthesizing section 260, the interference fringe transforming section 170, and the output device 180 can be implemented by a computer 1000 configured as shown in FIG. 21, for example. FIG. 21 is a hardware configuration diagram showing an example of a computer 1000 that implements the functions of the information processing apparatus according to the above-described embodiments. The computer 1000 has a CPU 1100 , a RAM 1200 , a ROM (Read Only Memory) 1300 , a HDD (Hard Disk Drive) 1400 , a communication interface 1500 and an input/output interface 1600 . Each part of computer 1000 is connected by bus 1050 .
上述してきた実施形態及びその変形例並びに応用例に係る視点位置取得部110、レンダリング部120、波面伝搬部130、視点位置変化計算部140、補正信号生成部150、複素信号合成部160又は位相信号合成部260、干渉縞変換部170、及び、出力装置180の少なくとも一部を備える情報処理装置は、例えば図21に示すような構成のコンピュータ1000によって実現され得る。図21は、上述した実施形態に係る情報処理装置の機能を実現するコンピュータ1000の一例を示すハードウエア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM(Read Only Memory)1300、HDD(Hard Disk Drive)1400、通信インタフェース1500、及び入出力インタフェース1600を有する。コンピュータ1000の各部は、バス1050によって接続される。 4. Hardware configuration Viewpoint position acquisition unit 110, rendering unit 120, wavefront propagation unit 130, viewpoint position
CPU1100は、ROM1300又はHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。例えば、CPU1100は、ROM1300又はHDD1400に格納されたプログラムをRAM1200に展開し、各種プログラムに対応した処理を実行する。
The CPU 1100 operates based on programs stored in the ROM 1300 or HDD 1400 and controls each section. For example, the CPU 1100 loads programs stored in the ROM 1300 or HDD 1400 into the RAM 1200 and executes processes corresponding to various programs.
ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるBIOS(Basic Input Output System)等のブートプログラムや、コンピュータ1000のハードウエアに依存するプログラム等を格納する。
The ROM 1300 stores a boot program such as BIOS (Basic Input Output System) executed by the CPU 1100 when the computer 1000 is started, and programs dependent on the hardware of the computer 1000.
HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を非一時的に記録する、コンピュータが読み取り可能な記録媒体である。具体的には、HDD1400は、プログラムデータ1450の一例である本開示に係るプログラムを記録する記録媒体である。
The HDD 1400 is a computer-readable recording medium that non-temporarily records programs executed by the CPU 1100 and data used by such programs. Specifically, HDD 1400 is a recording medium that records the program according to the present disclosure, which is an example of program data 1450 .
通信インタフェース1500は、コンピュータ1000が外部ネットワーク1550(例えばインターネット)と接続するためのインタフェースである。例えば、CPU1100は、通信インタフェース1500を介して、他の機器からデータを受信したり、CPU1100が生成したデータを他の機器へ送信したりする。
A communication interface 1500 is an interface for connecting the computer 1000 to an external network 1550 (for example, the Internet). For example, the CPU 1100 receives data from another device via the communication interface 1500, and transmits data generated by the CPU 1100 to another device.
入出力インタフェース1600は、入出力デバイス1650とコンピュータ1000とを接続するためのインタフェースである。例えば、CPU1100は、入出力インタフェース1600を介して、キーボードやマウス等の入力デバイスからデータを受信する。また、CPU1100は、入出力インタフェース1600を介して、ディスプレイやスピーカやプリンタ等の出力デバイスにデータを送信する。また、入出力インタフェース1600は、所定の記録媒体(メディア)に記録されたプログラム等を読み取るメディアインタフェースとして機能してもよい。メディアとは、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
The input/output interface 1600 is an interface for connecting the input/output device 1650 and the computer 1000 . For example, the CPU 1100 receives data from input devices such as a keyboard and mouse via the input/output interface 1600 . Also, the CPU 1100 transmits data to an output device such as a display, a speaker, or a printer via the input/output interface 1600 . Also, the input/output interface 1600 may function as a media interface for reading a program or the like recorded on a predetermined recording medium. Media include, for example, optical recording media such as DVD (Digital Versatile Disc) and PD (Phase change rewritable disk), magneto-optical recording media such as MO (Magneto-Optical disk), tape media, magnetic recording media, semiconductor memories, etc. is.
例えば、コンピュータ1000が上述の実施形態に係る情報処理装置として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、視点位置取得部110、レンダリング部120、波面伝搬部130、視点位置変化計算部140、補正信号生成部150、複素信号合成部160又は位相信号合成部260、干渉縞変換部170、及び、出力装置180の少なくとも一部の機能を実現する。また、HDD1400には、本開示に係るプログラム等が格納される。なお、CPU1100は、プログラムデータ1450をHDD1400から読み取って実行するが、他の例として、外部ネットワーク1550を介して、他の装置からこれらのプログラムを取得してもよい。
For example, when the computer 1000 functions as the information processing apparatus according to the above-described embodiments, the CPU 1100 of the computer 1000 executes a program loaded on the RAM 1200 to obtain the viewpoint position acquisition unit 110, the rendering unit 120, the wavefront propagation At least part of the functions of the unit 130, the viewpoint position change calculation unit 140, the correction signal generation unit 150, the complex signal synthesis unit 160 or the phase signal synthesis unit 260, the interference fringe conversion unit 170, and the output device 180 are realized. The HDD 1400 also stores programs and the like according to the present disclosure. Although CPU 1100 reads and executes program data 1450 from HDD 1400 , as another example, these programs may be obtained from another device via external network 1550 .
以上、本開示の各実施形態及びその変形例について説明したが、本開示の技術的範囲は、上述の各実施形態そのままに限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。また、異なる実施形態及び変形例にわたる構成要素を適宜組み合わせてもよい。
The embodiments and modifications thereof of the present disclosure have been described above, but the technical scope of the present disclosure is not limited to the above-described embodiments as they are. Change is possible. Moreover, you may combine the component over different embodiment and modifications suitably.
また、本明細書に記載された各実施形態における効果はあくまで例示であって限定されるものでは無く、他の効果があってもよい。
Also, the effects of each embodiment described in this specification are merely examples and are not limited, and other effects may be provided.
なお、本技術は以下のような構成も取ることができる。
(1)
ユーザの視点位置を取得する視点位置取得部と、
前記視点位置に基づいてレンダリング画像を生成するレンダリング部と、
前記レンダリング画像に基づいてホログラムを表す伝搬信号を生成する波面伝搬部と、
前記伝搬信号に基づいてホログラムを表示するための第1位相信号を生成する位相信号生成部と、
表示される前記ホログラムを前記視点位置取得部で取得された前記ユーザの現在の視点位置に基づいて補正する補正部と、
を備える情報処理装置。
(2)
前記補正部は、前記視点位置取得部で取得された前記ユーザの現在の視点位置に基づいて前記伝搬信号を補正するための補正信号を生成し、
前記位相信号生成部は、
前記伝搬信号と前記補正信号とに基づいて複素信号を生成する複素信号合成部と、
前記複素信号を前記第1位相信号に変換する干渉縞変換部と、
を含む、
前記(1)に記載の情報処理装置。
(3)
前記複素信号合成部は、前記伝搬信号と前記補正信号とを重畳することで前記複素信号を生成する前記(2)に記載の情報処理装置。
(4)
前記位相信号生成部は、前記伝搬信号を第2位相信号に変換する干渉縞変換部を含み、
前記補正部は、前記視点位置取得部で取得された前記ユーザの現在の視点位置に基づいて前記第2位相信号を補正するための補正信号を生成し、
前記位相信号生成部は、前記第2位相信号と前記補正信号とに基づいて前記第1位相信号を生成する位相信号合成部をさらに含む、
前記(1)に記載の情報処理装置。
(5)
前記位相信号合成部は、前記第2位相信号と前記補正信号とを重畳することで前記第1位相信号を生成する前記(4)に記載の情報処理装置。
(6)
前記補正部は、前記ユーザの前記現在の視点位置に基づいて予め用意されたルックアップテーブルを参照することで、前記補正信号を生成する前記(2)~(5)の何れか1つに記載の情報処理装置。
(7)
前記補正部は、予め用意された前記ルックアップテーブルから取得した前記補正信号を前記ユーザの前記現在の視点位置に基づいて修正する前記(6)に記載の情報処理装置。
(8)
前記補正信号は、直線位相の補償位相パターンを有する前記(2)~(7)の何れか1つに記載の情報処理装置。
(9)
前記補償位相パターンは、0から2πの周期で繰り返される位相パターンを有する前記(8)に記載の情報処理装置。
(10)
前記補正信号は、水平方向の補償位相パターンと垂直方向の補償位相パターンとを含む前記(2)~(9)の何れか1つに記載の情報処理装置。
(11)
前記補正信号は、水平方向の補償位相パターンと垂直方向の補償位相パターンとを合成した補償位相パターンを有する前記(2)~(9)の何れか1つに記載の情報処理装置。
(12)
前記補正部は、前記波面伝搬部による前記伝搬信号の生成とは非同期に前記補正信号を生成する前記(2)~(11)の何れか1つに記載の情報処理装置。
(13)
前記第1位相信号に基づいて空間光変調器へ向けて出力する光源を制御する出力部をさらに備える前記(1)~(12)の何れか1つに記載の情報処理装置。
(14)
前記空間光変調器は、位相限定型空間光変調器又は振幅限定型空間光変調器である前記(13)に記載の情報処理装置。
(15)
前記視点位置取得部は、前記ユーザの頭の位置を前記視点位置として取得する前記(1)~(14)の何れか1つに記載の情報処理装置。
(16)
前記視点位置取得部は、前記ユーザの頭部に装着される機器に設けられた慣性センサからの信号に戻づいて前記ユーザの視点位置を取得する前記(1)~(15)の何れか1つに記載の情報処理装置。
(17)
前記ユーザの頭部に装着される機器は、ヘッドマウントディスプレイである前記(16)に記載の情報処理装置。
(18)
ユーザの視点位置を取得する工程と、
前記視点位置に基づいてレンダリング画像を生成する工程と、
前記レンダリング画像に基づいてホログラムを表す伝搬信号を生成する工程と、
前記伝搬信号に基づいてホログラムを表示するための第1位相信号を生成する工程と、
前記ユーザの現在の視点位置を取得する工程と、
表示される前記ホログラムを前記ユーザの現在の視点位置に基づいて補正する工程と、
を備える情報処理方法。
(19)
空間光変調器に光を照射することでホログラムを表示するシステムに実装されるプロセッサを機能させるためのプログラムを記録した記録媒体であって、
前記プロセッサに、
ユーザの視点位置を取得する処理と、
前記視点位置に基づいてレンダリング画像を生成する処理と、
前記レンダリング画像に基づいてホログラムを表す伝搬信号を生成する処理と、
前記伝搬信号に基づいてホログラムを表示するための第1位相信号を生成する処理と、
前記ユーザの現在の視点位置を取得する処理と、
表示される前記ホログラムを前記ユーザの現在の視点位置に基づいて補正する処理と、
を実行させるためのプログラムを記録した記録媒体。 Note that the present technology can also take the following configuration.
(1)
a viewpoint position acquisition unit that acquires a user's viewpoint position;
a rendering unit that generates a rendered image based on the viewpoint position;
a wavefront propagation unit that generates a propagated signal representing a hologram based on the rendered image;
a phase signal generator that generates a first phase signal for displaying a hologram based on the propagation signal;
a correction unit that corrects the displayed hologram based on the current viewpoint position of the user acquired by the viewpoint position acquisition unit;
Information processing device.
(2)
The correction unit generates a correction signal for correcting the propagation signal based on the user's current viewpoint position acquired by the viewpoint position acquisition unit,
The phase signal generator is
a complex signal synthesizing unit that generates a complex signal based on the propagation signal and the correction signal;
an interference fringe conversion unit that converts the complex signal into the first phase signal;
including,
The information processing device according to (1) above.
(3)
The information processing apparatus according to (2), wherein the complex signal synthesizing unit generates the complex signal by superimposing the propagation signal and the correction signal.
(4)
The phase signal generation unit includes an interference fringe conversion unit that converts the propagation signal into a second phase signal,
The correction unit generates a correction signal for correcting the second phase signal based on the current viewpoint position of the user acquired by the viewpoint position acquisition unit,
The phase signal generation unit further includes a phase signal synthesis unit that generates the first phase signal based on the second phase signal and the correction signal,
The information processing device according to (1) above.
(5)
The information processing apparatus according to (4), wherein the phase signal synthesizing unit generates the first phase signal by superimposing the second phase signal and the correction signal.
(6)
According to any one of (2) to (5), the correction unit generates the correction signal by referring to a lookup table prepared in advance based on the current viewpoint position of the user. information processing equipment.
(7)
The information processing apparatus according to (6), wherein the correction unit corrects the correction signal obtained from the lookup table prepared in advance based on the current viewpoint position of the user.
(8)
The information processing apparatus according to any one of (2) to (7), wherein the correction signal has a compensating phase pattern of a linear phase.
(9)
The information processing device according to (8), wherein the compensating phase pattern has a phase pattern that repeats with a period of 0 to 2π.
(10)
The information processing apparatus according to any one of (2) to (9), wherein the correction signal includes a horizontal compensating phase pattern and a vertical compensating phase pattern.
(11)
The information processing apparatus according to any one of (2) to (9), wherein the correction signal has a compensating phase pattern obtained by synthesizing a horizontal compensating phase pattern and a vertical compensating phase pattern.
(12)
The information processing apparatus according to any one of (2) to (11), wherein the correction unit generates the correction signal asynchronously with generation of the propagation signal by the wavefront propagation unit.
(13)
The information processing apparatus according to any one of (1) to (12) above, further comprising an output unit that controls a light source that outputs light to the spatial light modulator based on the first phase signal.
(14)
The information processing apparatus according to (13), wherein the spatial light modulator is a phase limited spatial light modulator or an amplitude limited spatial light modulator.
(15)
The information processing apparatus according to any one of (1) to (14), wherein the viewpoint position acquisition unit acquires the position of the user's head as the viewpoint position.
(16)
Any one of (1) to (15) above, wherein the viewpoint position acquisition unit acquires the user's viewpoint position based on a signal from an inertial sensor provided in a device worn on the user's head. The information processing device according to 1.
(17)
The information processing apparatus according to (16), wherein the device worn on the user's head is a head-mounted display.
(18)
obtaining a user's viewpoint position;
generating a rendered image based on the viewpoint position;
generating a propagated signal representing a hologram based on the rendered image;
generating a first phase signal for displaying a hologram based on the propagated signal;
obtaining a current viewpoint position of the user;
correcting the displayed hologram based on the user's current viewpoint position;
An information processing method comprising:
(19)
A recording medium recording a program for operating a processor mounted in a system for displaying a hologram by irradiating a spatial light modulator with light,
to the processor;
a process of acquiring a user's viewpoint position;
a process of generating a rendered image based on the viewpoint position;
generating a propagated signal representing a hologram based on the rendered image;
a process of generating a first phase signal for displaying a hologram based on the propagation signal;
a process of obtaining the user's current viewpoint position;
a process of correcting the displayed hologram based on the user's current viewpoint position;
A recording medium that records a program for executing
(1)
ユーザの視点位置を取得する視点位置取得部と、
前記視点位置に基づいてレンダリング画像を生成するレンダリング部と、
前記レンダリング画像に基づいてホログラムを表す伝搬信号を生成する波面伝搬部と、
前記伝搬信号に基づいてホログラムを表示するための第1位相信号を生成する位相信号生成部と、
表示される前記ホログラムを前記視点位置取得部で取得された前記ユーザの現在の視点位置に基づいて補正する補正部と、
を備える情報処理装置。
(2)
前記補正部は、前記視点位置取得部で取得された前記ユーザの現在の視点位置に基づいて前記伝搬信号を補正するための補正信号を生成し、
前記位相信号生成部は、
前記伝搬信号と前記補正信号とに基づいて複素信号を生成する複素信号合成部と、
前記複素信号を前記第1位相信号に変換する干渉縞変換部と、
を含む、
前記(1)に記載の情報処理装置。
(3)
前記複素信号合成部は、前記伝搬信号と前記補正信号とを重畳することで前記複素信号を生成する前記(2)に記載の情報処理装置。
(4)
前記位相信号生成部は、前記伝搬信号を第2位相信号に変換する干渉縞変換部を含み、
前記補正部は、前記視点位置取得部で取得された前記ユーザの現在の視点位置に基づいて前記第2位相信号を補正するための補正信号を生成し、
前記位相信号生成部は、前記第2位相信号と前記補正信号とに基づいて前記第1位相信号を生成する位相信号合成部をさらに含む、
前記(1)に記載の情報処理装置。
(5)
前記位相信号合成部は、前記第2位相信号と前記補正信号とを重畳することで前記第1位相信号を生成する前記(4)に記載の情報処理装置。
(6)
前記補正部は、前記ユーザの前記現在の視点位置に基づいて予め用意されたルックアップテーブルを参照することで、前記補正信号を生成する前記(2)~(5)の何れか1つに記載の情報処理装置。
(7)
前記補正部は、予め用意された前記ルックアップテーブルから取得した前記補正信号を前記ユーザの前記現在の視点位置に基づいて修正する前記(6)に記載の情報処理装置。
(8)
前記補正信号は、直線位相の補償位相パターンを有する前記(2)~(7)の何れか1つに記載の情報処理装置。
(9)
前記補償位相パターンは、0から2πの周期で繰り返される位相パターンを有する前記(8)に記載の情報処理装置。
(10)
前記補正信号は、水平方向の補償位相パターンと垂直方向の補償位相パターンとを含む前記(2)~(9)の何れか1つに記載の情報処理装置。
(11)
前記補正信号は、水平方向の補償位相パターンと垂直方向の補償位相パターンとを合成した補償位相パターンを有する前記(2)~(9)の何れか1つに記載の情報処理装置。
(12)
前記補正部は、前記波面伝搬部による前記伝搬信号の生成とは非同期に前記補正信号を生成する前記(2)~(11)の何れか1つに記載の情報処理装置。
(13)
前記第1位相信号に基づいて空間光変調器へ向けて出力する光源を制御する出力部をさらに備える前記(1)~(12)の何れか1つに記載の情報処理装置。
(14)
前記空間光変調器は、位相限定型空間光変調器又は振幅限定型空間光変調器である前記(13)に記載の情報処理装置。
(15)
前記視点位置取得部は、前記ユーザの頭の位置を前記視点位置として取得する前記(1)~(14)の何れか1つに記載の情報処理装置。
(16)
前記視点位置取得部は、前記ユーザの頭部に装着される機器に設けられた慣性センサからの信号に戻づいて前記ユーザの視点位置を取得する前記(1)~(15)の何れか1つに記載の情報処理装置。
(17)
前記ユーザの頭部に装着される機器は、ヘッドマウントディスプレイである前記(16)に記載の情報処理装置。
(18)
ユーザの視点位置を取得する工程と、
前記視点位置に基づいてレンダリング画像を生成する工程と、
前記レンダリング画像に基づいてホログラムを表す伝搬信号を生成する工程と、
前記伝搬信号に基づいてホログラムを表示するための第1位相信号を生成する工程と、
前記ユーザの現在の視点位置を取得する工程と、
表示される前記ホログラムを前記ユーザの現在の視点位置に基づいて補正する工程と、
を備える情報処理方法。
(19)
空間光変調器に光を照射することでホログラムを表示するシステムに実装されるプロセッサを機能させるためのプログラムを記録した記録媒体であって、
前記プロセッサに、
ユーザの視点位置を取得する処理と、
前記視点位置に基づいてレンダリング画像を生成する処理と、
前記レンダリング画像に基づいてホログラムを表す伝搬信号を生成する処理と、
前記伝搬信号に基づいてホログラムを表示するための第1位相信号を生成する処理と、
前記ユーザの現在の視点位置を取得する処理と、
表示される前記ホログラムを前記ユーザの現在の視点位置に基づいて補正する処理と、
を実行させるためのプログラムを記録した記録媒体。 Note that the present technology can also take the following configuration.
(1)
a viewpoint position acquisition unit that acquires a user's viewpoint position;
a rendering unit that generates a rendered image based on the viewpoint position;
a wavefront propagation unit that generates a propagated signal representing a hologram based on the rendered image;
a phase signal generator that generates a first phase signal for displaying a hologram based on the propagation signal;
a correction unit that corrects the displayed hologram based on the current viewpoint position of the user acquired by the viewpoint position acquisition unit;
Information processing device.
(2)
The correction unit generates a correction signal for correcting the propagation signal based on the user's current viewpoint position acquired by the viewpoint position acquisition unit,
The phase signal generator is
a complex signal synthesizing unit that generates a complex signal based on the propagation signal and the correction signal;
an interference fringe conversion unit that converts the complex signal into the first phase signal;
including,
The information processing device according to (1) above.
(3)
The information processing apparatus according to (2), wherein the complex signal synthesizing unit generates the complex signal by superimposing the propagation signal and the correction signal.
(4)
The phase signal generation unit includes an interference fringe conversion unit that converts the propagation signal into a second phase signal,
The correction unit generates a correction signal for correcting the second phase signal based on the current viewpoint position of the user acquired by the viewpoint position acquisition unit,
The phase signal generation unit further includes a phase signal synthesis unit that generates the first phase signal based on the second phase signal and the correction signal,
The information processing device according to (1) above.
(5)
The information processing apparatus according to (4), wherein the phase signal synthesizing unit generates the first phase signal by superimposing the second phase signal and the correction signal.
(6)
According to any one of (2) to (5), the correction unit generates the correction signal by referring to a lookup table prepared in advance based on the current viewpoint position of the user. information processing equipment.
(7)
The information processing apparatus according to (6), wherein the correction unit corrects the correction signal obtained from the lookup table prepared in advance based on the current viewpoint position of the user.
(8)
The information processing apparatus according to any one of (2) to (7), wherein the correction signal has a compensating phase pattern of a linear phase.
(9)
The information processing device according to (8), wherein the compensating phase pattern has a phase pattern that repeats with a period of 0 to 2π.
(10)
The information processing apparatus according to any one of (2) to (9), wherein the correction signal includes a horizontal compensating phase pattern and a vertical compensating phase pattern.
(11)
The information processing apparatus according to any one of (2) to (9), wherein the correction signal has a compensating phase pattern obtained by synthesizing a horizontal compensating phase pattern and a vertical compensating phase pattern.
(12)
The information processing apparatus according to any one of (2) to (11), wherein the correction unit generates the correction signal asynchronously with generation of the propagation signal by the wavefront propagation unit.
(13)
The information processing apparatus according to any one of (1) to (12) above, further comprising an output unit that controls a light source that outputs light to the spatial light modulator based on the first phase signal.
(14)
The information processing apparatus according to (13), wherein the spatial light modulator is a phase limited spatial light modulator or an amplitude limited spatial light modulator.
(15)
The information processing apparatus according to any one of (1) to (14), wherein the viewpoint position acquisition unit acquires the position of the user's head as the viewpoint position.
(16)
Any one of (1) to (15) above, wherein the viewpoint position acquisition unit acquires the user's viewpoint position based on a signal from an inertial sensor provided in a device worn on the user's head. The information processing device according to 1.
(17)
The information processing apparatus according to (16), wherein the device worn on the user's head is a head-mounted display.
(18)
obtaining a user's viewpoint position;
generating a rendered image based on the viewpoint position;
generating a propagated signal representing a hologram based on the rendered image;
generating a first phase signal for displaying a hologram based on the propagated signal;
obtaining a current viewpoint position of the user;
correcting the displayed hologram based on the user's current viewpoint position;
An information processing method comprising:
(19)
A recording medium recording a program for operating a processor mounted in a system for displaying a hologram by irradiating a spatial light modulator with light,
to the processor;
a process of acquiring a user's viewpoint position;
a process of generating a rendered image based on the viewpoint position;
generating a propagated signal representing a hologram based on the rendered image;
a process of generating a first phase signal for displaying a hologram based on the propagation signal;
a process of obtaining the user's current viewpoint position;
a process of correcting the displayed hologram based on the user's current viewpoint position;
A recording medium that records a program for executing
1、2 ホログラム表示システム
3 AR HUDシステム
11 光源
12、13 レンズ
14 ビームスプリッタ
15 空間光変調器
18、18A ホログラム
18D デプスマップ
18RGB RGB画像データ
18a 点オブジェクト
19 ユーザ
101 3次元画像情報
110 視点位置取得部
120 レンダリング部
130 波面伝搬部
140 視点位置変化計算部
150 補正信号生成部
160 複素信号合成部
170 干渉縞変換部
180 出力装置
260 位相信号合成部 1, 2hologram display system 3 AR HUD system 11 light source 12, 13 lens 14 beam splitter 15 spatial light modulator 18, 18A hologram 18D depth map 18RGB RGB image data 18a point object 19 user 101 three-dimensional image information 110 viewpoint position acquisition unit 120 rendering unit 130 wavefront propagation unit 140 viewpoint position change calculation unit 150 correction signal generation unit 160 complex signal synthesis unit 170 interference fringe conversion unit 180 output device 260 phase signal synthesis unit
3 AR HUDシステム
11 光源
12、13 レンズ
14 ビームスプリッタ
15 空間光変調器
18、18A ホログラム
18D デプスマップ
18RGB RGB画像データ
18a 点オブジェクト
19 ユーザ
101 3次元画像情報
110 視点位置取得部
120 レンダリング部
130 波面伝搬部
140 視点位置変化計算部
150 補正信号生成部
160 複素信号合成部
170 干渉縞変換部
180 出力装置
260 位相信号合成部 1, 2
Claims (19)
- ユーザの視点位置を取得する視点位置取得部と、
前記視点位置に基づいてレンダリング画像を生成するレンダリング部と、
前記レンダリング画像に基づいてホログラムを表す伝搬信号を生成する波面伝搬部と、
前記伝搬信号に基づいてホログラムを表示するための第1位相信号を生成する位相信号生成部と、
表示される前記ホログラムを前記視点位置取得部で取得された前記ユーザの現在の視点位置に基づいて補正する補正部と、
を備える情報処理装置。 a viewpoint position acquisition unit that acquires a user's viewpoint position;
a rendering unit that generates a rendered image based on the viewpoint position;
a wavefront propagation unit that generates a propagated signal representing a hologram based on the rendered image;
a phase signal generator that generates a first phase signal for displaying a hologram based on the propagation signal;
a correction unit that corrects the displayed hologram based on the current viewpoint position of the user acquired by the viewpoint position acquisition unit;
Information processing device. - 前記補正部は、前記視点位置取得部で取得された前記ユーザの現在の視点位置に基づいて前記伝搬信号を補正するための補正信号を生成し、
前記位相信号生成部は、
前記伝搬信号と前記補正信号とに基づいて複素信号を生成する複素信号合成部と、
前記複素信号を前記第1位相信号に変換する干渉縞変換部と、
を含む、
請求項1に記載の情報処理装置。 The correction unit generates a correction signal for correcting the propagation signal based on the user's current viewpoint position acquired by the viewpoint position acquisition unit,
The phase signal generator is
a complex signal synthesizing unit that generates a complex signal based on the propagation signal and the correction signal;
an interference fringe conversion unit that converts the complex signal into the first phase signal;
including,
The information processing device according to claim 1 . - 前記複素信号合成部は、前記伝搬信号と前記補正信号とを重畳することで前記複素信号を生成する請求項2に記載の情報処理装置。 The information processing apparatus according to claim 2, wherein the complex signal synthesizing unit generates the complex signal by superimposing the propagation signal and the correction signal.
- 前記位相信号生成部は、前記伝搬信号を第2位相信号に変換する干渉縞変換部を含み、
前記補正部は、前記視点位置取得部で取得された前記ユーザの現在の視点位置に基づいて前記第2位相信号を補正するための補正信号を生成し、
前記位相信号生成部は、前記第2位相信号と前記補正信号とに基づいて前記第1位相信号を生成する位相信号合成部をさらに含む、
請求項1に記載の情報処理装置。 The phase signal generation unit includes an interference fringe conversion unit that converts the propagation signal into a second phase signal,
The correction unit generates a correction signal for correcting the second phase signal based on the current viewpoint position of the user acquired by the viewpoint position acquisition unit,
The phase signal generation unit further includes a phase signal synthesis unit that generates the first phase signal based on the second phase signal and the correction signal,
The information processing device according to claim 1 . - 前記位相信号合成部は、前記第2位相信号と前記補正信号とを重畳することで前記第1位相信号を生成する請求項4に記載の情報処理装置。 The information processing apparatus according to claim 4, wherein the phase signal synthesizing unit generates the first phase signal by superimposing the second phase signal and the correction signal.
- 前記補正部は、前記ユーザの前記現在の視点位置に基づいて予め用意されたルックアップテーブルを参照することで、前記補正信号を生成する請求項2に記載の情報処理装置。 The information processing apparatus according to claim 2, wherein the correction unit generates the correction signal by referring to a lookup table prepared in advance based on the current viewpoint position of the user.
- 前記補正部は、予め用意された前記ルックアップテーブルから取得した前記補正信号を前記ユーザの前記現在の視点位置に基づいて修正する請求項6に記載の情報処理装置。 The information processing apparatus according to claim 6, wherein the correction unit corrects the correction signal obtained from the lookup table prepared in advance based on the current viewpoint position of the user.
- 前記補正信号は、直線位相の補償位相パターンを有する請求項2に記載の情報処理装置。 The information processing apparatus according to claim 2, wherein the correction signal has a compensating phase pattern of linear phase.
- 前記補償位相パターンは、0から2πの周期で繰り返される位相パターンを有する請求項8に記載の情報処理装置。 The information processing apparatus according to claim 8, wherein the compensating phase pattern has a phase pattern that repeats with a period of 0 to 2π.
- 前記補正信号は、水平方向の補償位相パターンと垂直方向の補償位相パターンとを含む請求項2に記載の情報処理装置。 The information processing apparatus according to claim 2, wherein the correction signal includes a horizontal compensating phase pattern and a vertical compensating phase pattern.
- 前記補正信号は、水平方向の補償位相パターンと垂直方向の補償位相パターンとを合成した補償位相パターンを有する請求項2に記載の情報処理装置。 The information processing apparatus according to claim 2, wherein the correction signal has a compensating phase pattern obtained by synthesizing a horizontal compensating phase pattern and a vertical compensating phase pattern.
- 前記補正部は、前記波面伝搬部による前記伝搬信号の生成とは非同期に前記補正信号を生成する請求項2に記載の情報処理装置。 The information processing apparatus according to claim 2, wherein the correction section generates the correction signal asynchronously with generation of the propagation signal by the wavefront propagation section.
- 前記第1位相信号に基づいて空間光変調器へ向けて出力する光源を制御する出力部をさらに備える請求項1に記載の情報処理装置。 The information processing apparatus according to claim 1, further comprising an output unit that controls a light source that outputs light toward the spatial light modulator based on the first phase signal.
- 前記空間光変調器は、位相限定型空間光変調器又は振幅限定型空間光変調器である請求項13に記載の情報処理装置。 The information processing apparatus according to claim 13, wherein the spatial light modulator is a phase limited spatial light modulator or an amplitude limited spatial light modulator.
- 前記視点位置取得部は、前記ユーザの頭の位置を前記視点位置として取得する請求項1に記載の情報処理装置。 The information processing apparatus according to claim 1, wherein the viewpoint position acquisition unit acquires the position of the user's head as the viewpoint position.
- 前記視点位置取得部は、前記ユーザの頭部に装着される機器に設けられた慣性センサからの信号に戻づいて前記ユーザの視点位置を取得する請求項1に記載の情報処理装置。 The information processing apparatus according to claim 1, wherein the viewpoint position acquisition unit acquires the user's viewpoint position based on a signal from an inertial sensor provided in a device worn on the user's head.
- 前記ユーザの頭部に装着される機器は、ヘッドマウントディスプレイである請求項16に記載の情報処理装置。 The information processing apparatus according to claim 16, wherein the device worn on the user's head is a head-mounted display.
- ユーザの視点位置を取得する工程と、
前記視点位置に基づいてレンダリング画像を生成する工程と、
前記レンダリング画像に基づいてホログラムを表す伝搬信号を生成する工程と、
前記伝搬信号に基づいてホログラムを表示するための第1位相信号を生成する工程と、
前記ユーザの現在の視点位置を取得する工程と、
表示される前記ホログラムを前記ユーザの現在の視点位置に基づいて補正する工程と、
を備える情報処理方法。 obtaining a user's viewpoint position;
generating a rendered image based on the viewpoint position;
generating a propagated signal representing a hologram based on the rendered image;
generating a first phase signal for displaying a hologram based on the propagated signal;
obtaining a current viewpoint position of the user;
correcting the displayed hologram based on the user's current viewpoint position;
An information processing method comprising: - 空間光変調器に光を照射することでホログラムを表示するシステムに実装されるプロセッサを機能させるためのプログラムを記録した記録媒体であって、
前記プロセッサに、
ユーザの視点位置を取得する処理と、
前記視点位置に基づいてレンダリング画像を生成する処理と、
前記レンダリング画像に基づいてホログラムを表す伝搬信号を生成する処理と、
前記伝搬信号に基づいてホログラムを表示するための第1位相信号を生成する処理と、
前記ユーザの現在の視点位置を取得する処理と、
表示される前記ホログラムを前記ユーザの現在の視点位置に基づいて補正する処理と、
を実行させるためのプログラムを記録した記録媒体。 A recording medium recording a program for operating a processor mounted in a system for displaying a hologram by irradiating a spatial light modulator with light,
to the processor;
a process of acquiring a user's viewpoint position;
a process of generating a rendered image based on the viewpoint position;
generating a propagated signal representing a hologram based on the rendered image;
a process of generating a first phase signal for displaying a hologram based on the propagation signal;
a process of obtaining the user's current viewpoint position;
a process of correcting the displayed hologram based on the user's current viewpoint position;
A recording medium that records a program for executing
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021091158 | 2021-05-31 | ||
JP2021-091158 | 2021-05-31 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2022254833A1 true WO2022254833A1 (en) | 2022-12-08 |
Family
ID=84324113
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2022/008177 WO2022254833A1 (en) | 2021-05-31 | 2022-02-28 | Information processing device, information processing method, and program recording medium |
Country Status (1)
Country | Link |
---|---|
WO (1) | WO2022254833A1 (en) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005516258A (en) * | 2002-01-30 | 2005-06-02 | エックスワイジー イメージング インク. | Synthetic one-step hologram writing method |
JP2009544036A (en) * | 2006-07-18 | 2009-12-10 | セルオプティック、インコーポレイテッド | System, apparatus and method for extracting three-dimensional information of an object from received electromagnetic radiation |
JP2010528325A (en) * | 2007-05-16 | 2010-08-19 | シーリアル テクノロジーズ ソシエテ アノニム | Method for generating video holograms in real time to improve 3D rendering graphics pipeline |
US20190310585A1 (en) * | 2013-06-06 | 2019-10-10 | Seereal Technologies S.A. | Device and method for calculating holographic data |
JP2020516933A (en) * | 2017-04-07 | 2020-06-11 | デュアリタス リミテッド | Holographic projector |
JP2020533629A (en) * | 2017-09-08 | 2020-11-19 | デュアリタス リミテッド | Holographic projector |
-
2022
- 2022-02-28 WO PCT/JP2022/008177 patent/WO2022254833A1/en active Application Filing
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005516258A (en) * | 2002-01-30 | 2005-06-02 | エックスワイジー イメージング インク. | Synthetic one-step hologram writing method |
JP2009544036A (en) * | 2006-07-18 | 2009-12-10 | セルオプティック、インコーポレイテッド | System, apparatus and method for extracting three-dimensional information of an object from received electromagnetic radiation |
JP2010528325A (en) * | 2007-05-16 | 2010-08-19 | シーリアル テクノロジーズ ソシエテ アノニム | Method for generating video holograms in real time to improve 3D rendering graphics pipeline |
US20190310585A1 (en) * | 2013-06-06 | 2019-10-10 | Seereal Technologies S.A. | Device and method for calculating holographic data |
JP2020516933A (en) * | 2017-04-07 | 2020-06-11 | デュアリタス リミテッド | Holographic projector |
JP2020533629A (en) * | 2017-09-08 | 2020-11-19 | デュアリタス リミテッド | Holographic projector |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Maimone et al. | Holographic near-eye displays for virtual and augmented reality | |
Park et al. | Holographic techniques for augmented reality and virtual reality near-eye displays | |
US11054643B2 (en) | Holographic image projection with holographic correction | |
US10481554B2 (en) | Near-eye device | |
Padmanaban et al. | Holographic near-eye displays based on overlap-add stereograms | |
JP7486822B2 (en) | Holographic head-up display device | |
JP5265546B2 (en) | Method for generating video holograms in real time using sub-holograms | |
JP5015913B2 (en) | Projector and method for holographic reconstruction of a scene | |
EP1287400B8 (en) | Computation time reduction for three-dimensional displays | |
JP5468537B2 (en) | Method for generating video holograms in real time to improve 3D rendering graphics pipeline | |
JP5587766B2 (en) | Method for rendering and generating color video holograms in real time | |
US10330936B2 (en) | Focal surface display | |
JP5266223B2 (en) | Method for generating computer video holograms in real time using propagation | |
US11022939B2 (en) | Reduced bandwidth holographic near-eye display | |
JP2008541159A5 (en) | ||
JP7227095B2 (en) | Hologram generation device and hologram generation method | |
Kang et al. | Color holographic wavefront printing technique for realistic representation | |
Akşit et al. | Holobeam: Paper-thin near-eye displays | |
JP2004516498A (en) | Improved 3D display | |
WO2022254833A1 (en) | Information processing device, information processing method, and program recording medium | |
JP2009540353A (en) | Method for reducing effective pixel pitch in electroholographic display and electroholographic display including reduced effective pixel pitch | |
US20220342366A1 (en) | Holographic display apparatus including freeform curved surface and operating method thereof | |
CN109946943B (en) | Holographic display system for inhibiting speckle noise based on beam shaping | |
CN110431470B (en) | Focal plane display | |
US10168668B2 (en) | Method of forming a rarefied hologram for video imaging and 3D lithography |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 22815591 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 22815591 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: JP |