Nothing Special   »   [go: up one dir, main page]

WO2017022291A1 - 情報処理装置 - Google Patents

情報処理装置 Download PDF

Info

Publication number
WO2017022291A1
WO2017022291A1 PCT/JP2016/064273 JP2016064273W WO2017022291A1 WO 2017022291 A1 WO2017022291 A1 WO 2017022291A1 JP 2016064273 W JP2016064273 W JP 2016064273W WO 2017022291 A1 WO2017022291 A1 WO 2017022291A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
display device
video display
target image
enlarged image
Prior art date
Application number
PCT/JP2016/064273
Other languages
English (en)
French (fr)
Inventor
篠原 隆之
Original Assignee
株式会社ソニー・インタラクティブエンタテインメント
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ソニー・インタラクティブエンタテインメント filed Critical 株式会社ソニー・インタラクティブエンタテインメント
Priority to JP2017532398A priority Critical patent/JP6422584B2/ja
Priority to US15/747,225 priority patent/US20180359462A1/en
Priority to CN201680044711.6A priority patent/CN107851334A/zh
Priority to EP16832571.0A priority patent/EP3333808B1/en
Publication of WO2017022291A1 publication Critical patent/WO2017022291A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/003Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/377Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/139Format conversion, e.g. of frame-rate or size
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0123Head-up displays characterised by optical features comprising devices increasing the field of view
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2310/00Command of the display device
    • G09G2310/04Partial updating of the display screen
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/045Zooming at least part of an image, i.e. enlarging it or shrinking it
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/39Control of the bit-mapped memory
    • G09G5/391Resolution modifying circuits, e.g. variable screen formats

Definitions

  • the present invention relates to an information processing apparatus that displays a video on a video display device mounted on a user's head, a control method thereof, a control program thereof, and an information storage medium.
  • a video display device that a user wears on the head, such as a head mounted display.
  • a video display device forms an image in front of the user's eyes, thereby allowing the user to view the image.
  • Such a video display device is used for virtual reality technology and the like because it allows a user to view a realistic video.
  • a more realistic video can be presented to the user.
  • a partial range of a panoramic image obtained by shooting a landscape with a wide-angle camera is displayed on the video display device, and the display range in the panoramic image is moved according to the movement of the user's head.
  • the user can view the scenery as if he / she was actually at the shooting location of the camera.
  • an image showing the state of the virtual space viewed from the virtual camera may be displayed on the video display device. This allows the user to browse the video as if it were in the virtual space.
  • the present invention has been made in view of the above circumstances, and one of its purposes is an enlarged image that is updated in conjunction with the movement of the user's head on a video display device that is worn on the user's head.
  • An information processing apparatus is an information processing apparatus connected to a video display device mounted on a user's head, the acquisition unit acquiring the orientation of the video display device, and the orientation of the video display device
  • a target image display control unit that displays on the video display device a target image that is updated in conjunction with a change in the image
  • an enlarged image display control unit that displays an enlarged image obtained by enlarging a part of the target image on the video display device
  • the enlarged image display control unit displays the enlarged image so as to overlap the target image with a size smaller than a display area of the target image.
  • the video display system is a video display system including a video display device worn on a user's head and an information processing device connected to the video display device.
  • An acquisition unit that acquires the orientation of the video display device, a target image display control unit that causes the video display device to display a target image that is updated in conjunction with a change in the orientation of the video display device, and the target image
  • An enlarged image display control unit that causes the video display device to display an enlarged image obtained by enlarging a part of the image display device, wherein the enlarged image display control unit has a size smaller than a display area of the target image. And displaying the image superimposed on the target image.
  • An information processing apparatus control method is a control method for an information processing apparatus connected to a video display device mounted on a user's head, wherein the orientation of the video display device is acquired; A target image display step of displaying on the video display device a target image that is updated in conjunction with a change in the orientation of the video display device; and an enlargement of displaying an enlarged image obtained by enlarging a part of the target image on the video display device An enlarged image display step, wherein the enlarged image is displayed so as to overlap the target image in a size smaller than a display area of the target image.
  • the program according to the present invention provides a computer connected to a video display device mounted on a user's head, acquiring means for acquiring the orientation of the video display device, and interlocking with a change in the orientation of the video display device.
  • a target image display control unit that displays the target image to be updated on the video display device, and an enlarged image display control unit that displays an enlarged image obtained by enlarging a part of the target image on the video display device.
  • the enlarged image display control means displays the enlarged image so as to overlap the target image with a size smaller than the display area of the target image.
  • This program may be provided by being stored in a computer-readable non-transitory information storage medium.
  • FIG. 1 is an overall schematic diagram of a video display system including an information processing apparatus according to an embodiment of the present invention. It is a block diagram showing the configuration of the video display system. It is a functional block diagram which shows the function of information processing apparatus. It is a figure explaining an example of the production
  • FIG. 1 is an overall schematic diagram of a video display system 1 including an information processing apparatus 10 according to an embodiment of the present invention.
  • FIG. 2 is a block diagram showing the configuration of the video display system 1.
  • the video display system 1 includes an information processing apparatus 10, an operation device 20, a relay apparatus 30, and a video display apparatus 40.
  • the information processing apparatus 10 is an apparatus that supplies an image to be displayed by the image display apparatus 40, and may be, for example, a home game machine, a portable game machine, a personal computer, a smartphone, or a tablet. As illustrated in FIG. 2, the information processing apparatus 10 includes a control unit 11, a storage unit 12, and an interface unit 13.
  • the control unit 11 is a CPU or the like, and executes various types of information processing by executing programs stored in the storage unit 12. In addition, the specific example of the process which the control part 11 performs in this embodiment is mentioned later.
  • the storage unit 12 includes a memory device such as a RAM, and stores a program executed by the control unit 11 and data processed by the program.
  • the interface unit 13 is an interface for data communication between the operation device 20 and the relay device 30.
  • the information processing apparatus 10 is connected to each of the operation device 20 and the relay apparatus 30 via the interface unit 13 either by wire or wirelessly.
  • the interface unit 13 may include a multimedia interface such as HDMI (High-Definition Multimedia Interface: registered trademark) in order to transmit video and audio supplied by the information processing device 10 to the relay device 30.
  • a data communication interface such as a USB may be included in order to receive various information from the video display device 40 via the relay device 30 and to transmit a control signal or the like.
  • the interface unit 13 may include a data communication interface such as a USB in order to receive a signal indicating the content of the user's operation input to the operation device 20.
  • the operation device 20 is a controller or the like of a consumer game machine, and is used for a user to perform various instruction operations on the information processing apparatus 10.
  • the content of the user's operation input to the operation device 20 is transmitted to the information processing apparatus 10 by either wired or wireless.
  • the operation device 20 may include operation buttons, a touch panel, and the like disposed on the surface of the housing of the information processing apparatus 10.
  • the relay device 30 is connected to the video display device 40 by either wired or wireless, receives video data supplied from the information processing device 10, and outputs a video signal corresponding to the received data to the video display device 40. Output for. At this time, the relay device 30 may execute a process for correcting distortion caused by the optical system of the video display device 40 for the supplied video data as necessary, and output the corrected video signal. Good.
  • the video signal supplied from the relay device 30 to the video display device 40 includes two videos, a left-eye video and a right-eye video.
  • the relay device 30 relays various types of information transmitted and received between the information processing device 10 and the video display device 40 such as audio data and control signals.
  • the video display device 40 is a video display device that the user wears on the head and uses the video according to the video signal input from the relay device 30 to allow the user to browse.
  • the video display device 40 supports browsing of video with both eyes, and displays video in front of each of the user's right eye and left eye.
  • the video display device 40 includes a video display element 41, an optical element 42, a motion sensor 44, and a communication interface 45.
  • the video display element 41 is an organic EL display panel, a liquid crystal display panel, or the like, and displays a video corresponding to a video signal supplied from the relay device 30.
  • the video display element 41 displays two videos, a left-eye video and a right-eye video.
  • the video display element 41 may be a single display element that displays the left-eye video and the right-eye video side by side, or may be configured by two display elements that display each video independently. Further, a known smartphone or the like may be used as the video display element 41.
  • the video display element 41 may display different videos as the left-eye video and the right-eye video in order to realize stereoscopic viewing, or may display the same video as the left-eye video and the right-eye video. Good.
  • the optical element 42 is a hologram, a prism, a half mirror, or the like, and is disposed in front of the user's eyes.
  • the optical element 42 transmits or refracts the image light displayed by the image display element 41 and enters the left and right eyes of the user.
  • the left-eye image displayed by the image display element 41 is incident on the user's left eye via the optical element 42
  • the right-eye image is incident on the user's right eye via the optical element 42.
  • the user can view the left-eye video with the left eye and the right-eye video with the right eye while the video display device 40 is mounted on the head.
  • the video display device 40 is assumed to be a non-transmissive video display device in which the user cannot visually recognize the appearance of the outside world.
  • the motion sensor 44 measures various information related to the position, orientation, and movement of the video display device 40.
  • the motion sensor 44 may include an acceleration sensor, a gyroscope, a geomagnetic sensor, or the like.
  • the measurement result of the motion sensor 44 is transmitted to the information processing device 10 via the relay device 30.
  • the information processing apparatus 10 can use the measurement result of the motion sensor 44 in order to specify the movement or orientation change of the video display apparatus 40.
  • the information processing apparatus 10 can detect the inclination and parallel movement of the video display device 40 with respect to the vertical direction by using the measurement result of the acceleration sensor.
  • the rotational movement of the video display apparatus 40 can be detected by using the measurement results of the gyroscope and the geomagnetic sensor.
  • the communication interface 45 is an interface for performing data communication with the relay device 30.
  • the communication interface 45 includes a communication antenna and a communication module.
  • the information processing apparatus 10 functionally includes a direction acquisition unit 51, a target image display control unit 52, and an enlarged image display control unit 53. These functions are realized when the control unit 11 executes a program stored in the storage unit 12.
  • This program may be provided to the information processing apparatus 10 via a communication network such as the Internet, or may be provided by being stored in a computer-readable information storage medium such as an optical disk.
  • the direction acquisition unit 51 acquires information indicating the orientation of the video display device 40 using the measurement result of the motion sensor 44 described above. Specifically, the direction acquisition unit 51 specifies the orientation of the video display device 40 at the time of acquisition by acquiring the measurement result of the motion sensor 44 at regular time intervals. Since the video display device 40 is used while being fixed to the user's head, the orientation of the video display device 40 directly corresponds to the orientation of the user's face.
  • the orientation of the video display device 40 is a yaw angle that represents the amount of rotation with the vertical direction (up and down direction) as the rotation axis, a pitch angle that represents the amount of rotation with the left and right direction as the rotation axis, and the front and rear direction It is represented by the roll angle representing the rotation amount as the axis.
  • the values of the yaw angle and the pitch angle may represent the amount of rotation with respect to the reference direction R, for example, with the direction of the video display device 40 in a state where the user faces the front as the reference direction R.
  • the reference direction R may be a direction that is determined when the video display device 40 starts to be used.
  • the value of the roll angle may represent the amount of rotation from the reference state, with the state where the left and right eyes are horizontal without the user tilting the neck.
  • the direction acquisition unit 51 uses the measurement result of the motion sensor 44 built in the video display device 40 in order to specify the orientation of the video display device 40, but instead of this, information acquired by other means may be used to specify the orientation of the video display device 40.
  • a camera may be connected to the information processing apparatus 10 and the video display device 40 may be imaged by the camera.
  • the direction acquisition unit 51 can acquire information related to the orientation of the video display device 40 by specifying the position and orientation of the video display device 40 included in the captured image.
  • the direction acquisition unit 51 captures the camera by providing a plurality of light emitting elements on the surface of the casing of the video display device 40, capturing the light emitted by these light emitting elements with the camera, and specifying the position of the light.
  • the orientation of the video display device 40 can be specified with high accuracy using the image.
  • the target image display control unit 52 generates a target image T to be displayed and outputs the generated target image T to the relay device 30 to display it on the video display device 40.
  • the target image T is an image showing a state within a predetermined visual field range generated based on a panoramic image obtained by photographing an actual landscape with an omnidirectional camera or the like.
  • the panorama image in this case is an image including a landscape of an omnidirectional sphere (all directions in front, rear, left, right, up, down) generated in a data format such as equirectangular projection.
  • the panorama image includes a right panorama image used for generating a right-eye image and a left panorama image used for generating a left-eye image.
  • the visual field range is a range determined from the whole celestial sphere according to the yaw angle, the pitch angle, and the roll angle representing the orientation of the video display device 40 acquired by the direction acquisition unit 51.
  • the target image display control unit 52 arranges the sphere S in the virtual space, and arranges the two virtual cameras C1 and C2 arranged side by side at the center position of the sphere S.
  • FIG. 4 shows a state in which the virtual space in which the sphere S and the virtual cameras C1 and C2 are arranged is viewed from the zenith direction.
  • the target image display control unit 52 pastes a texture generated based on the left panoramic image on the inner surface of the sphere S, and draws a state of viewing the sphere S with the texture pasted from the virtual camera C1. The left eye image is generated.
  • a texture generated based on the right panoramic image is pasted on the inner surface of the sphere S, and a state of viewing the inner surface of the sphere S from the virtual camera C2 is drawn, thereby generating a right-eye image.
  • the orientations of the virtual cameras C1 and C2 are determined according to the orientation of the video display device 40, and the visual field range to be rendered is determined by the orientations of the virtual cameras C1 and C2.
  • the target image T is configured to include two images, a left-eye image and a right-eye image generated in this way. By displaying the target image T on the video display device 40, the user can view the scenery shown in the panoramic image.
  • the target image display control unit 52 updates the displayed target image T in real time according to the change in the orientation of the video display device 40 acquired by the direction acquisition unit 51. More specifically, when the orientation of the video display device 40 changes, the target image display control unit 52 changes the orientations of the virtual cameras C1 and C2 in a direction corresponding to the changed orientation. For example, when the pitch angle and the yaw angle of the video display device 40 change, the imaging directions of both the virtual cameras C1 and C2 are changed in conjunction with the changes. When the roll angle of the video display device 40 changes, the virtual cameras C1 and C2 aligned in the left-right direction are tilted with the center of the sphere S as the center of rotation in conjunction with this change.
  • the visual field ranges of the virtual cameras C1 and C2 change in conjunction with the change in the orientation of the video display device 40.
  • the target image display control unit 52 redraws the state of the inner surface of the sphere S based on the updated visual field range, updates the target image T, and causes the video display device 40 to display it.
  • the target image display control unit 52 repeatedly executes such redrawing (updating) processing of the target image T according to the change in the orientation of the video display device 40 at predetermined time intervals. According to such control, the target image T can be updated in the same manner as when the user looks at the real scenery and the view that is seen changes when the user moves his / her face. Therefore, it is possible to give the user a realistic feeling as if the panoramic image was actually taken.
  • the enlarged image display control unit 53 causes the video display device 40 to display an enlarged image E obtained by enlarging a part of the target image T.
  • an area in the target image T to be enlarged is referred to as an enlargement target area A.
  • the enlargement image display control unit 53 enlarges the enlargement target area A in the target image T displayed at that time.
  • An image E is generated and displayed on the video display device 40.
  • the enlargement ratio of the enlarged image E may be a predetermined value, or may be determined according to an operation amount when the user instructs enlargement. In the latter case, the size of the enlargement target area A may be reduced as the enlargement rate is increased so that the size of the enlarged image E is constant.
  • the enlarged image display control unit 53 does not display the enlarged image E over the entire display area of the video display device 40, but enlarges so as to occupy only a partial area overlapping the enlargement target area A.
  • Image E is displayed. That is, the enlarged image E is displayed in a size smaller than the entire display area where the target image T is displayed so as to overlap the target image T. In the region around the enlarged image E, the target image T continues to be displayed.
  • FIG. 5 and 6 are diagrams showing how the enlarged image E is seen from the user.
  • FIG. 5 shows a display example of the target image T before displaying the enlarged image E
  • FIG. 6 shows an example of the state in which the enlarged image E is displayed in response to a user instruction from the state of FIG. Is shown.
  • the broken line of FIG. As shown in FIG. 6, the enlarged image E is displayed so as to overlap the target image T, and the target image T displayed in FIG. 5 is displayed around the enlarged image E as it is.
  • the center of the enlargement target area A coincides with the center of the target image T, and the enlarged image E is also arranged so that the center thereof coincides with the center of the target image T.
  • the enlarged image display control unit 53 may display a frame line along the outer periphery so that the enlarged image E can be clearly distinguished from the target image T.
  • both the target image T and the enlarged image E are updated in conjunction with this.
  • the target image display control unit 52 updates the target image T as in the state where only the target image T is displayed.
  • the enlarged image display control unit 53 always displays an enlarged image E obtained by enlarging the enlargement target area A near the center of the currently displayed target image T so as to be interlocked with the change of the target image T. According to such control, since the display element in the enlarged image E is enlarged, the display element moves faster than the display element in the target image T.
  • the enlarged image E does not occupy the entire display area of the video display device 40 and the surrounding target image T is updated as before, the user is updated according to the movement of his / her face without a sense of incongruity.
  • the enlarged image E can be viewed.
  • the target image display control unit 52 may perform blur processing on the target image T. Accordingly, the target image T is displayed in a blurred manner while the enlarged image E is displayed, so that the user can easily focus on the enlarged image E.
  • the enlarged image display control unit 53 displays the enlarged image E as a stereoscopic image on the video display device 40
  • the enlarged image E is closer to the user than the target image T (distance from the user along the depth direction). May be controlled so as to be visible at a short position.
  • the enlarged image display control unit 53 includes the right-eye image and the right-eye image so that the parallax of the enlarged image E between the right-eye image and the left-eye image displayed on the video display device 40 is larger than the parallax of the target image T.
  • the position of the enlarged image E included in each left-eye image is determined.
  • FIG. 7 is a diagram for explaining an example of a drawing method for realizing such display.
  • the window W is arranged at a position closer to the virtual cameras C1 and C2 than the inner surface of the sphere S inside the virtual sphere S.
  • the polar coordinates of the arrangement position of the window W are determined so as to be positioned at the center of the visual field range of the virtual cameras C1 and C2.
  • the enlarged image display control unit 53 pastes an enlarged image E obtained by enlarging the enlargement target area A as a texture on the window W.
  • the target image display control unit 52 draws a state in which the inner surfaces of the window W and the sphere S are viewed from the virtual cameras C1 and C2, respectively, so that the right-eye image and the left-eye image included in the target image T are drawn. Is generated.
  • the enlarged image E appears to float at a position closer to the trouble than the target image T, the user can view the enlarged image E without feeling uncomfortable.
  • the enlarged image display control unit 53 updates the enlarged image E according to the change in the orientation of the video display device 40
  • the orientation of the video display device 40 is set so that the display position of the enlarged image E can be seen stably. You may make it ignore the slight change of.
  • Such control can be realized by processing similar to camera shake correction.
  • the enlarged image display control unit 53 does not update the display of the enlarged image E while the amount of change in the values indicating the orientation of the video display device 40 (here, the pitch angle and the yaw angle) is less than a predetermined threshold. It is good as well.
  • these values may be prevented from changing abruptly by applying a low-pass filter process to the pitch angle and yaw angle values acquired every predetermined time. According to such control, it is possible to prevent the display content of the enlarged image E from being frequently updated due to slight facial movements that are not conscious of the user, and the user can easily view the enlarged image E.
  • the centers of the enlargement target area A and the enlargement image E coincide with the center of the target image T.
  • the position of the enlargement target area A in the target image T and the display position of the enlarged image E may be shifted from the center of the target image T.
  • the enlarged image display control unit 53 may perform control so that the enlargement target area A approaches the outer periphery from the center of the target image T as the orientation of the video display device 40 deviates from the reference direction R.
  • the center position of the enlargement target area A is assumed to coincide with the center of the target image T.
  • the center position of the enlargement target area A moves from the outer periphery of the target image T. More specifically, when the pitch angle of the video display device 40 is ⁇ °, the center position of the enlargement target area A is displayed when the pitch angle of the video display device 40 is ( ⁇ ⁇ ⁇ ) °. It is determined so as to coincide with the center position of the target image T to be obtained.
  • is a correction coefficient larger than 1.
  • FIG. 8 and 9 are diagrams for explaining the position control of the enlargement target area A in this case, and the range displayed as the target image T in the omnidirectional view represented by the panoramic image. , And an example of a range displayed as the enlargement target area A.
  • Each of these figures shows a case where the user is viewed from the lateral direction.
  • FIG. 8 shows an example in which the user faces the face in the horizontal direction (reference direction R), and FIG.
  • Each example shows a state of being directed in a direction close to directly above.
  • the center of the target image T coincides with the center of the enlargement target area A, but in FIG. 9, the center of the enlargement target area A is shifted above the center of the target image T.
  • the enlarged image display control unit 53 performs control so that the center of the enlargement target area A transitions from the lower side of the target image T in the same manner as in the case where the user faces the face downward. I decided to. In general, since it is difficult for a person to turn his / her face directly above or below, such control can make it easy to see the enlarged image E directly above or below.
  • the center of the enlargement target area A may be changed to the direction in which the user faces the center of the target image T.
  • the enlarged image display control unit 53 displays the enlarged image E so that the center of the enlarged image E coincides with the center of the enlargement target area A.
  • the magnified image display control unit 53 may determine the display position of the magnified image E in the target image T so that the center of the magnified image E deviates from the center of the magnified target region A.
  • the enlarged image display control unit 53 may maintain the state in which the center of the enlarged image E matches the center of the target image T even when the center of the enlargement target area A is shifted from the center of the target image T. Good.
  • the enlarged image display control unit 53 displays the enlarged image E when the user tilts his / her face (that is, when the roll angle of the video display device 40 is changed from the reference state). You may control so that the direction along the horizontal direction may not change. For example, when the window W is arranged in the sphere S as shown in FIG. 7, the enlarged image display control unit 53 changes the polar coordinates of the window W according to changes in the yaw angle and pitch angle of the video display device 40. Thus, even when the roll angle of the video display device 40 changes and the virtual cameras C1 and C2 are rotated in conjunction with this, the orientation of the window W is maintained without rotating.
  • the display area of the enlarged image E in the target image T is displayed by being rotated by the same rotation amount in the direction opposite to the face inclination. According to such control, the orientation of the enlarged image E is always maintained along the horizontal direction regardless of the inclination of the video display device 40.
  • the enlarged image display control unit 53 ends the display of the enlarged image E in accordance with, for example, an instruction operation on the operation device 20 by the user. Further, the enlarged image display control unit 53 may end the display of the enlarged image E when the orientation of the video display device 40 changes by a predetermined angle or more from the orientation when the display of the enlarged image E is started. Further, when a predetermined object shown in the target image T is displayed in an enlarged manner, even if the display of the enlarged image E is ended when the enlargement target area A has moved to a position not including the predetermined object. Good.
  • the enlarged image E is displayed so as to overlap the target image T in a size smaller than the display area of the target image T, so that the enlarged image E can be displayed to the user without feeling uncomfortable. Can be presented.
  • the target image T is generated based on a panoramic image that is a still image including a celestial sphere, but the present invention is not limited thereto, and the target image display control unit 52 changes with time.
  • the target image T that is updated as needed based on the panoramic video may be generated.
  • the target image T may be generated based on a panoramic image or a panoramic image including a narrower range of scenery instead of the omnidirectional sphere.
  • the enlarged image display control unit 53 sets the expansion target region A to the time according to the change of the target image T. You may move with.
  • the enlarged image display control unit 53 identifies a target object (subject that moves relative to other backgrounds such as animals and vehicles) in the target image T, and includes the target object. Is an enlargement target area A. By repeatedly executing such processing every predetermined time and updating the position of the enlargement target area A each time, the object of interest can be automatically tracked and enlarged and displayed.
  • the target image display control unit 52 may generate the target image T indicating the state in the virtual space instead of generating the target image T from the panoramic image representing the real scenery.
  • the target image display control unit 52 constructs a virtual three-dimensional space in which various objects representing characters and backgrounds are arranged, and arranges a virtual camera therein. And the target image T which shows a mode that the inside of virtual space was seen from this virtual camera is produced
  • the target image display control unit 52 arranges two virtual cameras arranged on the left and right in the virtual space, and An image showing how the virtual space is viewed from each is generated.
  • the target image display control unit 52 changes the orientation of the virtual camera arranged in the virtual space so as to be linked to the change, and based on the changed orientation of the virtual camera.
  • the target image T is updated.
  • the user can view the state in the virtual space as if it were in the virtual space.
  • the enlarged image display control unit 53 may set the area in the target image T in which the object of interest in the virtual space is shown as the enlargement target area A. As a result, the object of interest can be automatically tracked and displayed as an enlarged image E.
  • the processing such as video correction that the relay device 30 realizes in the above description may be realized by the information processing device 10.
  • the processing that the information processing apparatus 10 realizes in the above description may be realized by the relay apparatus 30.
  • a part of the processing realized by the relay device 30 in the above description may be realized by an integrated circuit built in the video display device 40.
  • the relay device 30 may not exist.
  • 1 video display system 10 information processing device, 11 control unit, 12 storage unit, 13 interface unit, 20 operation device, 30 relay device, 40 video display device, 41 video display device, 42 optical device, 44 motion sensor, 45 communication Interface, 51 direction acquisition unit, 52 target image display control unit, 53 enlarged image display control unit.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Optics & Photonics (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Circuits (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

ユーザーの頭部に装着される映像表示装置に、ユーザーの頭の動きに連動して更新される拡大画像を違和感なく表示させることのできる情報処理装置を提供する。 ユーザーの頭部に装着される映像表示装置(40)と接続され、映像表示装置(40)の向きの変化に連動して更新される対象画像を映像表示装置(40)に表示させるとともに、対象画像の一部を拡大した拡大画像を、対象画像の表示領域よりも小さい大きさで対象画像と重ねて表示させる情報処理装置(10)である。

Description

情報処理装置
 本発明は、ユーザーの頭部に装着される映像表示装置に映像を表示させる情報処理装置、その制御方法、その制御プログラム、及び情報記憶媒体に関する。
 例えばヘッドマウントディスプレイのように、ユーザーが頭部に装着して使用する映像表示装置がある。このような映像表示装置は、ユーザーの目の前に画像を結像させることで、その画像をユーザーに閲覧させる。このような映像表示装置は、臨場感のある映像をユーザーに閲覧させることができるため、バーチャルリアリティ技術などに利用されている。
 さらに、ユーザーの頭の向きを検出し、その向きの変化に連動して上記映像表示装置が表示中の画像を更新するように制御することで、より臨場感のある映像をユーザーに提示することができる。一例として、広角のカメラで風景を撮影するなどして得られるパノラマ画像の一部範囲を映像表示装置に表示させ、ユーザーの頭の動きに合わせてそのパノラマ画像内の表示範囲を移動させる。これにより、ユーザーはカメラの撮影場所に実際に自分がいるかのような感覚でその風景を閲覧することができる。また、仮想空間に配置した仮想カメラの向きをユーザーの頭の動きに合わせて変化させながら、この仮想カメラから見た仮想空間の様子を示す映像を映像表示装置に表示させてもよい。これにより、ユーザーにあたかも仮想空間内にいるかのような映像を閲覧させることができる。
 上述した映像表示装置を用いて元の画像を拡大した拡大画像を表示しようとした場合、ユーザーの頭の動きに合わせて拡大画像を元の画像と同じように更新すると、元の画像と比較して画像内に含まれる表示要素の移動速度が大きくなる。そのため、ユーザーに違和感を生じさせてしまう場合がある。
 本発明は上記実情を考慮してなされたものであって、その目的の一つは、ユーザーの頭部に装着される映像表示装置に、ユーザーの頭の動きに連動して更新される拡大画像を違和感なく表示させることのできる情報処理装置、映像表示方法、情報処理装置の制御プログラム、及び情報記憶媒体を提供することにある。
 本発明に係る情報処理装置は、ユーザーの頭部に装着される映像表示装置と接続される情報処理装置であって、前記映像表示装置の向きを取得する取得部と、前記映像表示装置の向きの変化に連動して更新される対象画像を前記映像表示装置に表示させる対象画像表示制御部と、前記対象画像の一部を拡大した拡大画像を前記映像表示装置に表示させる拡大画像表示制御部と、を含み、前記拡大画像表示制御部は、前記拡大画像を、前記対象画像の表示領域よりも小さい大きさで前記対象画像と重ねて表示させることを特徴とする。
 また、本発明に係る映像表示システムは、ユーザーの頭部に装着される映像表示装置と、当該映像表示装置に接続される情報処理装置と、を含む映像表示システムであって、前記情報処理装置は、前記映像表示装置の向きを取得する取得部と、前記映像表示装置の向きの変化に連動して更新される対象画像を前記映像表示装置に表示させる対象画像表示制御部と、前記対象画像の一部を拡大した拡大画像を前記映像表示装置に表示させる拡大画像表示制御部と、を含み、前記拡大画像表示制御部は、前記拡大画像を、前記対象画像の表示領域よりも小さい大きさで前記対象画像と重ねて表示させることを特徴とする。
 本発明に係る情報処理装置の制御方法は、ユーザーの頭部に装着される映像表示装置と接続される情報処理装置の制御方法であって、前記映像表示装置の向きを取得するステップと、前記映像表示装置の向きの変化に連動して更新される対象画像を前記映像表示装置に表示させる対象画像表示ステップと、前記対象画像の一部を拡大した拡大画像を前記映像表示装置に表示させる拡大画像表示ステップと、を含み、前記拡大画像表示ステップでは、前記拡大画像を、前記対象画像の表示領域よりも小さい大きさで前記対象画像と重ねて表示させることを特徴とする。
 また、本発明に係るプログラムは、ユーザーの頭部に装着される映像表示装置と接続されるコンピュータを、前記映像表示装置の向きを取得する取得手段、前記映像表示装置の向きの変化に連動して更新される対象画像を前記映像表示装置に表示させる対象画像表示制御手段、及び、前記対象画像の一部を拡大した拡大画像を前記映像表示装置に表示させる拡大画像表示制御手段、として機能させるためのプログラムであって、前記拡大画像表示制御手段は、前記拡大画像を、前記対象画像の表示領域よりも小さい大きさで前記対象画像と重ねて表示させることを特徴とする。このプログラムは、コンピュータ読み取り可能で非一時的な情報記憶媒体に格納されて提供されてよい。
本発明の実施の形態に係る情報処理装置を含んだ映像表示システムの全体概要図である。 映像表示システムの構成を示す構成ブロック図である。 情報処理装置の機能を示す機能ブロック図である。 対象画像の生成方法の一例を説明する図である。 映像表示装置に表示される対象画像の一例を示す図である。 映像表示装置に表示される拡大画像の一例を示す図である。 拡大画像の生成方法の一例を説明する図である。 ユーザーが顔を水平方向に向けている状態における拡大対象領域の位置の例を示す図である。 ユーザーが顔を真上に近い方向に向けている状態における拡大対象領域の位置の例を示す図である。
 以下、本発明の実施形態について、図面に基づき詳細に説明する。
 図1は、本発明の一実施形態に係る情報処理装置10を含む映像表示システム1の全体概要図である。また、図2は映像表示システム1の構成を示す構成ブロック図である。これらの図に示されるように、映像表示システム1は、情報処理装置10と、操作デバイス20と、中継装置30と、映像表示装置40と、を含んで構成されている。
 情報処理装置10は、映像表示装置40が表示すべき映像を供給する装置であって、例えば家庭用ゲーム機、携帯型ゲーム機、パーソナルコンピューター、スマートフォン、タブレット等であってよい。図2に示されるように、情報処理装置10は、制御部11と、記憶部12と、インタフェース部13と、を含んで構成される。
 制御部11は、CPU等であって、記憶部12に記憶されているプログラムを実行して各種の情報処理を実行する。なお、本実施形態において制御部11が実行する処理の具体例については、後述する。記憶部12は、RAM等のメモリデバイスを含み、制御部11が実行するプログラム、及び当該プログラムによって処理されるデータを格納する。
 インタフェース部13は、操作デバイス20、及び中継装置30との間のデータ通信のためのインタフェースである。情報処理装置10は、インタフェース部13を介して有線又は無線のいずれかで操作デバイス20及び中継装置30のそれぞれと接続される。具体例として、インタフェース部13は、情報処理装置10が供給する映像や音声を中継装置30に送信するために、HDMI(High-Definition Multimedia Interface:登録商標)などのマルチメディアインタフェースを含んでよい。また、中継装置30経由で映像表示装置40から各種の情報を受信したり、制御信号等を送信したりするために、USB等のデータ通信インタフェースを含んでよい。さらにインタフェース部13は、操作デバイス20に対するユーザーの操作入力の内容を示す信号を受信するために、USB等のデータ通信インタフェースを含んでよい。
 操作デバイス20は、家庭用ゲーム機のコントローラ等であって、ユーザーが情報処理装置10に対して各種の指示操作を行うために使用される。操作デバイス20に対するユーザーの操作入力の内容は、有線又は無線のいずれかにより情報処理装置10に送信される。なお、操作デバイス20は情報処理装置10の筐体表面に配置された操作ボタンやタッチパネル等を含んでもよい。
 中継装置30は、有線又は無線のいずれかにより映像表示装置40と接続されており、情報処理装置10から供給される映像のデータを受け付けて、受け付けたデータに応じた映像信号を映像表示装置40に対して出力する。このとき中継装置30は、必要に応じて、供給された映像データに対して、映像表示装置40の光学系によって生じる歪みを補正する処理などを実行し、補正された映像信号を出力してもよい。なお、中継装置30から映像表示装置40に供給される映像信号は、左目用映像、及び右目用映像の二つの映像を含んでいる。また、中継装置30は、映像データ以外にも、音声データや制御信号など、情報処理装置10と映像表示装置40との間で送受信される各種の情報を中継する。
 映像表示装置40は、ユーザーが頭部に装着して使用する映像表示装置であって、中継装置30から入力される映像信号に応じた映像を表示し、ユーザーに閲覧させる。本実施形態では、映像表示装置40は両目での映像の閲覧に対応しており、ユーザーの右目及び左目それぞれの目の前に映像を表示するものとする。図2に示すように、映像表示装置40は、映像表示素子41、光学素子42、モーションセンサー44、及び通信インタフェース45を含んで構成される。
 映像表示素子41は、有機EL表示パネルや液晶表示パネルなどであって、中継装置30から供給される映像信号に応じた映像を表示する。本実施形態において映像表示素子41は、左目用映像、及び右目用映像の2つの映像を表示する。なお、映像表示素子41は、左目用映像及び右目用映像を並べて表示する1つの表示素子であってもよいし、それぞれの映像を独立に表示する2つの表示素子によって構成されてもよい。また、公知のスマートフォン等を映像表示素子41として用いてもよい。なお、映像表示素子41は、立体視を実現するために左目用映像及び右目用映像として互いに異なる映像を表示してもよいし、左目用映像及び右目用映像として互いに同じ映像を表示してもよい。
 光学素子42は、ホログラムやプリズム、ハーフミラーなどであって、ユーザーの目の前に配置され、映像表示素子41が表示する映像の光を透過又は屈折させて、ユーザーの左右それぞれの目に入射させる。具体的に、映像表示素子41が表示する左目用映像は、光学素子42を経由してユーザーの左目に入射し、右目用映像は光学素子42を経由してユーザーの右目に入射する。これによりユーザーは、映像表示装置40を頭部に装着した状態で、左目用映像を左目で、右目用映像を右目で、それぞれ閲覧することができる。なお、本実施形態において映像表示装置40は、ユーザーが外界の様子を視認することができない非透過型の映像表示装置であるものとする。
 モーションセンサー44は、映像表示装置40の位置や向き、動きに関する各種の情報を測定する。例えばモーションセンサー44は、加速度センサー、ジャイロスコープ、又は地磁気センサーなどを含んでよい。モーションセンサー44の測定結果は、中継装置30を経由して情報処理装置10に送信される。情報処理装置10は、映像表示装置40の動きや向きの変化を特定するために、このモーションセンサー44の測定結果を用いることができる。具体的に情報処理装置10は、加速度センサーの測定結果を用いることで、映像表示装置40の鉛直方向に対する傾きや平行移動を検出できる。また、ジャイロスコープや地磁気センサーの測定結果を用いることで、映像表示装置40の回転運動を検出できる。
 通信インタフェース45は、中継装置30との間でデータ通信を行うためのインタフェースである。例えば映像表示装置40が中継装置30との間で無線LANやBluetooth(登録商標)などの無線通信によりデータの送受信を行う場合、通信インタフェース45は通信用のアンテナ、及び通信モジュールを含む。
 次に、情報処理装置10が実現する機能について図3を用いて説明する。図3に示すように、情報処理装置10は、機能的に、方向取得部51と、対象画像表示制御部52と、拡大画像表示制御部53と、を含む。これらの機能は、制御部11が記憶部12に記憶されたプログラムを実行することにより実現される。このプログラムは、インターネット等の通信ネットワークを介して情報処理装置10に提供されてもよいし、光ディスク等のコンピュータ読み取り可能な情報記憶媒体に格納されて提供されてもよい。
 方向取得部51は、前述したモーションセンサー44の測定結果を用いて、映像表示装置40の向きを示す情報を取得する。具体的に方向取得部51は、一定時間おきにモーションセンサー44の測定結果を取得することによって、取得時点における映像表示装置40の向きを特定する。映像表示装置40はユーザーの頭部に固定された状態で使用されるので、この映像表示装置40の向きは、そのままユーザーの顔の向きに対応することになる。具体例として、映像表示装置40の向きは、垂直方向(上下方向)を回転軸とした回転量を表すヨー角と、左右方向を回転軸とした回転量を表すピッチ角と、前後方向を回転軸とした回転量を表すロール角と、によって表される。この場合、ヨー角及びピッチ角の値は、例えばユーザーが正面を向いた状態の映像表示装置40の向きを基準方向Rとして、この基準方向Rに対する回転量を表すものであってよい。基準方向Rは、映像表示装置40の使用開始時などに決定される方向であってよい。また、ロール角の値は、ユーザーが首を傾けずに左右の目が水平になっている状態を基準状態として、この基準状態からの回転量を表すものであってよい。
 なお、ここでは方向取得部51は、映像表示装置40の向きを特定するために映像表示装置40に内蔵されたモーションセンサー44の測定結果を利用することとしたが、これに代えて、またはこれに加えて、他の手段で取得した情報が映像表示装置40の向きの特定に用いられてもよい。例えば情報処理装置10にはカメラが接続され、このカメラによって映像表示装置40を撮像することとしてもよい。方向取得部51は、この撮像画像に含まれる映像表示装置40の位置及び向きを特定することによって、映像表示装置40の向きに関する情報を取得できる。この場合、映像表示装置40の筐体表面に複数の発光素子を設け、これらの発光素子が発する光をカメラで撮像し、その光の位置を特定することにより、方向取得部51はカメラの撮像画像を用いて精度よく映像表示装置40の向きを特定できる。
 対象画像表示制御部52は、表示対象となる対象画像Tを生成し、生成した対象画像Tを中継装置30に対して出力することによって映像表示装置40に表示させる。ここでは具体例として、対象画像Tは、全方位カメラなどで実際の風景を撮影して得られるパノラマ画像に基づいて生成された、所定の視野範囲内の様子を示す画像であるものとする。この場合におけるパノラマ画像は、例えば正距円筒図法などのデータフォーマットで生成された、全天球(前後左右上下全ての向き)の景色を含む画像である。なお、ここではパノラマ画像は、右目用画像の生成に用いられる右パノラマ画像と、左目用画像の生成に用いられる左パノラマ画像とを含むものとする。これら二つのパノラマ画像は、例えば左右に並んだ二つの全方位カメラによって実際の風景を撮影することで生成できる。また、視野範囲は、方向取得部51が取得した映像表示装置40の向きを表すヨー角、ピッチ角、及びロール角に応じて全天球の中から決定される範囲である。
 具体的に、対象画像表示制御部52は、仮想空間内に球Sを配置するとともに、当該球Sの中心位置に、左右に並んだ2つの仮想カメラC1及びC2を配置する。図4はこの球S及び仮想カメラC1及びC2が配置された仮想空間を天頂方向から見た様子を示している。さらに対象画像表示制御部52は、球Sの内面に左パノラマ画像に基づいて生成されるテクスチャーを貼り付け、仮想カメラC1からこのテクスチャーが貼り付けられた球Sを見た様子を描画することで、左目用画像を生成する。同様に、球Sの内面に右パノラマ画像に基づいて生成されるテクスチャーを貼り付け、仮想カメラC2からこの球Sの内面を見た様子を描画することで、右目用画像を生成する。ここで、仮想カメラC1及びC2の向きは、映像表示装置40の向きに応じて決定されており、この仮想カメラC1及びC2の向きによって描画対象となる視野範囲が定められる。対象画像Tは、このようにして生成された左目用画像及び右目用画像の二つの画像を含んで構成される。この対象画像Tを映像表示装置40が表示することで、ユーザーはパノラマ画像に写っている景色を閲覧できる。
 さらに本実施形態では、対象画像表示制御部52は、方向取得部51が取得した映像表示装置40の向きの変化に応じて、表示される対象画像Tをリアルタイムで更新する。より具体的に、対象画像表示制御部52は、映像表示装置40の向きが変化すると、その変化した向きと対応する方向に仮想カメラC1及びC2の向きを変化させる。例えば、映像表示装置40のピッチ角、及びヨー角が変化した場合には、この変化に連動させて仮想カメラC1及びC2双方の撮像方向を変化させる。また、映像表示装置40のロール角が変化した場合には、この変化に連動させて、左右方向に並んだ仮想カメラC1及びC2を球Sの中心を回転中心として傾けさせる。これにより、仮想カメラC1及びC2の視野範囲は映像表示装置40の向きの変化に連動して変化することになる。対象画像表示制御部52は、更新された視野範囲に基づいて球Sの内面の様子を再描画して対象画像Tを更新し、映像表示装置40に表示させる。対象画像表示制御部52は、このような映像表示装置40の向きの変化に応じた対象画像Tの再描画(更新)処理を、所定時間おきに繰り返し実行する。このような制御によれば、ユーザーが現実の景色を見ている場合に自分の顔を動かすと見える景色が変わるのと同じように、対象画像Tを更新することができる。そのため、パノラマ画像の撮影場所に実際にいるかのような臨場感をユーザーに与えることができる。
 拡大画像表示制御部53は、対象画像Tの一部を拡大した拡大画像Eを映像表示装置40に表示させる。なお、以下では拡大の対象となる対象画像T内の領域を拡大対象領域Aという。例えば拡大画像表示制御部53は、ユーザーが操作デバイス20に対して拡大表示を指示する操作入力を実行した場合に、その時点で表示されている対象画像T内の拡大対象領域Aを拡大した拡大画像Eを生成し、映像表示装置40に表示させる。このとき、拡大画像Eの拡大率は、予め定められた値であってもよいし、ユーザーが拡大を指示する際の操作量などに応じて決定されてもよい。後者の場合、拡大画像Eの大きさが一定になるように、拡大率が大きくなるほど拡大対象領域Aの大きさを小さくすることとしてもよい。
 特に本実施形態において、拡大画像表示制御部53は、拡大画像Eを映像表示装置40の表示領域全体に表示させるのではなく、拡大対象領域Aと重なる一部の領域のみを占有するように拡大画像Eを表示させる。すなわち、拡大画像Eは対象画像Tが表示されている表示領域の全体よりも小さい大きさで、対象画像Tと重なるように表示される。拡大画像Eの周囲の領域には、対象画像Tが表示され続けることになる。
 図5及び図6は、ユーザーから見た拡大画像Eの見え方を示す図である。具体的に、図5は拡大画像Eを表示する前の対象画像Tの表示例を示しており、図6は図5の状態からユーザーの指示を受けて拡大画像Eが表示された状態の例を示している。なお、図5の破線は拡大対象領域Aを示している。図6に示されるように、拡大画像Eは対象画像Tの手前に重なるように表示され、拡大画像Eの周囲には図5で表示されていた対象画像Tがそのまま表示されている。なお、この図の例では、拡大対象領域Aの中心は対象画像Tの中心と一致しており、これに対応して拡大画像Eもその中心が対象画像Tの中心に一致するように配置されている。また、図6に示されるように、拡大画像表示制御部53は拡大画像Eを対象画像Tと明確に区別できるようにその外周に沿って枠線を表示してもよい。
 図6に例示するような拡大画像Eが表示された状態でユーザーが顔の向きを変化させると、これに連動して対象画像T及び拡大画像Eの双方が更新される。具体的に、対象画像表示制御部52は、対象画像Tだけが表示されていた状態と同様に対象画像Tを更新する。そして、拡大画像表示制御部53は、対象画像Tの変化と連動するように、常に表示中の対象画像Tの中央近傍の拡大対象領域Aを拡大した拡大画像Eを表示する。このような制御によれば、拡大画像E内の表示要素は拡大されているために対象画像T内の表示要素よりも速く移動することになる。しかしながら、拡大画像Eが映像表示装置40の表示領域全体を占めず、その周囲の対象画像Tはこれまでと同様に更新されるので、ユーザーは違和感なく自分の顔の動きに合わせて更新される拡大画像Eを閲覧することができる。
 なお、拡大画像Eが表示される際には、対象画像表示制御部52が対象画像Tにブラー処理を施すこととしてもよい。これにより、拡大画像Eが表示されている間は対象画像Tがぼやけて表示されるため、ユーザーが拡大画像Eに注目しやすくなる。
 また、拡大画像表示制御部53は、立体映像として拡大画像Eを映像表示装置40に表示させる場合に、拡大画像Eが対象画像Tよりもユーザーに近い位置(奥行き方向に沿ったユーザーからの距離が短い位置)に見えるように制御してもよい。具体的に拡大画像表示制御部53は、映像表示装置40に表示される右目用画像と左目用画像における拡大画像Eの視差が、対象画像Tの視差よりも大きくなるように、右目用画像及び左目用画像それぞれに含まれる拡大画像Eの位置を決定する。図7は、このような表示を実現するための描画方法の一例を説明する図である。ここでは、仮想的な球Sの内側の、球Sの内面よりも仮想カメラC1及びC2に近い位置に、ウィンドウWが配置される。なお、この例におけるウィンドウWの配置位置の極座標は、仮想カメラC1及びC2の視野範囲の中心に位置するように決定される。拡大画像表示制御部53は、拡大対象領域Aを拡大した拡大画像EをこのウィンドウWにテクスチャーとして貼り付ける。この状態で対象画像表示制御部52は、仮想カメラC1及びC2のそれぞれからウィンドウW及び球Sの内面を見た様子を描画することにより、対象画像Tに含まれる右目用画像、及び左目用画像を生成する。これにより、拡大画像Eが対象画像Tよりも手間の近い位置に浮かんでいるように見えるため、ユーザーは違和感なく拡大画像Eを閲覧できる。
 また、拡大画像表示制御部53は、映像表示装置40の向きの変化に応じて拡大画像Eを更新する場合に、拡大画像Eの表示位置が安定して見えるように、映像表示装置40の向きのわずかな変化を無視するようにしてもよい。このような制御は、カメラの手ぶれ補正と同様の処理によって実現できる。具体的に拡大画像表示制御部53は、映像表示装置40の向きを示す値(ここではピッチ角、及びヨー角)の変化量が所定の閾値未満の間は、拡大画像Eの表示を更新しないこととしてもよい。また、所定時間おきに取得されるピッチ角、及びヨー角の値に対してローパスフィルタ処理を施すことによって、これらの値が急激に変化しないようにしてもよい。このような制御によれば、ユーザーの意識しないわずかな顔の動きによって、拡大画像Eの表示内容が頻繁に更新されてしまうことを避けることができ、ユーザーが拡大画像Eを見やすくなる。
 また、これまでの説明では、拡大対象領域A、及び拡大画像Eの中心は対象画像Tの中心と一致することとした。しかしながら、対象画像T内における拡大対象領域Aの位置、及び拡大画像Eの表示位置は、対象画像Tの中心からずれた位置であってもよい。特に、拡大画像表示制御部53は、映像表示装置40の向きが基準方向Rからずれるにしたがって、拡大対象領域Aが対象画像Tの中心から外周に近づくように制御してもよい。
 以下、上述したような拡大対象領域Aの位置の制御例について説明する。ここでは、上下方向に沿ってユーザーが顔の向きを変化させた場合(すなわち、ピッチ角が変化する場合)に、拡大対象領域Aの位置を対象画像Tの中心から上下方向に沿ってずらすこととする。
 この例では、映像表示装置40の向きが基準方向Rから変化していない場合、拡大対象領域Aの中心位置は対象画像Tの中心に一致するものとする。一方、ユーザーが顔を上方向、又は下方向に動かした場合、拡大対象領域Aの中心位置は対象画像Tの外周よりに移動する。より具体的に、映像表示装置40のピッチ角がθ°になった場合、拡大対象領域Aの中心位置は、映像表示装置40のピッチ角が(α・θ)°になった場合に表示されるべき対象画像Tの中心位置に一致するように決定される。ここでαは1より大きな補正係数である。
 図8及び図9は、この場合の拡大対象領域Aの位置制御を説明するための図であって、パノラマ画像によって表される全天球の景色のうちの、対象画像Tとして表示される範囲、及び拡大対象領域Aとして表示される範囲の一例を示している。これらの図は、いずれもユーザーを横方向から見た場合を示しており、図8はユーザーが顔を水平方向(基準方向R)に向けている状態の例を、図9はユーザーが顔を真上に近い方向に向けている状態の例を、それぞれ示している。図8では、対象画像Tの中心と拡大対象領域Aの中心は一致しているが、図9では、拡大対象領域Aの中心は対象画像Tの中心よりも上側にシフトしている。このように、ユーザーが顔を上に向けるにつれて拡大対象領域Aの中心位置を対象画像Tの上辺よりに移動させることによって、ユーザーは自分の顔を完全に真上に向けなくとも天頂方向の景色を拡大させて閲覧することができる。なお、拡大画像表示制御部53は、ユーザーが顔を下方向に向けた場合にも、上方向に向けた場合と同様に拡大対象領域Aの中心が対象画像Tの下辺よりに遷移するよう制御することとする。一般に人は顔を真上や真下に向けにくいので、このような制御によれば、真上や真下の拡大画像Eを見やすくすることができる。
 また、ユーザーが顔を基準方向Rから左右方向に変化させた場合にも、拡大対象領域Aの中心を対象画像Tの中心に対してユーザーが顔を向けた方向に遷移させてよい。このような制御によれば、ユーザーが顔を正面から離れた方向に向けた場合に、その方向の景色を拡大画像Eとして見やすくすることができる。なお、以上の例において、拡大画像表示制御部53は、拡大画像Eの中心が拡大対象領域Aの中心と一致するように拡大画像Eを表示することとする。ただし、これに限らず拡大画像表示制御部53は、拡大画像Eの中心が拡大対象領域Aの中心からずれるように拡大画像Eの対象画像T内における表示位置を決定してもよい。例えば拡大画像表示制御部53は、拡大対象領域Aの中心を対象画像Tの中心からずらした場合にも、拡大画像Eの中心は対象画像Tの中心に一致させた状態を維持することとしてもよい。
 なお、拡大画像表示制御部53は、ユーザーが顔を傾けた状態で(すなわち、映像表示装置40のロール角が基準状態から変化した状態で)拡大画像Eを表示する際には、拡大画像Eの水平方向に沿った向きが変化しないように制御してもよい。例えば図7で示したようにウィンドウWを球S内に配置する場合、拡大画像表示制御部53は、映像表示装置40のヨー角及びピッチ角の変化に応じてウィンドウWの極座標を変化させる一方で、映像表示装置40のロール角が変化し、これに連動して仮想カメラC1及びC2を回転させた場合にも、ウィンドウWを回転させずにその向きを維持する。こうすると、対象画像T内における拡大画像Eの表示領域は、顔の傾きと逆向きに、同じ回転量だけ回転して表示されることになる。このような制御によれば、拡大画像Eの向きは映像表示装置40の傾きによらず常に水平方向に沿って維持されることになる。
 なお、拡大画像表示制御部53は、例えばユーザーの操作デバイス20に対する指示操作に応じて拡大画像Eの表示を終了する。また、拡大画像表示制御部53は、映像表示装置40の向きが、拡大画像Eの表示を開始した際の向きから所定角度以上変化した場合に、拡大画像Eの表示を終了してもよい。また、対象画像T内に写っている所定のオブジェクトを拡大表示している場合、拡大対象領域Aがこの所定のオブジェクトを含まない位置まで移動した場合に、拡大画像Eの表示を終了してもよい。
 以上説明した本実施形態に係る情報処理装置10によれば、拡大画像Eを対象画像Tの表示領域よりも小さい大きさで対象画像Tと重ねて表示することで、拡大画像Eを違和感なくユーザーに提示することができる。
 なお、本発明の実施の形態は以上説明したものに限られない。例えば以上の説明では全天球の景色を含んだ静止画像であるパノラマ画像に基づいて対象画像Tを生成することとしたが、これに限らず、対象画像表示制御部52は、時間とともに変化するパノラマ映像に基づいて随時更新される対象画像Tを生成することとしてもよい。また、全天球ではなくより狭い範囲の景色を含むパノラマ画像又はパノラマ映像に基づいて対象画像Tを生成してもよい。
 さらに、対象画像表示制御部52が時間とともに変化するパノラマ映像に基づいて生成した対象画像Tを表示する場合、拡大画像表示制御部53は、対象画像Tの変化に応じて拡大対象領域Aを時間とともに移動させてもよい。例えば拡大画像表示制御部53は、対象画像T内に写っている注目オブジェクト(動物や乗り物など、他の背景に対して相対的に移動している被写体)を特定し、この注目オブジェクトを含む領域を拡大対象領域Aとする。このような処理を所定時間おきに繰り返し実行し、拡大対象領域Aの位置をそのつど更新することで、注目オブジェクトを自動的に追尾し、拡大して表示させることができる。
 また、対象画像表示制御部52は、現実の景色を表すパノラマ画像から対象画像Tを生成するのではなく、仮想空間内の様子を示す対象画像Tを生成してもよい。この場合、対象画像表示制御部52は、キャラクターや背景などを表す各種のオブジェクトが配置された仮想3次元空間を構築し、その内部に仮想カメラを配置する。そして、この仮想カメラから仮想空間内を見た様子を示す対象画像Tを生成する。この場合にも、前述したパノラマ画像から対象画像Tを生成する例と同様に、対象画像表示制御部52は、左右に並んだ二つの仮想カメラを仮想空間内に配置し、これら二つのカメラのそれぞれから仮想空間内を見た様子を示す画像を生成する。こうすれば、立体視に必要な右目用画像、及び左目用画像を対象画像Tとして生成することができる。さらに対象画像表示制御部52は、映像表示装置40の向きが変化した場合、その変化に連動するように仮想空間内に配置した仮想カメラの向きを変化させ、変化した仮想カメラの向きに基づいて対象画像Tを更新する。これによりユーザーは、あたかも仮想空間内にいるかのように仮想空間内の様子を閲覧することができる。さらにこの場合においても、拡大画像表示制御部53は、仮想空間内の注目オブジェクトが写っている対象画像T内の領域を、拡大対象領域Aとしてもよい。これにより、注目オブジェクトを自動的に追尾し、拡大画像Eとして表示させることができる。
 また、以上の説明において中継装置30が実現するとした映像の補正などの処理は、情報処理装置10によって実現されてもよい。逆に、以上の説明において情報処理装置10が実現するとした処理の少なくとも一部は、中継装置30によって実現されてもよい。また、以上の説明において中継装置30が実現するとした処理の一部は、映像表示装置40に内蔵される集積回路によって実現されてもよい。さらに、以上の説明において中継装置30が実現するとした処理の全てが情報処理装置10及び映像表示装置40のいずれかによって実現される場合、中継装置30が存在せずともよい。
 1 映像表示システム、10 情報処理装置、11 制御部、12 記憶部、13 インタフェース部、20 操作デバイス、30 中継装置、40 映像表示装置、41 映像表示素子、42 光学素子、44 モーションセンサー、45 通信インタフェース、51 方向取得部、52 対象画像表示制御部、53 拡大画像表示制御部。

Claims (9)

  1.  ユーザーの頭部に装着される映像表示装置と接続される情報処理装置であって、
     前記映像表示装置の向きを取得する取得部と、
     前記映像表示装置の向きの変化に連動して更新される対象画像を前記映像表示装置に表示させる対象画像表示制御部と、
     前記対象画像の一部を拡大した拡大画像を前記映像表示装置に表示させる拡大画像表示制御部と、
     を含み、
     前記拡大画像表示制御部は、前記拡大画像を、前記対象画像の表示領域よりも小さい大きさで前記対象画像と重ねて表示させる
     ことを特徴とする情報処理装置。
  2.  請求項1に記載の情報処理装置において、
     前記映像表示装置は、右目用画像及び左目用画像を表示し、
     前記拡大画像表示制御部は、前記右目用画像と前記左目用画像における前記拡大画像の視差が、前記対象画像の視差よりも大きくなるよう制御する
     ことを特徴とする情報処理装置。
  3.  請求項1に記載の情報処理装置において、
     前記対象画像表示制御部は、前記拡大画像が表示されている間、前記対象画像をブラー処理してから表示させる
     ことを特徴とする情報処理装置。
  4.  請求項1に記載の情報処理装置において、
     前記拡大画像表示制御部は、前記対象画像の一部の拡大対象領域を拡大した画像を前記拡大画像として表示させ、前記映像表示装置の向きが所定の基準方向に一致する場合には前記拡大対象領域の中心を前記対象画像の中心と一致させ、前記映像表示装置の向きが前記基準方向からずれる場合には前記拡大対象領域の中心を前記対象画像の外周に近い位置にシフトさせる
     ことを特徴とする情報処理装置。
  5.  請求項1に記載の情報処理装置において、
     前記拡大画像表示制御部は、前記映像表示装置の向きが所定の基準方向に一致する場合には前記拡大画像を前記対象画像の表示領域の中心に表示させ、前記映像表示装置の向きが前記基準方向からずれる場合には前記拡大画像の表示位置を前記対象画像の外周に近い位置にシフトさせる
     ことを特徴とする情報処理装置。
  6.  ユーザーの頭部に装着される映像表示装置と、当該映像表示装置に接続される情報処理装置と、を含む映像表示システムであって、
     前記情報処理装置は、
     前記映像表示装置の向きを取得する取得部と、
     前記映像表示装置の向きの変化に連動して更新される対象画像を前記映像表示装置に表示させる対象画像表示制御部と、
     前記対象画像の一部を拡大した拡大画像を前記映像表示装置に表示させる拡大画像表示制御部と、
     を含み、
     前記拡大画像表示制御部は、前記拡大画像を、前記対象画像の表示領域よりも小さい大きさで前記対象画像と重ねて表示させる
     ことを特徴とする映像表示システム。
  7.  ユーザーの頭部に装着される映像表示装置と接続される情報処理装置の制御方法であって、
     前記映像表示装置の向きを取得するステップと、
     前記映像表示装置の向きの変化に連動して更新される対象画像を前記映像表示装置に表示させる対象画像表示ステップと、
     前記対象画像の一部を拡大した拡大画像を前記映像表示装置に表示させる拡大画像表示ステップと、
     を含み、
     前記拡大画像表示ステップでは、前記拡大画像を、前記対象画像の表示領域よりも小さい大きさで前記対象画像と重ねて表示させる
     ことを特徴とする映像表示方法。
  8.  ユーザーの頭部に装着される映像表示装置と接続されるコンピュータを、
     前記映像表示装置の向きを取得する取得手段、
     前記映像表示装置の向きの変化に連動して更新される対象画像を前記映像表示装置に表示させる対象画像表示制御手段、及び、
     前記対象画像の一部を拡大した拡大画像を前記映像表示装置に表示させる拡大画像表示制御手段、
     として機能させるためのプログラムであって、
     前記拡大画像表示制御手段は、前記拡大画像を、前記対象画像の表示領域よりも小さい大きさで前記対象画像と重ねて表示させる
     ことを特徴とするプログラム。
  9.  請求項8に記載のプログラムを記憶した、コンピュータ読み取り可能な情報記憶媒体。
PCT/JP2016/064273 2015-08-06 2016-05-13 情報処理装置 WO2017022291A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017532398A JP6422584B2 (ja) 2015-08-06 2016-05-13 情報処理装置
US15/747,225 US20180359462A1 (en) 2015-08-06 2016-05-13 Information processing apparatus
CN201680044711.6A CN107851334A (zh) 2015-08-06 2016-05-13 信息处理装置
EP16832571.0A EP3333808B1 (en) 2015-08-06 2016-05-13 Information processing device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015156279 2015-08-06
JP2015-156279 2015-08-06

Publications (1)

Publication Number Publication Date
WO2017022291A1 true WO2017022291A1 (ja) 2017-02-09

Family

ID=57942738

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/064273 WO2017022291A1 (ja) 2015-08-06 2016-05-13 情報処理装置

Country Status (5)

Country Link
US (1) US20180359462A1 (ja)
EP (1) EP3333808B1 (ja)
JP (3) JP6422584B2 (ja)
CN (1) CN107851334A (ja)
WO (1) WO2017022291A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020087448A (ja) * 2018-11-30 2020-06-04 サムスン・シー・アンド・ティー・コーポレーション 遊園地で乗り物を稼動する間にイメージを視角化する装置、方法、及びイメージ視角化装置を管理する装置及び方法
WO2023188022A1 (ja) * 2022-03-29 2023-10-05 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置、画像生成方法、及びプログラム

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102598082B1 (ko) * 2016-10-28 2023-11-03 삼성전자주식회사 영상 표시 장치, 모바일 장치 및 그 동작방법
JP6808484B2 (ja) * 2016-12-28 2021-01-06 キヤノン株式会社 画像処理装置および画像処理方法
JP6419278B1 (ja) * 2017-09-19 2018-11-07 キヤノン株式会社 制御装置、制御方法、及びプログラム
JP7300287B2 (ja) * 2019-03-20 2023-06-29 任天堂株式会社 画像表示システム、画像表示プログラム、表示制御装置、および画像表示方法
WO2022220459A1 (en) 2021-04-14 2022-10-20 Samsung Electronics Co., Ltd. Method and electronic device for selective magnification in three dimensional rendering systems
WO2023129182A1 (en) 2021-12-30 2023-07-06 17Live Japan Inc. System, method and computer-readable medium for video processing

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014127968A (ja) * 2012-12-27 2014-07-07 Seiko Epson Corp 表示装置、および、表示装置の制御方法

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US77046A (en) * 1868-04-21 janney
JPH0795498A (ja) * 1993-09-24 1995-04-07 Sony Corp 眼鏡型ディスプレイ
US5742264A (en) * 1995-01-24 1998-04-21 Matsushita Electric Industrial Co., Ltd. Head-mounted display
JP4073533B2 (ja) * 1998-02-09 2008-04-09 株式会社半導体エネルギー研究所 情報処理装置
JP2000267042A (ja) * 1999-03-17 2000-09-29 Fuji Xerox Co Ltd 頭部搭載型映像表示装置
JP2002312117A (ja) * 2001-04-17 2002-10-25 Japan Aviation Electronics Industry Ltd 円筒映像球面映像コントロール装置
US7855743B2 (en) * 2006-09-08 2010-12-21 Sony Corporation Image capturing and displaying apparatus and image capturing and displaying method
JP4961914B2 (ja) * 2006-09-08 2012-06-27 ソニー株式会社 撮像表示装置、撮像表示方法
JP2008096868A (ja) * 2006-10-16 2008-04-24 Sony Corp 撮像表示装置、撮像表示方法
JP5186715B2 (ja) * 2010-06-14 2013-04-24 任天堂株式会社 表示制御プログラム、表示制御装置、表示制御方法、および、表示制御システム
JP5829097B2 (ja) * 2011-10-25 2015-12-09 オリンパス株式会社 頭部装着型表示装置、プログラム及び画像処理システム
CN104781873B (zh) * 2012-11-13 2017-06-06 索尼公司 图像显示装置、图像显示方法、移动装置、图像显示系统
US20140152558A1 (en) * 2012-11-30 2014-06-05 Tom Salter Direct hologram manipulation using imu
US9411160B2 (en) * 2013-02-12 2016-08-09 Seiko Epson Corporation Head mounted display, control method for head mounted display, and image display system
US9658454B2 (en) * 2013-09-06 2017-05-23 Omnivision Technologies, Inc. Eyewear display system providing vision enhancement

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014127968A (ja) * 2012-12-27 2014-07-07 Seiko Epson Corp 表示装置、および、表示装置の制御方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020087448A (ja) * 2018-11-30 2020-06-04 サムスン・シー・アンド・ティー・コーポレーション 遊園地で乗り物を稼動する間にイメージを視角化する装置、方法、及びイメージ視角化装置を管理する装置及び方法
WO2023188022A1 (ja) * 2022-03-29 2023-10-05 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置、画像生成方法、及びプログラム

Also Published As

Publication number Publication date
JP6576536B2 (ja) 2019-09-18
JP2020024417A (ja) 2020-02-13
EP3333808A1 (en) 2018-06-13
EP3333808A4 (en) 2019-04-03
JP6422584B2 (ja) 2018-11-14
JPWO2017022291A1 (ja) 2018-04-19
JP2019040610A (ja) 2019-03-14
CN107851334A (zh) 2018-03-27
JP6899875B2 (ja) 2021-07-07
EP3333808B1 (en) 2021-10-27
US20180359462A1 (en) 2018-12-13

Similar Documents

Publication Publication Date Title
JP6576536B2 (ja) 情報処理装置
EP3379525B1 (en) Image processing device and image generation method
JP6479199B2 (ja) 情報処理装置
JP6339239B2 (ja) 頭部装着型表示装置、及び映像表示システム
US11184597B2 (en) Information processing device, image generation method, and head-mounted display
JP6378781B2 (ja) 頭部装着型表示装置、及び映像表示システム
JP2013258614A (ja) 画像生成装置および画像生成方法
JP2010072477A (ja) 画像表示装置、画像表示方法及びプログラム
JP2017142569A (ja) 仮想空間の画像をヘッドマウントディスプレイに提供する方法及びプログラム
JP6359572B2 (ja) 画像送信装置、情報処理端末、画像送信方法、情報処理方法、プログラム及び情報記憶媒体
JP5602702B2 (ja) 画像処理プログラム、画像処理装置、画像処理システム、および、画像処理方法
JP6649010B2 (ja) 情報処理装置
JP6518645B2 (ja) 情報処理装置および画像生成方法
KR20180055637A (ko) 전자 장치 및 그의 제어 방법
WO2017191703A1 (ja) 画像処理装置
WO2017163649A1 (ja) 画像処理装置
JP6442619B2 (ja) 情報処理装置
CN116342838A (zh) 一种头戴设备及头戴设备中的建图初始化方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16832571

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017532398

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2016832571

Country of ref document: EP