JP2017091433A - Head-mounted display device, method for controlling head-mounted display device, computer program - Google Patents
Head-mounted display device, method for controlling head-mounted display device, computer program Download PDFInfo
- Publication number
- JP2017091433A JP2017091433A JP2015224556A JP2015224556A JP2017091433A JP 2017091433 A JP2017091433 A JP 2017091433A JP 2015224556 A JP2015224556 A JP 2015224556A JP 2015224556 A JP2015224556 A JP 2015224556A JP 2017091433 A JP2017091433 A JP 2017091433A
- Authority
- JP
- Japan
- Prior art keywords
- guidance
- user
- head
- display device
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 164
- 238000004590 computer program Methods 0.000 title claims description 9
- 230000000007 visual effect Effects 0.000 claims abstract description 21
- 230000008569 process Effects 0.000 claims description 70
- 230000033001 locomotion Effects 0.000 claims description 48
- 238000001514 detection method Methods 0.000 claims description 26
- 230000008859 change Effects 0.000 claims description 20
- 238000012545 processing Methods 0.000 description 89
- 238000012986 modification Methods 0.000 description 52
- 230000004048 modification Effects 0.000 description 50
- 230000003190 augmentative effect Effects 0.000 description 44
- 230000003287 optical effect Effects 0.000 description 41
- 239000011521 glass Substances 0.000 description 25
- 230000006870 function Effects 0.000 description 24
- 238000003860 storage Methods 0.000 description 17
- 230000006854 communication Effects 0.000 description 15
- 238000004891 communication Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 14
- 239000007788 liquid Substances 0.000 description 13
- 210000003128 head Anatomy 0.000 description 11
- 230000005540 biological transmission Effects 0.000 description 9
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 239000004973 liquid crystal related substance Substances 0.000 description 4
- 238000003825 pressing Methods 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 230000002123 temporal effect Effects 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 230000007423 decrease Effects 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 230000005236 sound signal Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 210000000988 bone and bone Anatomy 0.000 description 2
- BVKZGUZCCUSVTD-UHFFFAOYSA-N carbonic acid Chemical compound OC(O)=O BVKZGUZCCUSVTD-UHFFFAOYSA-N 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 208000013057 hereditary mucoepithelial dysplasia Diseases 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 235000002673 Dioscorea communis Nutrition 0.000 description 1
- 241000544230 Dioscorea communis Species 0.000 description 1
- 241000196324 Embryophyta Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 241001469893 Oxyzygonectes dovii Species 0.000 description 1
- 208000035753 Periorbital contusion Diseases 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000007175 bidirectional communication Effects 0.000 description 1
- 125000005586 carbonic acid group Chemical group 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000010411 cooking Methods 0.000 description 1
- 239000013256 coordination polymer Substances 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 210000000744 eyelid Anatomy 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 238000002347 injection Methods 0.000 description 1
- 239000007924 injection Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000001681 protective effect Effects 0.000 description 1
- 239000011347 resin Substances 0.000 description 1
- 229920005989 resin Polymers 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 230000004270 retinal projection Effects 0.000 description 1
- 238000009958 sewing Methods 0.000 description 1
- 230000008054 signal transmission Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 238000002834 transmittance Methods 0.000 description 1
Images
Landscapes
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】現実世界の視認性を確保しつつ、現実世界に実在する実オブジェクトに対して利用者の注目を促すことが可能な頭部装着型表示装置を提供する。
【解決手段】利用者が虚像を視認可能な頭部装着型表示装置は、利用者に虚像を視認させる画像表示部と、頭部装着型表示装置を装着した状態における利用者の視界方向の外景画像を取得する画像取得部と、現実世界に実在すると共に、取得された外景画像に含まれる少なくとも1つの実オブジェクトであって、利用者に対して注目を促す実オブジェクトである注目オブジェクトに対する案内を、音により行う案内部と、を備える。
【選択図】図4A head-mounted display device capable of prompting a user to pay attention to a real object that exists in the real world while ensuring visibility in the real world.
A head-mounted display device in which a user can visually recognize a virtual image includes an image display unit that allows the user to visually recognize a virtual image, and an outside scene in a user's visual field direction when the head-mounted display device is mounted. An image acquisition unit that acquires an image, and guidance for a target object that is real in the real world and that is included in the acquired outside scene image and that is a real object that prompts the user to pay attention And a guide unit that performs sound.
[Selection] Figure 4
Description
本発明は、頭部装着型表示装置に関する。 The present invention relates to a head-mounted display device.
利用者の頭部に装着されて使用され、利用者の視野領域に虚像を形成する頭部装着型表示装置が知られている。この頭部装着型表示装置は、ヘッドマウントディスプレイ(HMD:Head Mounted Display)とも呼ばれる。近年、このようなHMDにおいて、現実世界に実在する実オブジェクトに対して利用者の注目を促すために、拡張現実感(AR、Augmented Reality)の技術が利用されている。 2. Description of the Related Art A head-mounted display device that is used by being mounted on a user's head and that forms a virtual image in the user's visual field region is known. This head-mounted display device is also called a head mounted display (HMD). In recent years, in such an HMD, an augmented reality (AR) technology has been used in order to attract the user's attention to a real object that exists in the real world.
HMDにおいてARを実現するために、HMDは、例えばカメラで外景を撮像し、撮像により得られた画像を画像認識し、仮想オブジェクトを生成または取得する。HMDを装着した状態において利用者の視界が遮断されない透過型のHMDでは、仮想オブジェクトを含む虚像のみを利用者に視認させる。利用者は、現実世界の実オブジェクトと、虚像によって表されている仮想オブジェクトと、の両方を見ることで、ARを体感することができる。特許文献1には、HMDにおいて、現実世界に実在する実オブジェクトである作業対象物の位置と、利用者の現在の位置とに応じて、利用者が次に移動すべき方位を表す矢印の画像を表示させる技術が記載されている。
In order to implement AR in the HMD, the HMD captures an outside scene with, for example, a camera, recognizes an image obtained by the imaging, and generates or acquires a virtual object. In a transmissive HMD in which the user's field of vision is not blocked when the HMD is worn, the user is allowed to visually recognize only a virtual image including a virtual object. The user can experience AR by looking at both real objects in the real world and virtual objects represented by virtual images.
HMDの虚像は、利用者の視野領域に形成される。このため、特許文献1に記載された技術では、虚像(画像)として表示される情報の量が増えれば増えるほど、利用者の視野を狭める、換言すれば、現実世界の視認性が低下するという課題があった。このように、現実世界に実在する実オブジェクトに対して利用者の注目を促すためにARを利用する技術には、現実世界の視認性の確保という改善の余地があった。特許文献2に記載された技術では、現実世界に実在する実オブジェクトに対して利用者の注目を促すことについては、何ら考慮されていない。
A virtual image of the HMD is formed in the visual field region of the user. For this reason, in the technique described in
このため、現実世界の視認性を確保しつつ、現実世界に実在する実オブジェクトに対して利用者の注目を促すことが可能な頭部装着型表示装置が望まれていた。 For this reason, a head-mounted display device capable of prompting a user's attention to a real object that exists in the real world while ensuring visibility in the real world has been desired.
本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の形態として実現することが可能である。 SUMMARY An advantage of some aspects of the invention is to solve at least a part of the problems described above, and the invention can be implemented as the following forms.
(1)本発明の一形態によれば、利用者が虚像を視認可能な頭部装着型表示装置が提供される。この頭部装着型表示装置は;前記利用者に前記虚像を視認させる画像表示部と;前記頭部装着型表示装置を装着した状態における前記利用者の視界方向の外景画像を取得する画像取得部と;現実世界に実在すると共に、取得された前記外景画像に含まれる少なくとも1つの実オブジェクトであって、前記利用者に対して注目を促す実オブジェクトである注目オブジェクトに対する案内を、音により行う案内部と、を備える。
この形態の頭部装着型表示装置によれば、案内部は、現実世界に実在すると共に、取得された外景画像に含まれる少なくとも1つの実オブジェクトであって、利用者に対して注目を促す実オブジェクトである注目オブジェクトに対する案内を、音により行うことができる。音を用いた案内は、利用者の視野領域に形成される虚像を用いた案内と比較して、利用者の視野を狭める虞、換言すれば、現実世界の視認性が低下する虞を低くすることができる。この結果、現実世界の視認性を確保しつつ、現実世界に実在する実オブジェクトに対して利用者の注目を促すことが可能な頭部装着型表示装置を提供することができる。
(1) According to one aspect of the present invention, a head-mounted display device in which a user can visually recognize a virtual image is provided. The head-mounted display device includes: an image display unit that allows the user to visually recognize the virtual image; and an image acquisition unit that acquires an outside scene image in the user's visual field direction when the head-mounted display device is mounted. Guidance that uses sound to guide a target object that is real in the real world and that is at least one real object included in the acquired outside scene image, and that is a real object that prompts the user to pay attention A section.
According to the head-mounted display device of this aspect, the guide unit is an actual object that exists in the real world and is at least one real object included in the acquired outside scene image, and that prompts the user to pay attention. Guidance for the object of interest, which is an object, can be performed by sound. Compared with guidance using a virtual image formed in the user's visual field area, the guidance using sound reduces the risk of narrowing the user's visual field, in other words, lowering the visibility of the real world. be able to. As a result, it is possible to provide a head-mounted display device that can prompt the user to pay attention to a real object that actually exists in the real world while ensuring visibility in the real world.
(2)上記形態の頭部装着型表示装置では、さらに;前記頭部装着型表示装置を装着した状態における前記利用者の視線の方向を検出する視線検出部を備え;前記案内部は;前記注目オブジェクトが、検出された前記視線の方向にないと推定される場合は、前記音により前記案内を行い;前記注目オブジェクトが、検出された前記視線の方向にある推定される場合は、前記音に加えてさらに、前記注目オブジェクトに付加的に表示するための仮想オブジェクトを含んだ前記虚像を前記画像表示部に形成させることで、前記案内を行ってもよい。
この形態の頭部装着型表示装置によれば、案内部は、注目オブジェクトが利用者の視線の方向にないと推定される場合は、音により案内を行う。このため、案内部は、視線の方向にない注目オブジェクトに対する案内のために、利用者の視野領域に虚像が形成されることを抑制することができ、現実世界の視認性を確保することができる。一方、案内部は、注目オブジェクトが利用者の視線の方向にあると推定される場合は、音に加えてさらに、注目オブジェクトに付加的に表示するための仮想オブジェクトを含んだ虚像を形成させることで案内を行う。このため、案内部は、視線の方向にある注目オブジェクトに対する案内を、音と、虚像と、の両方の手段を用いて手厚く行うことができる。すなわち、利用者は、自身の視線の方向にある注目オブジェクトについては、視覚と聴覚とを介した案内を享受することができる。これらの結果、現実世界の視認性を確保しつつ、現実世界に実在する実オブジェクトに対して利用者の注目を促すことが可能な頭部装着型表示装置において、さらに、利用者の利便性を向上させることができる。
(2) The head-mounted display device according to the above aspect further includes: a line-of-sight detection unit that detects a direction of the user's line of sight when the head-mounted display device is mounted; If it is estimated that the object of interest is not in the detected direction of the line of sight, the guidance is performed by the sound; if the object of interest is estimated to be in the direction of the detected line of sight, the sound In addition, the guidance may be performed by causing the image display unit to form the virtual image including a virtual object to be additionally displayed on the object of interest.
According to the head-mounted display device of this aspect, the guidance unit performs guidance using sound when it is estimated that the object of interest is not in the direction of the user's line of sight. For this reason, the guide unit can suppress the formation of a virtual image in the visual field region of the user for guiding an object of interest that is not in the direction of the line of sight, and can ensure visibility in the real world. . On the other hand, when it is estimated that the target object is in the direction of the user's line of sight, the guide unit forms a virtual image including a virtual object for additionally displaying the target object in addition to the sound. I will guide you. For this reason, the guide unit can perform guidance for the object of interest in the direction of the line of sight using both sound and virtual images. That is, the user can enjoy guidance through visual and auditory senses for the object of interest in the direction of his / her line of sight. As a result, in the head-mounted display device that can attract the user's attention to the real object that exists in the real world while ensuring the visibility in the real world, the convenience of the user is further improved. Can be improved.
(3)上記形態の頭部装着型表示装置において;前記案内は;前記注目オブジェクトに対する前記利用者の注意喚起のための案内と;前記注目オブジェクトに関する情報の案内と;前記注目オブジェクトの位置に関する案内と;予め用意された手順情報に基づく、前記注目オブジェクトに対する前記利用者の作業内容の案内と;のうちの少なくともいずれか1つを含んでもよい。
この形態の頭部装着型表示装置によれば、案内部による案内を、種々の態様で実現することができる。例えば、注目オブジェクトに対する利用者の注意喚起のための案内を行う場合、案内部は、利用者に対する危険回避のための案内を行うことができる。注目オブジェクトに関する情報の案内を行う場合、案内部は、利用者に対する情報提供のための案内を行うことができる。注目オブジェクトの位置に関する案内を行う場合、案内部は、利用者に対する動作補助のための案内を行うことができる。注目オブジェクトに対する利用者の作業内容の案内を行う場合、案内部は、利用者に対する作業支援のための案内を行うことができる。
(3) In the head-mounted display device of the above aspect; the guidance; guidance for alerting the user to the attention object; guidance of information regarding the attention object; guidance regarding the position of the attention object And at least one of: guidance of the user's work contents for the object of interest based on procedure information prepared in advance.
According to the head-mounted display device of this form, guidance by the guide unit can be realized in various modes. For example, when performing guidance for alerting the user to the attention object, the guidance unit can perform guidance for avoiding danger to the user. When guiding information related to the object of interest, the guiding unit can perform guidance for providing information to the user. When performing guidance regarding the position of the object of interest, the guidance unit can provide guidance for assisting the operation of the user. When guiding the user's work content for the object of interest, the guide unit can provide guidance for work support to the user.
(4)上記形態の頭部装着型表示装置であって、前記案内部は;前記案内として、前記注意喚起と、前記情報と、前記位置と、前記作業内容とのいずれを含むかを、前記利用者からの操作入力に応じて決定する、頭部装着型表示装置。
この形態の頭部装着型表示装置によれば、案内部は、利用者からの操作入力に応じて案内の種類(注意喚起、情報、位置、作業内容)を決定するため、利用者における利便性を向上させることができる。
(4) The head-mounted display device according to the above aspect, wherein the guide unit includes: the alert, the information, the position, and the work content as the guide. A head-mounted display device that is determined according to an operation input from a user.
According to this form of the head-mounted display device, the guidance unit determines the type of guidance (attention, information, position, work content) in accordance with the operation input from the user. Can be improved.
(5)上記形態の頭部装着型表示装置において;前記画像取得部は、前記外景画像を繰り返し取得し;前記案内部は、さらに;取得された複数の前記外景画像をそれぞれ画像認識し;前記複数の外景画像に含まれる実オブジェクトであって、経時的な変化が大きい実オブジェクトを、前記注目オブジェクトとしてもよい。
この形態の頭部装着型表示装置によれば、案内部は、取得された外景画像から自動的に注目オブジェクトを特定することができる。また、案内部は、繰り返し取得された複数の外景画像において、経時的な変化が大きい実オブジェクトを注目オブジェクトとするため、例えば、移動量が大きい、移動速度が速い、等の実オブジェクトを注目オブジェクトとすることができる。このようにして特定された注目オブジェクトは、特に、危険回避のための案内に適している。
(5) In the head-mounted display device of the above aspect; the image acquisition unit repeatedly acquires the outside scene image; the guide unit further recognizes each of the acquired plurality of outside scene images; A real object included in a plurality of outside scene images and having a large change with time may be used as the object of interest.
According to the head-mounted display device of this form, the guide unit can automatically identify the object of interest from the acquired outside scene image. In addition, since the guidance unit sets a real object having a large change over time in a plurality of repeatedly acquired outside scene images as a target object, for example, a real object having a large movement amount or a high movement speed is selected as the target object. It can be. The attention object identified in this way is particularly suitable for guidance for avoiding danger.
(6)上記形態の頭部装着型表示装置において;前記案内部は、さらに;取得された前記外景画像を画像認識し;前記外景画像に含まれる実オブジェクトであって、所定の特徴を有する実オブジェクトを、前記注目オブジェクトとしてもよい。
この形態の頭部装着型表示装置によれば、案内部は、取得された外景画像から自動的に注目オブジェクトを特定することができる。また、案内部は、外景画像において、所定の特徴を有する実オブジェクトを注目オブジェクトとするため、例えば、「所定の特徴」を予め用意しておくことによって、様々な実オブジェクトを注目オブジェクトとすることができる。このようにして特定された注目オブジェクトは、危険回避、情報提供、動作補助、作業支援といった、全てのタイプの案内に適している。
(6) In the head-mounted display device according to the above aspect; the guide unit further recognizes the acquired outside scene image; an actual object included in the outside scene image and has a predetermined feature An object may be the attention object.
According to the head-mounted display device of this form, the guide unit can automatically identify the object of interest from the acquired outside scene image. In addition, in order to make a real object having a predetermined characteristic an attention object in an outside scene image, for example, by preparing a “predetermined characteristic” in advance, various kinds of real objects are set as attention objects. Can do. The target object identified in this way is suitable for all types of guidance such as danger avoidance, information provision, motion assistance, and work support.
(7)上記形態の頭部装着型表示装置では、さらに;前記頭部装着型表示装置を装着した状態における前記利用者の視線の方向を検出する視線検出部を備え;前記画像取得部は、前記外景画像を繰り返し取得し;前記視線検出部は、前記視線の方向を繰り返し検出し;前記案内部は、さらに;取得された複数の前記外景画像と、複数回にわたり検出された前記視線の方向と、を照合し;前記複数の外景画像に含まれる実オブジェクトであって、前記視線の先にある割合が多いと推定される実オブジェクトを、前記注目オブジェクトとしてもよい。
この形態の頭部装着型表示装置によれば、案内部は、取得された外景画像と、検出された視線の方向と、から自動的に注目オブジェクトを特定することができる。また、案内部は、繰り返し取得された複数の外景画像と視線の方向とにおいて、視線の先にある割合が多いと推定される実オブジェクトを注目オブジェクトとするため、例えば、利用者がよく見る実オブジェクトを注目オブジェクトとすることができる。このようにして特定された注目オブジェクトは、特に、情報提供、動作補助、作業支援といったタイプの案内に適している。
(7) In the head-mounted display device according to the above aspect, the head-mounted display device further includes: a line-of-sight detection unit that detects a direction of the user's line of sight in a state in which the head-mounted display device is mounted; The outside scene image is repeatedly acquired; the line-of-sight detection unit repeatedly detects the direction of the line of sight; the guide unit is further: a plurality of the acquired outside scene images and the direction of the line of sight detected multiple times And a real object that is included in the plurality of outside scene images and that is estimated to have a large proportion at the end of the line of sight may be used as the attention object.
According to the head-mounted display device of this form, the guide unit can automatically identify the object of interest from the acquired outside scene image and the detected direction of the line of sight. In addition, since the guide unit uses a real object that is estimated to have a large proportion of the point of the line of sight in a plurality of repeatedly acquired outside scene images and the direction of the line of sight as an attention object, for example, An object can be a target object. The object of interest identified in this way is particularly suitable for types of guidance such as information provision, movement assistance, and work assistance.
(8)上記形態の頭部装着型表示装置では、さらに;前記利用者からの操作入力を取得する入力情報取得部を備え;前記案内部は、さらに;取得された前記外景画像と、取得された前記操作入力と、を照合し;前記外景画像に含まれる実オブジェクトであって、前記利用者により指定された実オブジェクトを、前記注目オブジェクトとしてもよい。
この形態の頭部装着型表示装置によれば、案内部は、取得された外景画像と、取得された操作入力と、から自動的に注目オブジェクトを特定することができる。また、案内部は、利用者により指定された実オブジェクトを注目オブジェクトとするため、利用者による意図を反映して注目オブジェクトを特定することができる。このようにして特定された注目オブジェクトは、危険回避、情報提供、動作補助、作業支援といった、全てのタイプの案内に適している。
(8) The head-mounted display device of the above aspect further includes: an input information acquisition unit that acquires an operation input from the user; and the guide unit is further acquired with the acquired outside scene image. The operation input may be collated; a real object included in the outside scene image and designated by the user may be the attention object.
According to this form of the head-mounted display device, the guide unit can automatically identify the object of interest from the acquired outside scene image and the acquired operation input. In addition, since the guidance unit uses the real object specified by the user as the target object, the target object can be specified reflecting the intention of the user. The target object identified in this way is suitable for all types of guidance such as danger avoidance, information provision, motion assistance, and work support.
(9)上記形態の頭部装着型表示装置であって;前記画像取得部は、前記外景画像を繰り返し取得し;前記入力情報取得部は、繰り返し取得された前記外景画像を画像認識することで前記利用者の身体の一部の動きを取得し;前記案内部は;取得された前記外景画像と、前記操作入力として取得された前記身体の一部の動きと、を照合し;前記外景画像に含まれる実オブジェクトであって、前記身体の一部の動きに基づいて前記利用者により意図された実オブジェクトを、前記注目オブジェクトとする、頭部装着型表示装置。
この形態の頭部装着型表示装置によれば、案内部は、取得された外景画像と、利用者の身体の一部等の動きと、から自動的に注目オブジェクトを特定することができる。このため利用者は、意図する実オブジェクトに対して、例えば、手で囲む、指し示す等の動作をすることによって、直感的に注目オブジェクトを指定することができる。この結果、利用者による意図を反映した注目オブジェクトの特定と、利用者における利便性の向上と、を実現することができる。
(9) The head-mounted display device according to the above aspect; the image acquisition unit repeatedly acquires the outside scene image; and the input information acquisition unit recognizes the repeatedly acquired outside scene image. The movement of the user's body part is acquired; the guide unit is configured to collate the acquired outside scene image with the movement of the body part acquired as the operation input; A head-mounted display device that uses a real object intended by the user based on the movement of a part of the body as the object of interest.
According to the head-mounted display device of this form, the guide unit can automatically identify the object of interest from the acquired outside scene image and the movement of a part of the user's body. For this reason, the user can intuitively specify the object of interest by performing an operation such as surrounding or pointing to the intended real object. As a result, it is possible to identify the attention object reflecting the user's intention and to improve the convenience for the user.
(10)上記形態の頭部装着型表示装置であって;前記案内部は、さらに;前記利用者が前記注目オブジェクトを指定する際の目印となる仮想オブジェクトであって、前記利用者の前記身体の一部の動きに追従させるようにして、位置、大きさ、形状の少なくともいずれか1つを経時的に変更した仮想オブジェクトを含む前記虚像を前記画像表示部に形成させる、頭部装着型表示装置。
この形態の頭部装着型表示装置によれば、案内部は、利用者が注目オブジェクトを指定する際の目印となる仮想オブジェクトを含む虚像を画像表示部に形成させる。このため利用者は、自身の視野内にある複数の実オブジェクトの中から注目オブジェクトとして指定しようとする実オブジェクトがどれであるかを確認しつつ、注目オブジェクトを指定することができる。この結果、利用者における利便性のさらなる向上を実現することができる。
(10) The head-mounted display device according to the above aspect, wherein the guide unit is further a virtual object serving as a mark when the user designates the object of interest, and the body of the user A head-mounted display that causes the image display unit to form the virtual image including a virtual object in which at least one of position, size, and shape is changed over time so as to follow a part of the movement of apparatus.
According to this type of head-mounted display device, the guide unit causes the image display unit to form a virtual image including a virtual object that serves as a mark when the user designates the target object. For this reason, the user can specify the target object while confirming which real object is to be specified as the target object from among the plurality of real objects within his field of view. As a result, it is possible to further improve convenience for the user.
(11)上記形態の頭部装着型表示装置であって;前記入力情報取得部は;前記頭部装着型表示装置に接続されている他の装置から前記操作入力を取得する、頭部装着型表示装置。
この形態の頭部装着型表示装置によれば、案内部は、頭部装着型表示装置に接続されている他の装置から操作入力を取得することができるため、利用者における利便性を向上させることができる。
(11) The head-mounted display device according to the above aspect, wherein the input information acquisition unit is configured to acquire the operation input from another device connected to the head-mounted display device. Display device.
According to the head-mounted display device of this aspect, the guide unit can acquire an operation input from another device connected to the head-mounted display device, thereby improving convenience for the user. be able to.
(12)上記形態の頭部装着型表示装置であって;前記画像表示部は、前記頭部装着型表示装置を操作するための仮想的な操作部を表す前記虚像を形成し;前記画像取得部は、前記外景画像を繰り返し取得し;前記入力情報取得部は;繰り返し取得された前記外景画像を画像認識することで取得した前記利用者の身体の一部の動きと、前記仮想的な操作部内における各部の位置と、を照合することで前記操作入力を取得する、頭部装着型表示装置。
この形態の頭部装着型表示装置によれば、案内部は、頭部装着型表示装置を操作するための仮想的な操作部を用いた操作入力を取得することができるため、利用者における利便性を向上させることができる。
(12) The head-mounted display device according to the above aspect, wherein the image display unit forms the virtual image representing a virtual operation unit for operating the head-mounted display device; The unit repeatedly acquires the outside scene image; the input information acquisition unit; the movement of the part of the user's body acquired by recognizing the repeatedly acquired outside scene image and the virtual operation A head-mounted display device that acquires the operation input by collating with the position of each part in the part.
According to the head-mounted display device of this aspect, the guide unit can acquire an operation input using a virtual operation unit for operating the head-mounted display device. Can be improved.
(13)上記形態の頭部装着型表示装置において;前記画像取得部は、前記外景画像を繰り返し取得し;前記案内部は;取得された複数の前記外景画像内における前記注目オブジェクトの経時的な変化に伴って、前記案内を繰り返し行ってもよい。
この形態の頭部装着型表示装置によれば、案内部は、繰り返し取得された複数の外景画像における注目オブジェクトの経時的な変化に伴って、案内を繰り返し行う。この結果、案内部は、注目オブジェクトの最新の状態に対応した案内を随時行うことができる、換言すれば、案内部は、注目オブジェクトを追跡しつつ案内を行うことができる。
(13) In the head-mounted display device of the above aspect; the image acquisition unit repeatedly acquires the outside scene image; the guide unit; the time-lapse of the object of interest in the plurality of acquired outside scene images The guidance may be repeatedly performed according to the change.
According to this form of the head-mounted display device, the guidance unit repeatedly performs guidance according to the temporal change of the object of interest in the plurality of repeatedly acquired outside scene images. As a result, the guide unit can perform guidance corresponding to the latest state of the target object at any time. In other words, the guide unit can perform guidance while tracking the target object.
(14)上記形態の頭部装着型表示装置であって;前記案内部は、さらに、前記案内のために使用する追加情報を取得する、頭部装着型表示装置。
この形態の頭部装着型表示装置によれば、案内部は、案内のために使用する追加情報を取得することができるため、この追加情報を考慮してより正確に案内を実施することができる。
(14) The head-mounted display device according to the above aspect, wherein the guide unit further acquires additional information used for the guidance.
According to the head-mounted display device of this embodiment, the guide unit can acquire additional information used for guidance, and therefore can perform guidance more accurately in consideration of this additional information. .
上述した本発明の各形態の有する複数の構成要素は全てが必須のものではなく、上述の課題の一部または全部を解決するため、あるいは、本明細書に記載された効果の一部または全部を達成するために、適宜、前記複数の構成要素の一部の構成要素について、その変更、削除、新たな構成要素との差し替え、限定内容の一部削除を行うことが可能である。また、上述の課題の一部または全部を解決するため、あるいは、本明細書に記載された効果の一部または全部を達成するために、上述した本発明の一形態に含まれる技術的特徴の一部または全部を上述した本発明の他の形態に含まれる技術的特徴の一部または全部と組み合わせて、本発明の独立した一形態とすることも可能である。 A plurality of constituent elements of each embodiment of the present invention described above are not essential, and some or all of the effects described in the present specification are to be solved to solve part or all of the above-described problems. In order to achieve the above, it is possible to appropriately change, delete, replace with a new component, and partially delete the limited contents of some of the plurality of components. In order to solve some or all of the above-described problems or achieve some or all of the effects described in this specification, technical features included in one embodiment of the present invention described above. A part or all of the technical features included in the other aspects of the present invention described above may be combined to form an independent form of the present invention.
例えば、本発明の一形態は、画像表示部と、画像取得部と、案内部と、の3つの要素のうちの一部または全部の要素を備えた装置として実現可能である。すなわち、この装置は、画像表示部を有していてもよく、有していなくてもよい。また、この装置は、画像取得部を有していてもよく、有していなくてもよい。また、この装置は、案内部を有していてもよく、有していなくてもよい。こうした装置は、例えば頭部装着型表示装置として実現できるが、頭部装着型表示装置以外の他の装置としても実現可能である。前述した頭部装着型表示装置の各形態の技術的特徴の一部または全部は、いずれもこの装置に適用することが可能である。例えば、本発明の一形態としての装置は、現実世界の視認性を確保しつつ、現実世界に実在する実オブジェクトに対して利用者の注目を促すことを課題としている。しかし、この装置には、他にも、装置の小型化、利便性の向上、装置製造の際の低コスト化、省資源化、製造の容易化、等が望まれている。 For example, one embodiment of the present invention can be realized as an apparatus including some or all of the three elements of the image display unit, the image acquisition unit, and the guide unit. That is, this apparatus may or may not have an image display unit. In addition, this apparatus may or may not have an image acquisition unit. Moreover, this apparatus may have a guide part and does not need to have it. Such a device can be realized, for example, as a head-mounted display device, but can also be realized as a device other than the head-mounted display device. Any or all of the technical features of each form of the head-mounted display device described above can be applied to this device. For example, an apparatus according to an embodiment of the present invention has an object of urging a user to pay attention to a real object that exists in the real world while ensuring visibility in the real world. However, there are other demands for this device such as downsizing of the device, improvement in convenience, cost reduction during device manufacture, resource saving, and ease of manufacture.
なお、本発明は、種々の態様で実現することが可能であり、例えば、頭部装着型表示装置、頭部装着型表示装置の制御方法、頭部装着型表示装置を含むシステム、これらの方法、装置、システムの機能を実現するためのコンピュータープログラム、そのコンピュータープログラムを配布するためのサーバー装置、そのコンピュータープログラムを記憶した記憶媒体等の形態で実現することができる。 The present invention can be realized in various modes. For example, a head-mounted display device, a head-mounted display device control method, a system including a head-mounted display device, and these methods The present invention can be realized in the form of an apparatus, a computer program for realizing the functions of the system, a server apparatus for distributing the computer program, a storage medium storing the computer program, and the like.
A.実施形態:
A−1.頭部装着型表示装置の構成:
図1は、本発明の一実施形態における頭部装着型表示装置の概略構成を示す説明図である。本実施形態の頭部装着型表示装置100は、頭部に装着する表示装置であり、ヘッドマウントディスプレイ(Head Mounted Display、HMD)とも呼ばれる。HMD100は、利用者が、虚像を視認すると同時に外景も直接視認可能な光学透過型のヘッドマウントディスプレイである。
A. Embodiment:
A-1. Configuration of head mounted display device:
FIG. 1 is an explanatory diagram showing a schematic configuration of a head-mounted display device according to an embodiment of the present invention. The head-mounted
本実施形態のHMD100は、後述の案内処理を行うことで、注目オブジェクトに対する案内を「音声のみ」または「音声と拡張現実感(AR、Augmented Reality)処理との組み合わせ」により実施する。具体的には、HMD100は、利用者の視線の方向を検出し、注目オブジェクトが視線の方向にないと推定される場合は、音声のみによる案内を行い、注目オブジェクトが視線の方向にあると推定される場合は音声と拡張現実感処理との組み合わせによる案内を行う。案内処理の詳細は後述する。なお、本実施形態において、「音声」は「音」として機能する。
The
「注目オブジェクト」とは、現実世界に実在するオブジェクトである実オブジェクトの中から特定された少なくとも1つの実オブジェクトであって、利用者に対して注目を促す実オブジェクトを意味する。実オブジェクトとは、任意の人、任意の動植物、任意の物(人工物、自然物等を含む)等を意味する。実オブジェクトは、利用者が関心を寄せている(例えば視線を向けている)オブジェクトである「実関心オブジェクト」と、利用者の関心外の(例えば視界に入っているものの視線を向けていない)オブジェクトである「実背景オブジェクト」との両方を含みうる。すなわち、案内処理は、実関心オブジェクトと、実背景オブジェクトと、の両方を含む実オブジェクトの全体が処理対象となり得る。注目オブジェクトの特定方法は後述する。 The “attention object” means at least one real object identified from real objects that are objects that exist in the real world, and means a real object that prompts the user to pay attention. The real object means an arbitrary person, an arbitrary animal or plant, an arbitrary object (including an artificial object, a natural object, or the like). A real object is an “real object of interest” that is an object that the user is interested in (for example, the line of sight), and is outside the user's interest (for example, the line of sight that is in the field of view). It can include both “real background objects” that are objects. That is, in the guidance process, the entire real object including both the real interest object and the real background object can be processed. A method for specifying the object of interest will be described later.
「拡張現実感処理」とは、実オブジェクトに対して、HMD100により情報を付加する処理である。拡張現実感処理において、実オブジェクトに対して付加的に表示される情報を「仮想オブジェクト」と呼ぶ。「付加的」とは、以下の全てを含む意味である。実オブジェクトと、実オブジェクトに付加的に表示される仮想オブジェクトとは、関連があってもよいし、なくてもよい。
・仮想オブジェクトを用いて実オブジェクトに情報を付加すること。
・仮想オブジェクトを用いて実オブジェクトを強調すること。
・実オブジェクトが持つ情報(色、形等)を、仮想オブジェクトを用いて削除および減衰させること。
・上述した、付加、強調、削除、減衰の任意の2つ以上の組み合わせ。
“Augmented reality processing” is processing for adding information to a real object by the
Add information to real objects using virtual objects.
Emphasize real objects using virtual objects.
-Delete and attenuate information (color, shape, etc.) held by a real object using a virtual object.
Any combination of two or more of addition, emphasis, deletion, and attenuation described above.
HMD100は、利用者の頭部に装着された状態において利用者に虚像を視認させる画像表示部20と、画像表示部20を制御する制御部(コントローラー)10とを備えている。なお、以降の説明において、HMD100によって利用者が視認する虚像を便宜的に「表示画像」とも呼ぶ。また、HMD100が画像データーに基づいて生成された画像光を射出することを「画像を表示する」ともいう。
The
A−1−1.画像表示部の構成:
図2は、HMD100の構成を機能的に示すブロック図である。画像表示部20は、利用者の頭部に装着される装着体であり、本実施形態では眼鏡形状である(図1)。画像表示部20は、右保持部21と、右表示駆動部22と、左保持部23と、左表示駆動部24と、右光学像表示部26と、左光学像表示部28と、カメラ61と、視線検出部62と、マイク63と、9軸センサー66と、を備えている。以降、利用者が画像表示部20を装着した状態における、画像表示部20の各部の位置関係と機能について説明する。
A-1-1. Configuration of image display:
FIG. 2 is a block diagram functionally showing the configuration of the
図1に示すように、右光学像表示部26および左光学像表示部28は、利用者の右の眼前と、左の眼前とにそれぞれ位置するように配置されている。右光学像表示部26の一端と左光学像表示部28の一端とは、利用者の眉間に対応する位置で接続されている。図2に示すように、右光学像表示部26は、右導光板261と、調光板(図示省略)と、を備えている。右導光板261は、光透過性の樹脂材料等によって形成され、右表示駆動部22から出力された画像光を、所定の光路に沿って反射させつつ利用者の右眼REに導く。調光板は、薄板状の光学素子であり、画像表示部20の表側(利用者の眼の側とは反対の側)を覆うように配置されている。調光板は、導光板261を保護し、損傷や汚れの付着等を抑制する。また、調光板の光透過率を調整することによって、利用者の眼に入る外光量を調整して虚像の視認のしやすさを調整することができる。調光板は省略可能である。
As shown in FIG. 1, the right optical
左光学像表示部28は、左導光板262と、調光板(図示省略)とを備えている。これらの詳細は、右光学像表示部26と同様である。右光学像表示部26および左光学像表示部28を総称して単に「光学像表示部」とも呼ぶ。光学像表示部は、画像光を用いて利用者の眼前に虚像を形成する限りにおいて任意の方式を用いることができ、例えば、回折格子を用いて実現されてもよいし、半透過反射膜を用いて実現されてもよい。
The left optical
図1に示すように、右保持部21は、右光学像表示部26の他端ERから利用者の側頭部に対応する位置にかけて延伸して設けられている。左保持部23は、左光学像表示部28の他端ELから利用者の側頭部に対応する位置にかけて、延伸して設けられている。右保持部21および左保持部23は、眼鏡のテンプル(つる)のようにして、利用者の頭部に画像表示部20を保持する。右保持部21および左保持部23を総称して単に「保持部」とも呼ぶ。
As shown in FIG. 1, the
図1に示すように、右表示駆動部22は、右保持部21の内側(利用者の頭部に対向する側)に配置されている。左表示駆動部24は、左保持部23の内側に配置されている。図2に示すように、右表示駆動部22は、受信部(Rx)53と、光源として機能する右バックライト(BL)制御部201および右バックライト(BL)221と、表示素子として機能する右LCD(液晶ディスプレイ、Liquid Crystal Display)制御部211および右LCD241と、右投写光学系251とを備えている。右バックライト制御部201と、右LCD制御部211と、右バックライト221と、右LCD241とを総称して「画像光生成部」とも呼ぶ。
As shown in FIG. 1, the right
受信部53は、制御部10と画像表示部20との間におけるシリアル伝送のためのレシーバーとして機能する。右バックライト制御部201は、入力された制御信号に基づいて右バックライト221を駆動する。右バックライト221は、例えばLED(Light Emitting Diode)やエレクトロルミネセンス(EL)等の発光体である。右LCD制御部211は、受信部53を介して入力されたクロック信号PCLKと、垂直同期信号VSyncと、水平同期信号HSyncと、右眼用の画像データーDataとに基づいて、右LCD241を駆動する。右LCD241は、複数の画素をマトリクス状に配置した透過型液晶パネルである。右投写光学系251は、右LCD241から射出された画像光を並行状態の光束にするコリメートレンズである。
The receiving
左表示駆動部24は、受信部(Rx)54と、光源として機能する左バックライト(BL)制御部202および左バックライト(BL)222と、表示素子として機能する左LCD制御部212および左LCD242と、左投写光学系252とを備えている。これらの詳細は、右表示駆動部22と同様である。右表示駆動部22および左表示駆動部24を総称して単に「表示駆動部」とも呼ぶ。
The left
図1に示すように、カメラ61は、利用者の左右の目尻の上方に対応する位置にそれぞれ配置されているステレオカメラである。左右のカメラ61は、画像表示部20の表側方向、換言すれば、HMD100を装着した状態における利用者の視界方向の外景(外部の景色)をそれぞれ撮像し、左右に対応した2枚の外景画像を取得する。カメラ61はいわゆる可視光カメラであり、カメラ61により取得される外景画像は、物体から放射される可視光から物体の形状を表す画像である。本実施形態におけるカメラ61はステレオカメラであるが、単眼カメラとしてもよい。カメラ61は「画像取得部」として機能する。
As shown in FIG. 1, the
図1に示すように、視線検出部62は、利用者の左右の目尻の下方に対応する位置にそれぞれ配置されている。左右の視線検出部62は、図示しない赤外線発光部と赤外線受光部とをそれぞれ備える。右側の視線検出部62は、赤外線発光部から射出されて、利用者の右眼に当たり反射した赤外線を受光する。制御部10のCPU140は、右側の視線検出部62が受光した赤外線の強さに基づいて、利用者の右眼の視線の動きを取得する。同様に、左側の視線検出部62は、赤外線発光部から射出されて、利用者の左眼に当たり反射した赤外線を受光する。CPU140は、左側の視線検出部62が受光した赤外線の強さに基づいて、利用者の左眼の視線を検出する。赤外線の反射率は、赤外線が虹彩(黒目)に当たった場合と、赤外線がまぶたに当たった場合と、赤外線が白目に当たった場合と、でそれぞれ異なる。このため、CPU140は、視線検出部62が受光した赤外線の強さによって、利用者の視線の動きを取得することができる。この場合、視線検出部62とCPU140とは、利用者の視線の方向を検出する「視線検出部」として機能する。本実施形態における視線検出部62は左右それぞれに設けられるとしたが、左右いずれか一方でもよい。
As shown in FIG. 1, the line-of-
図1に示すように、マイク63は、利用者の鼻の上方に対応する位置に配置されているマイクである。マイク63は、外部の音声を取得する。「音声」とは、人の声のみでなく、機械音等を含む広義の音を意味する。
As shown in FIG. 1, the
図1に示すように、9軸センサー66は、利用者の右側のこめかみに対応する位置に配置されている。9軸センサー66は、加速度(3軸)、角速度(3軸)、地磁気(3軸)を検出するモーションセンサーである。9軸センサー66は、画像表示部20に設けられているため、画像表示部20が利用者の頭部に装着されているときには、ヘッドマウントディスプレイ100の利用者の頭部の動きを検出する動き検出部として機能する。ここで、頭部の動きとは、頭部の速度・加速度・角速度・向き・向きの変化を含む。
As shown in FIG. 1, the 9-
図1に示すように、画像表示部20は、画像表示部20と制御部10とを接続するための接続部40を備えている。接続部40は、制御部10に接続される本体コード48と、本体コード48が分岐した右コード42および左コード44と、分岐点に設けられた連結部材46と、を含んでいる。連結部材46には、イヤホンプラグ30を接続するためのジャックが設けられている。イヤホンプラグ30からは、右イヤホン32および左イヤホン34が延伸している。画像表示部20と制御部10とは、接続部40を介して各種信号の伝送を行う。接続部40の各コードには、例えば、金属ケーブルや光ファイバーを採用することができる。
As shown in FIG. 1, the
A−1−2.制御部の構成:
制御部10はHMD100を制御するための装置である。図1に示すように、制御部10は、決定キー11と、点灯部12と、表示切替キー13と、トラックパッド14と、輝度切替キー15と、方向キー16と、メニューキー17と、電源スイッチ18と、を備えている。決定キー11は、押下操作を検出して、制御部10において操作された内容を決定するための信号を出力する。点灯部12は、例えばLEDによって実現され、HMD100の動作状態(例えば電源のON/OFF等)を発光状態によって通知する。表示切替キー13は、押下操作を検出して、例えばコンテンツ動画の表示モードを3Dと2Dとに切り替える信号を出力する。
A-1-2. Configuration of control unit:
The
トラックパッド14は、トラックパッド14の操作面上における利用者の指の操作を検出して、検出内容に応じた信号を出力する。トラックパッド14としては、静電式や圧力検出式、光学式といった種々の方式を採用できる。輝度切替キー15は、押下操作を検出して、画像表示部20の輝度を増減する信号を出力する。方向キー16は、上下左右方向に対応するキーへの押下操作を検出して、検出内容に応じた信号を出力する。電源スイッチ18は、スイッチのスライド操作を検出することで、HMD100の電源投入状態を切り替える。
The
図2に示すように、制御部10は、入力情報取得部110と、記憶部120と、電源130と、無線通信部132と、GPSモジュール134と、CPU140と、インターフェイス180と、送信部(Tx)51および52とを備え、各部は図示しないバスにより相互に接続されている。
2, the
入力情報取得部110は、決定キー11、表示切替キー13、トラックパッド14、輝度切替キー15、方向キー16、メニューキー17、および、電源スイッチ18に対する操作入力に応じた信号を取得する。入力情報取得部110は、上記以外の種々の方法を用いた操作入力を取得することができる。例えば、カメラ61を用いて利用者のジェスチャーを検知し、ジェスチャーに対応付けられたコマンドによる操作入力を取得してもよい。ジェスチャー検知の際は、利用者の指先や、利用者の手に付けられた指輪や、利用者の手にする医療器具等を動き検出のための目印にすることができる。例えば、視線検出部62によって検出された利用者の視線や、目の動きに対応付けられたコマンドによる操作入力を取得してもよい。このコマンドは利用者によって追加可能に設定されていてもよい。例えば、マイク63によって取得された音声を音声認識することによる操作入力を取得してもよい。例えば、図示しないフットスイッチ(利用者の足により操作するスイッチ)による操作入力を取得してもよい。これらの方法による操作入力を取得可能とすれば、利用者が手を離すことが困難である作業においても、入力情報取得部110は、利用者からの操作入力を取得することができる。
The input
記憶部120は、ROM、RAM、DRAM、ハードディスク等によって構成されている。記憶部120には、オペレーティングシステム(ОS)をはじめとする種々のコンピュータープログラムが格納されている。また、記憶部120には、案内用情報122と、案内モード124と、が記憶されている。案内用情報122は、案内処理において用いられる情報である。詳細は後述する。
The
案内モード124は、案内処理における案内の方法を指定するための情報である。案内処理における案内の方法には「追尾ありモード」と、「追尾なしモード」とがある。追尾なしモードでは、案内部144は、注目オブジェクトに対する案内を1度だけ実施する。追尾ありモードでは、案内部144は、注目オブジェクトの経時的な変化に伴って、注目オブジェクトに対する案内を繰り返し実施する。案内モード124には、追尾なしモード、追尾ありモードのいずれか一方を表す情報が記憶されている。利用者は、案内モード124の内容を、入力情報取得部110による操作入力によって変更することができる。
The
電源130は、HMD100の各部に電力を供給する。電源130としては、例えば二次電池を用いることができる。無線通信部132は、所定の無線通信規格に則って、外部装置との間で無線通信を行う。所定の無線通信規格とは、例えば、赤外線、Bluetooth(登録商標)に例示される近距離無線通信、IEEE802.11に例示される無線LAN等である。GPSモジュール134は、GPS衛星からの信号を受信することにより、HMD100の利用者の現在位置を検出し、利用者の現在位置情報を表す現在位置情報を生成する。現在位置情報は、例えば緯度経度を表す座標によって実現することができる。
The
CPU140は、記憶部120に格納されているコンピュータープログラムを読み出して実行することにより、拡張現実感処理部142、案内部144、オペレーティングシステム(OS)150、画像処理部160、音声処理部170、表示制御部190として機能する。
The
拡張現実感処理部142は、案内処理において「音声と拡張現実感処理との組み合わせ」による案内を行う場合に、拡張現実感処理を実行する。拡張現実感処理において拡張現実感処理部142は、注目オブジェクト(実オブジェクト)に対して、仮想オブジェクトを付加して表示させる。詳細は後述する。案内部144は、案内処理を実行することで、注目オブジェクトに対する案内を「音声のみ」または「音声と拡張現実感処理との組み合わせ」により実施する。詳細は後述する。
The augmented
画像処理部160は、画像表示のための信号処理を行う。具体的には、画像処理部160は、インターフェイス180や無線通信部132を介してコンテンツ(映像)が入力されている場合、コンテンツに基づく画像データーDataを生成する。画像処理部160は、HMD100の他の機能部から画像データーを受信した場合、受信したデーターを画像データーDataとする。画像処理部160は、画像データーDataに対して、解像度変換処理、輝度や彩度の調整といった種々の色調補正処理、キーストーン補正処理等の画像処理を実行してもよい。画像処理部160は、上述の画像データーDataと、クロック信号PCLKと、垂直同期信号VSyncと、水平同期信号HSyncと、を、送信部51、52を介して、画像表示部20へ送信する。送信部51を介して送信される画像データーDataを「右眼用画像データーData1」とも呼び、送信部52を介して送信される画像データーDataを「左眼用画像データーData2」とも呼ぶ。
The
表示制御部190は、右表示駆動部22および左表示駆動部24を制御する制御信号を生成する。具体的には、表示制御部190は、制御信号により、左右のLCD制御部211、212による左右のLCD241、242の駆動ON/OFFや、左右のバックライト制御部201、202による左右のバックライト221、222の駆動ON/OFFを個別に制御することにより、右表示駆動部22および左表示駆動部24のそれぞれによる画像光の生成および射出を制御する。表示制御部190は、これらの制御信号を、送信部51、52を介して画像表示部20へ送信する。
The
音声処理部170は、コンテンツに含まれる音声信号を取得し、取得した音声信号を増幅して、右イヤホン32の図示しないスピーカーと、左イヤホン34の図示しないスピーカーとに対して供給する。
The
インターフェイス180は、所定の有線通信規格に則って、外部装置OAとの間で通信を行う。所定の有線通信規格としては、例えば、MicroUSB(Universal Serial Bus)、USB、HDMI(High Definition Multimedia Interface、HDMIは登録商標)、DVI(Digital Visual Interface)、VGA(Video Graphics Array)、コンポジット、RS−232C(Recommended Standard 232)、IEEE802.3に例示される有線LAN等である。外部機器ОAとしては、例えば、パーソナルコンピューターPCや携帯電話端末、ゲーム端末等を利用することができる。
The
図3は、利用者に視認される虚像の一例を示す説明図である。図3(A)は、拡張現実感処理を実行していない場合の利用者の視野VRを例示している。上述のようにして、HMD100の利用者の両眼に導かれた画像光が利用者の網膜に結像することにより、利用者は虚像VIを視認する。図3(A)の例では、虚像VIは、HMD100のOS150の待ち受け画面である。利用者は、右光学像表示部26および左光学像表示部28を透過して外景SCを視認する。このように、本実施形態のHMD100の利用者は、視野VRのうち虚像VIが表示された部分については、虚像VIと、虚像VIの背後に外景SCとを見ることができる。また、視野VRのうち虚像VIが表示されていない部分については、光学像表示部を透過して、外景SCを直接見ることができる。
FIG. 3 is an explanatory diagram illustrating an example of a virtual image visually recognized by the user. FIG. 3A illustrates the user's visual field VR when the augmented reality processing is not executed. As described above, the image light guided to both eyes of the user of the
図3(B)は、拡張現実感処理を実行している場合の利用者の視野VRを例示している。拡張現実感処理を実行することによって、利用者は、仮想オブジェクトVOを含んだ虚像VIを視認する。仮想オブジェクトVOは、外景SCの山の麓に重畳するように配置されたリンゴの画像である。このように、利用者は、虚像VIに含まれる仮想オブジェクトVOと、虚像VIの背後に透過して見える外景SC内の実オブジェクトと、の両方を見ることで、拡張現実感を体感することができる。 FIG. 3B illustrates the visual field VR of the user when the augmented reality process is executed. By executing the augmented reality process, the user visually recognizes the virtual image VI including the virtual object VO. The virtual object VO is an image of an apple arranged so as to be superimposed on the foot of the mountain of the outside scene SC. In this way, the user can experience augmented reality by seeing both the virtual object VO included in the virtual image VI and the real object in the outside scene SC that can be seen behind the virtual image VI. it can.
A−2.案内処理:
図4は、案内処理の手順を示すフローチャートである。案内処理は、注目オブジェクトに対する案内を「音声のみ」または「音声と拡張現実感処理との組み合わせ」により実施する処理である。案内処理の開始トリガーは任意に定めることができる。例えば、HMD100の電源ONを開始トリガーとしてもよく、HMD100のOS150や特定のアプリケーションからの処理開始要求を開始トリガーとしてもよい。
A-2. Guidance process:
FIG. 4 is a flowchart showing the procedure of the guidance process. The guidance process is a process for performing guidance for the object of interest by “voice only” or “a combination of voice and augmented reality processing”. The start trigger of the guidance process can be arbitrarily determined. For example, a power ON of the
ステップS102において案内部144は、カメラ61に外景画像を取得させる。
In step S102, the
ステップS104において案内部144は、ステップS102で取得された外景画像に含まれる実オブジェクトの中から、少なくとも1つの実オブジェクトを、利用者に対して注目を促すべき注目オブジェクトとして特定する。具体的には、案内部144は、次に示すa1〜a4のいずれかの方法を用いて、注目オブジェクトを特定する。方法a1〜a4は、単独で用いてもよく、組み合わせて用いてもよい。
In step S104, the
(a1)実オブジェクトの経時的な変化を利用する方法:
・案内部144は、ステップS102において取得された外景画像を画像認識して、予め記憶部120等に記憶されている様々なオブジェクト(例えば、グラス、ボトル、人体、車、木等)のモデルと、パターンマッチングや統計的識別法による比較を行うことで、外景画像に含まれる全ての実オブジェクトを認識する(手順a11)。手順a11では、全ての実オブジェクトを認識することに代えて、主要な実オブジェクトのみを認識してもよい。手順a11では、外景画像を複数の領域に分けて画像認識してもよい。複数の領域とは、例えば、外景画像を水平方向および鉛直方向にそれぞれ2等分した4つの領域であってもよいし、外景画像を水平方向および鉛直方向にそれぞれ3等分した9つの領域であってもよい。
・案内部144は、外景画像の取得(ステップS102)と、取得された最新の外景画像に対する実オブジェクトの認識(手順a11)と、を複数回繰り返す(手順a12)。
・案内部144は、手順a12の結果から、繰り返し取得された複数の外景画像において、経時的な変化が大きい実オブジェクトを、注目オブジェクトとして特定する(手順a13)。経時的な変化が大きいとは、経時的な移動量が大きい場合と、経時的な移動速度が速い場合と、の両方を含む。ここで特定される注目オブジェクトの数は、1つでもいいし、複数でもいい。
(A1) A method of using the change over time of a real object:
The
The guiding
From the result of step a12, the
方法a1によれば、案内部144は、取得された外景画像から自動的に注目オブジェクトを特定することができる。また、案内部144は、繰り返し取得された複数の外景画像において、経時的な変化が大きい実オブジェクトを注目オブジェクトとするため、例えば、移動量が大きい、移動速度が速い、等の実オブジェクトを注目オブジェクトとすることができる。このようにして特定された注目オブジェクトは、特に、危険回避のための案内に適している。
According to the method a1, the
(a2)実オブジェクトの特徴を利用する方法:
・案内部144は、ステップS102において取得された外景画像を画像認識して、予め記憶部120等に記憶されている特徴(例えば、色の特徴、形の特徴、大きさの特徴等。この特徴は「所定の特徴」として機能する。)と、パターンマッチングや統計的識別法による比較を行う(手順a21)。
・案内部144は、外景画像において、手順a21の比較の結果が一致した実オブジェクトを、注目オブジェクトとして特定する(手順a22)。ここで特定される注目オブジェクトの数は、1つでもいいし、複数でもいい。
(A2) Method of using features of real object:
The
The
方法a2によれば、案内部144は、取得された外景画像から自動的に注目オブジェクトを特定することができる。また、案内部144は、外景画像において、所定の特徴を有する実オブジェクトを注目オブジェクトとするため、例えば、上述のように「所定の特徴」を予め用意しておくことによって、様々な実オブジェクトを注目オブジェクトとすることができる。このようにして特定された注目オブジェクトは、危険回避、情報提供、動作補助、作業支援といった、全てのタイプの案内に適している。
According to the method a2, the
(a3)利用者の視線を利用する方法:
・案内部144は、ステップS102において取得された外景画像を画像認識して、外景画像に含まれる全て(または主要な)実オブジェクトを認識する(手順a31)。詳細は手順a11と同様である。
・案内部144は、視線検出部62に利用者の視線の方向を検出させる。案内部144は、手順a31で認識された実オブジェクトと、検出された視線の方向と、を照合し、視線の方向の先にあると推定される実オブジェクトを抽出する(手順a32)。
・案内部144は、外景画像の取得(ステップS102)と、取得された最新の外景画像に対する実オブジェクトの認識(手順a31)と、視線の方向の先にあると推定される実オブジェクトの抽出(手順a32)と、を複数回繰り返す(手順a33)。
・案内部144は、手順a33の結果から、繰り返し取得された複数の外景画像と視線の方向とにおいて、視線の方向の先にある割合が多いと推定される実オブジェクトを、注目オブジェクトとして特定する(手順a34)。ここで特定される注目オブジェクトの数は、1つでもいいし、複数でもいい。
(A3) Method of using the user's line of sight:
The
The
The
The
方法a3によれば、案内部144は、取得された外景画像と、検出された視線の方向と、から自動的に注目オブジェクトを特定することができる。また、案内部144は、繰り返し取得された複数の外景画像と視線の方向とにおいて、視線の先にある割合が多いと推定される実オブジェクトを注目オブジェクトとするため、例えば、利用者がよく見る実オブジェクトを注目オブジェクトとすることができる。このようにして特定された注目オブジェクトは、特に、情報提供、動作補助、作業支援といったタイプの案内に適している。
According to the method a3, the
(a4)利用者の指定を利用する方法:
・案内部144は、ステップS102において取得された外景画像を画像認識して、外景画像に含まれる全て(または主要な)実オブジェクトを認識する(手順a41)。詳細は手順a11と同様である。
・案内部144は、入力情報取得部110により取得された利用者からの操作入力を取得する。案内部144は、手順a41で認識された実オブジェクトと、取得された操作入力と、を照合し、利用者により指定された実オブジェクトを、注目オブジェクトとして特定する(手順a42)。ここで特定される注目オブジェクトの数は、1つでもいいし、複数でもいい。上述の通り、入力情報取得部110を介した利用者からの操作入力は、例えば、ジェスチャーを用いた入力であってもよく、目の動きを用いた入力であってもよく、音声を用いた入力であってもよく、フットスイッチを用いた入力であってもよい。
(A4) Method of using user designation:
The
The
方法a4によれば、案内部144は、取得された外景画像と、取得された操作入力と、から自動的に注目オブジェクトを特定することができる。また、案内部144は、利用者により指定された実オブジェクトを注目オブジェクトとするため、利用者による意図を反映して注目オブジェクトを特定することができる。このようにして特定された注目オブジェクトは、危険回避、情報提供、動作補助、作業支援といった、全てのタイプの案内に適している。
According to the method a4, the
図4のステップS106において案内部144は、ステップS104で特定された注目オブジェクトに対して、利用者に案内すべき内容(以降「案内内容」とも呼ぶ。)を取得する。具体的には、案内部144は、注目オブジェクトの名称、特徴、モデル等を用いて案内用情報122を検索することで、案内内容を取得する。
In step S106 in FIG. 4, the
図5は、案内用情報122の一例を示す図である。案内用情報122は、オブジェクト1と、オブジェクト2と、案内内容と、を含んでいる。
FIG. 5 is a diagram illustrating an example of the
「オブジェクト1」および「オブジェクト2」には、注目オブジェクトの名称、特徴、モデル等を用いた照合のための情報が記憶されている。図5の例では、オブジェクト1およびオブジェクト2には、注目オブジェクトの名称が記憶されている。このため、図5に例示した案内用情報122を用いる場合、案内処理のステップS106(図4)では、注目オブジェクトの名称を用いた検索が実施される。案内処理のステップS106において注目オブジェクトの特徴を用いた検索が実施される場合、オブジェクト1およびオブジェクト2には、注目オブジェクトの特徴を表す情報が記憶される。案内処理のステップS106において注目オブジェクトのモデルを用いた検索が実施される場合、オブジェクト1およびオブジェクト2には、注目オブジェクトのモデルを表す情報が記憶される。
In “
「案内内容」には、利用者に案内すべき内容を表す情報が記憶されている。図5の例では、案内内容には、利用者に案内すべき内容を表す文字列が1つまたは2つ記憶されている。図5において、文字列の末尾に「(*)」表記がないものは、追尾なしモードでの案内と、追尾ありモードでの案内と、の両方で使用される案内情報を表す。文字列の末尾に「(*)」表記があるものは、追尾ありモードでの案内にのみ使用される案内情報を表す。案内内容は、例示したように文字列で記憶されていてもよく、図形や画像により記憶されていてもよく、案内部144において実行されるプログラムデーターにより記憶されていてもよい。
In “Guidance contents”, information representing contents to be guided to the user is stored. In the example of FIG. 5, the guidance content stores one or two character strings representing the content to be guided to the user. In FIG. 5, a character string without “(*)” notation at the end of the character string represents guidance information used in both the guidance in the mode without tracking and the guidance in the mode with tracking. What has the notation “(*)” at the end of the character string represents guidance information used only for guidance in the tracking mode. The guidance content may be stored as a character string as illustrated, may be stored as a graphic or an image, or may be stored as program data executed in the
「案内内容」には、次に示すb1〜b4の情報を含み得る。
(b1)注目オブジェクトに対する利用者の注意喚起のための案内:情報b1によれば、案内部144は、利用者に対する危険回避のための案内を実施できる。
(b2)注目オブジェクトに関する情報の案内:情報b2によれば、案内部144は、利用者に対する情報提供のための案内を実施できる。
(b3)注目オブジェクトの位置に関する案内:情報b3によれば、案内部144は、利用者に対する動作補助のための案内を実施できる。
(b4)注目オブジェクトに対する利用者の作業内容の案内:情報b4によれば、案内部144は、利用者に対する作業支援のための案内を実施できる。
The “guidance content” may include the following information b1 to b4.
(B1) Guidance for alerting the user to the object of interest: According to the information b1, the
(B2) Information guidance on the object of interest: According to the information b2, the
(B3) Guidance on the position of the object of interest: According to the information b3, the guiding
(B4) User's work content guidance for the object of interest: According to the information b4, the
具体的には、図5のエントリーE1の例では、オブジェクト1が「ボトル」であり、オブジェクト2が「グラス」である場合に、追尾なしモードと追尾ありモードの両方において「ボトルの口をグラスの中央に案内(情報b3に相当)」することと、追尾ありモードにおいて「グラス内の液体の量を案内(情報b2に相当)」することが記憶されている。また、エントリーE5の例では、オブジェクト1が「車」である場合に、追尾なしモードと追尾ありモードの両方において「車に対する注意喚起の案内(情報b1に相当)」をすることと、追尾ありモードにおいて「車との距離を案内(情報b2に相当)」することが記憶されている。このように、オブジェクト2にはデーターが格納されていなくてもよい。
Specifically, in the example of the entry E1 in FIG. 5, when the
図4のステップS108において案内部144は、視線検出部62に利用者の視線の方向を検出させる。
In step S108 in FIG. 4, the
ステップS110において案内部144は、ステップS104で特定された注目オブジェクトの外景画像内における位置と、検出された視線の方向と、を照合し、注目オブジェクトが視線の方向にあるか否かを推定する。
In step S110, the
注目オブジェクトが視線の方向にないと推定した場合(ステップS110:視線の方向になし)、ステップS112において案内部144は、ステップS106で取得された案内内容に基づく案内を、音声のみによって実施する。具体的には、案内部144は、案内のための音声データーを生成または取得し、音声処理部170へ送信する。音声処理部170は、受信した音声データーに基づく音声を、右イヤホン32内のスピーカーと左イヤホン34内のスピーカーとから出力させる。
When it is estimated that the object of interest is not in the line of sight (step S110: no line of sight), in step S112, the
注目オブジェクトが視線の方向にあると推定した場合(ステップS110:視線の方向にあり)、ステップS114において案内部144は、ステップS106で取得された案内内容に基づく案内を、音声と拡張現実感処理との組み合わせによって実施する。音声による案内の具体的な方法は、ステップS112と同様である。拡張現実感処理による案内の具体的な方法は、次の手順c1〜c5に示す通りである。
When it is estimated that the object of interest is in the direction of the line of sight (step S110: in the direction of the line of sight), in step S114, the
(c1)案内部144は、ステップS104で特定された注目オブジェクトを特定するための情報(注目オブジェクトの名称、特徴、モデル等)と、ステップS106で取得された案内内容と、を拡張現実感処理部142へ送信する。
(C1) The
(c2)拡張現実感処理部142は、カメラ61に外景画像を取得させる。拡張現実感処理部142は、手順c1で取得した注目オブジェクトを特定するための情報を用いて、取得された外景画像内における注目オブジェクトの位置を取得する。「位置」とは、利用者からの距離、および、利用者の視界内における水平方向および鉛直方向の位置を含む。この際、拡張現実感処理部142は、ステレオカメラであるカメラ61によって取得された2枚以上の外景画像を用いて、注目オブジェクトの位置を算出してもよい。また、拡張現実感処理部142は、カメラ61により取得された1枚以上の外景画像と、図示しない各種のセンサー(例えば、深度センサー、測距センサー等)とを併用して、注目オブジェクトの位置を算出してもよい。
(C2) The augmented
(c3)拡張現実感処理部142は、手順c1で取得した案内内容のうち、末尾に「(*)」表記がないものの内容に応じて、注目オブジェクトに付加的に表示するための仮想オブジェクトを表す画像、文字、図形記号等を取得または生成する。仮想オブジェクトを表す画像、文字、図形記号等の一例は、例えば、矢印、線、スケール、目盛り、ポインター、ショートカット、メニュー、ラジオボタン、選択ボタン、ソフトキーボード等である。拡張現実感処理部142は、記憶部120に予め記憶された仮想オブジェクトを取得してもよいし、HMD100にネットワーク接続されている他の装置に予め記憶された仮想オブジェクトを取得してもよい。
(C3) The augmented
(c4)拡張現実感処理部142は、手順c2で取得した注目オブジェクトの位置に合わせて、手順c3で取得または生成した仮想オブジェクトを配置し、他の部分に黒色を配置した付加画像データーを生成する。位置合わせの際、拡張現実感処理部142は、注目オブジェクトの特徴部(エッジ等)を利用してもよいし、注目オブジェクトに付されたマーカー等の目印を利用してもよい。位置合わせの際、拡張現実感処理部142は、予め記憶部120に記憶されている注目オブジェクトのモデル(または画像)を用いた画像認識を利用してもよい。位置合わせの際、拡張現実感処理部142は、利用者による指示に基づいてもよい。また、拡張現実感処理部142は、仮想オブジェクトを配置する際に、仮想オブジェクトに対して拡大、縮小、回転、色変換等の画像処理を施してもよい。
(C4) The augmented
(c5)拡張現実感処理部142は、生成した付加画像データーに基づく画像を、画像処理部160へ送信し、画像表示部20の光学像表示部26、28に表示させる。
(C5) The augmented
図4のステップS112またはステップS114が終了した後、案内部144は、案内モード124に記憶されている内容を取得する。案内モード124の内容が「追尾なしモード」である場合、案内部144は、案内処理を終了させる。案内モード124の内容が「追尾ありモード」である場合、案内部144は、任意の所定時間待機した後、ステップS102の処理と、ステップS108〜S114の処理と、を繰り返す。2回目以降のステップS108〜S114の処理において、案内部144は、1回目のステップS104で特定された注目オブジェクトと、1回目のステップS106で取得された案内内容のうち、末尾に「(*)」表記があるものの内容と、を利用する。すなわち、2回目以降、ステップS104と、ステップS106とは実行されない。
After step S112 or step S114 in FIG. 4 is completed, the
A−3.案内処理の具体例:
A−3−1.第1の具体例:
図6〜8は、案内処理の第1の具体例について説明する図である。第1の具体例では、利用者がボトルからグラスに対して液体を注ごうとしている場面での案内処理について説明する。第1の具体例は、動作補助および情報提供の一例である。案内処理(図4)のステップS102において案内部144は、外景画像を取得する。図6は、ステップS102において取得された外景画像の一例である。外景画像IM1には、実オブジェクトであるOB11〜OB13が含まれている。
A-3. Specific examples of guidance processing:
A-3-1. First specific example:
6-8 is a figure explaining the 1st specific example of a guidance process. In the first specific example, a description will be given of guidance processing in a scene where a user is pouring liquid from a bottle to a glass. The first specific example is an example of operation assistance and information provision. In step S102 of the guidance process (FIG. 4), the
案内処理のステップS104において案内部144は、実オブジェクトOB11〜OB13から、上述した方法a1〜a4のいずれかを用いて、注目オブジェクトを特定する。例えば、グラスOB12と、ボトルOB11とが、注目オブジェクトとして特定されたとする。案内処理のステップS106において案内部144は、グラスOB12とボトルOB11とを用いて、案内用情報122を検索し、エントリーE1の案内内容「ボトルの口をグラスの中央に案内」と「グラス内の液体の量を案内(*)」とを取得する。
In step S104 of the guidance process, the
案内処理のステップS108において案内部144は、利用者の視線の方向を検出する。グラスOB12とボトルOB11との両方が視線の方向にない場合(ステップS110:視線の方向になし)、ステップS112において案内部144は、ステップS106で取得された案内内容「ボトルの口をグラスの中央に案内」に基づく案内を、音声のみによって実施する。この結果、左右イヤホン32、34内のスピーカーからは「ボトルの口を左に移動させてください」という案内音声SO11(図7)のみが再生され、仮想オブジェクトVO11を含む虚像VIは表示されない。
In step S108 of the guidance process, the
グラスOB12とボトルOB11との少なくともいずれか一方が視線の方向にある場合(ステップS110:視線の方向にあり)、ステップS114において案内部144は、ステップS106で取得された案内内容「ボトルの口をグラスの中央に案内」に基づく案内を、音声と拡張現実感処理との組み合わせによって実施する。この結果、図7に示すように、左右イヤホン32、34内のスピーカーからは「ボトルの口を左に移動させてください」という案内音声SO11が再生されると共に、グラスOB12の中心線を表した仮想オブジェクトVO11を含む虚像VIが表示される。
When at least one of the glass OB12 and the bottle OB11 is in the direction of the line of sight (step S110: in the direction of the line of sight), the
案内モード124に記憶されている内容が「追尾なしモード」である場合、案内部144は、以上により処理を終了させる。案内モード124に記憶されている内容が「追尾ありモード」である場合、案内部144は、所定時間待機する。2回目の案内処理のステップS102において案内部144は、外景画像を取得する。
When the content stored in the
2回目の案内処理のステップS108において案内部144は、利用者の視線の方向を検出する。グラスOB12とボトルOB11との両方が視線の方向にない場合(ステップS110:視線の方向になし)、2回目のステップS112において案内部144は、ステップS106で取得された案内内容「グラス内の液体の量を案内(*)」に基づく案内を、音声のみによって実施する。この結果、左右イヤホン32、34内のスピーカーからは「もうすぐ満水です」という案内音声SO12(図8)のみが再生され、仮想オブジェクトVO12を含む虚像VIは形成されない。
In step S108 of the second guidance process, the
グラスOB12とボトルOB11との少なくともいずれか一方が視線の方向にある場合(ステップS110:視線の方向にあり)、2回目のステップS114において案内部144は、ステップS106で取得された案内内容「グラス内の液体の量を案内(*)」に基づく案内を、音声と拡張現実感処理との組み合わせによって実施する。この結果、図8に示すように、左右イヤホン32、34内のスピーカーからは「もうすぐ満水です」という案内音声SO12が再生されると共に、グラスOB12の中心線を表した仮想オブジェクトVO11と、現在の液体量を矢印で示した仮想オブジェクトVO12と、を含む虚像VIが表示される。
When at least one of the glass OB12 and the bottle OB11 is in the direction of the line of sight (step S110: in the direction of the line of sight), in the second step S114, the
A−3−2.第2の具体例:
図9〜11は、案内処理の第2の具体例について説明する図である。第2の具体例では、利用者が車を運転している場面での案内処理について説明する。第2の具体例は、危険回避および情報提供の一例である。案内処理(図4)のステップS102において案内部144は、外景画像を取得する。図9は、ステップS102において取得された外景画像の一例である。外景画像IM2には、実オブジェクトであるOB21〜OB26が含まれている。
A-3-2. Second specific example:
FIGS. 9-11 is a figure explaining the 2nd specific example of a guidance process. In the second specific example, guidance processing in a scene where the user is driving a car will be described. The second specific example is an example of danger avoidance and information provision. In step S102 of the guidance process (FIG. 4), the
案内処理のステップS104において案内部144は、実オブジェクトOB21〜OB26から、上述した方法a1〜a4のいずれかを用いて、注目オブジェクトを特定する。例えば、看板OB21と、車OB23とが、注目オブジェクトとして特定されたとする。案内処理のステップS106において案内部144は、看板OB21と車OB23とを用いて、案内用情報122を検索し、エントリーE8の案内内容「看板に対する注意喚起の案内」および「看板の内容を案内」と、エントリーE5の案内内容「車に対する注意喚起の案内」および「車との距離を案内(*)」と、を取得する。
In step S104 of the guidance process, the
案内処理のステップS108において案内部144は、利用者の視線の方向を検出する。看板OB21が視線の方向にない場合(ステップS110:視線の方向になし)、ステップS112において案内部144は、ステップS106で取得された案内内容「看板に対する注意喚起の案内」および「看板の内容を案内」に基づく案内を、音声のみによって実施する。この結果、左右イヤホン32、34内のスピーカーからは「追突に注意してください」という案内音声SO21(図10)のみが再生され、仮想オブジェクトVO21を含む虚像VIは表示されない。車OB23が視線の方向にない場合(ステップS110:視線の方向になし)、ステップS112において案内部144は、ステップS106で取得された案内内容「車に対する注意喚起の案内」に基づく案内を、音声のみによって実施する。この結果、左右イヤホン32、34内のスピーカーからは「前方の車に注意してください」という案内音声SO22(図10)のみが再生され、仮想オブジェクトVO22を含む虚像VIは表示されない。
In step S108 of the guidance process, the
看板OB21が視線の方向にある場合(ステップS110:視線の方向にあり)、ステップS114において案内部144は、ステップS106で取得された案内内容「看板に対する注意喚起の案内」および「看板の内容を案内」に基づく案内を、音声と拡張現実感処理との組み合わせによって実施する。この結果、図10に示すように、左右イヤホン32、34内のスピーカーからは「追突に注意してください」という案内音声SO21が再生されると共に、看板OB21を強調するための仮想オブジェクトVO21を含む虚像VIが表示される。車OB23が視線の方向にある場合(ステップS110:視線の方向にあり)、ステップS114において案内部144は、ステップS106で取得された案内内容「車に対する注意喚起の案内」に基づく案内を、音声と拡張現実感処理との組み合わせによって実施する。この結果、図10に示すように、左右イヤホン32、34内のスピーカーからは「前方の車に注意してください」という案内音声SO22が再生されると共に、車OB23を強調するための仮想オブジェクトVO22を含む虚像VIが表示される。
When the signboard OB21 is in the direction of the line of sight (step S110: in the direction of the line of sight), in step S114, the
案内モード124に記憶されている内容が「追尾なしモード」である場合、案内部144は、以上により処理を終了させる。案内モード124に記憶されている内容が「追尾ありモード」である場合、案内部144は、所定時間待機する。2回目の案内処理のステップS102において案内部144は、外景画像を取得する。取得された外景画像には看板OBが含まれていないため、案内部144は、2回目の処理において、注目オブジェクトから看板OB21を除外する。
When the content stored in the
2回目の案内処理のステップS108において案内部144は、利用者の視線の方向を検出する。車OB23が視線の方向にない場合(ステップS110:視線の方向になし)、2回目のステップS112において案内部144は、ステップS106で取得された案内内容「車との距離を案内(*)」に基づく案内を、音声のみによって実施する。この結果、左右イヤホン32、34内のスピーカーからは「5m前方車両が近接しています」という案内音声SO23(図10)のみが再生され、仮想オブジェクトVO21を含む虚像VIは表示されない。
In step S108 of the second guidance process, the
車OB23が視線の方向にある場合(ステップS110:視線の方向にあり)、2回目のステップS114において案内部144は、ステップS106で取得された案内内容「車との距離を案内(*)」に基づく案内を、音声と拡張現実感処理との組み合わせによって実施する。この結果、図10に示すように、左右イヤホン32、34内のスピーカーからは「5m前方車両が近接しています」という案内音声SO23が再生されると共に、車OB23を強調するための仮想オブジェクトVO22と、利用者と車OB23との間の距離を示した仮想オブジェクトVO23と、を含む虚像VIが表示される。
When the vehicle OB23 is in the direction of the line of sight (step S110: in the direction of the line of sight), in the second step S114, the
以上のように、上記実施形態の案内処理によれば、案内部144は、現実世界に実在すると共に、ステップS102により取得された外景画像に含まれる少なくとも1つの実オブジェクトであって、利用者に対して注目を促す実オブジェクトである注目オブジェクトに対する案内を、少なくとも音声SO11〜SO23により実施することができる(ステップS112、S114)。音声SO11〜SO23を用いた案内は、利用者の視野領域に形成される虚像VIを用いた案内と比較して、利用者の視野を狭める虞、換言すれば、現実世界の視認性が低下する虞を低くすることができる。この結果、現実世界の視認性を確保しつつ、現実世界に実在する実オブジェクトに対して利用者の注目を促すことが可能な頭部装着型表示装置(HMD100)を提供することができる。
As described above, according to the guidance process of the above embodiment, the
さらに、上記実施形態の案内処理によれば、案内部144は、注目オブジェクトが利用者の視線の方向にないと推定される場合(ステップS110:視線の方向になし)は、音声SO11〜SO23のみにより案内を実施する(ステップS112)。このため、案内部144は、視線の方向にない注目オブジェクトに対する案内のために、利用者の視野領域に虚像VIが形成されることを抑制することができ、現実世界の視認性を確保することができる。一方、案内部144は、注目オブジェクトが利用者の視線の方向にあると推定される場合(ステップS110:視線の方向にあり)は、音声SO11〜SO23に加えてさらに、注目オブジェクトに付加的に表示するための仮想オブジェクトVO11〜VO23を含んだ虚像VIを形成させることで案内を実施する(ステップS114)。このため、案内部144は、視線の方向にある注目オブジェクトに対する案内を、音声SO11〜SO23と、虚像VIと、の両方の手段を用いて手厚く行うことができる。すなわち、利用者は、自身の視線の方向にある注目オブジェクトについては、視覚と聴覚とを介した案内を享受することができる。これらの結果、現実世界の視認性を確保しつつ、現実世界に実在する実オブジェクトに対して利用者の注目を促すことが可能な頭部装着型表示装置(HMD100)において、さらに、利用者の利便性を向上させることができる。
Furthermore, according to the guidance processing of the above embodiment, when it is estimated that the object of interest is not in the direction of the user's line of sight (step S110: none in the direction of the line of sight), only the voices SO11 to SO23. The guidance is implemented by (Step S112). For this reason, the
さらに、上記実施形態の案内処理によれば、案内モード124が「追尾ありモード」である場合、案内部144は、ステップS102において繰り返し取得された複数の外景画像における注目オブジェクトの経時的な変化に伴って、ステップS112またはステップS114の案内を繰り返し実施する。この結果、案内部144は、注目オブジェクトの最新の状態に対応した案内を随時行うことができる、換言すれば、案内部144は、注目オブジェクトを追跡しつつ案内を行うことができる。
Furthermore, according to the guidance process of the above embodiment, when the
A−4.案内処理の変形:
図4で説明した案内処理は、あくまで一例であり、種々の変形が可能である。例えば、以下に変形1〜6として説明する各種の変形を施してもよい。変形1〜6は、上述の案内処理に対して単独で採用されてもよいし、組み合わせて採用されてもよい。
A-4. Variations on the guidance process:
The guidance process described with reference to FIG. 4 is merely an example, and various modifications are possible. For example, you may give the various deformation | transformation demonstrated as the deformation | transformation 1-6 below.
A−4−1.変形1(注目オブジェクトの指定方法):
変形1では、利用者が身体の一部等を用いて指定した実オブジェクトを注目オブジェクトとして特定する。変形1では、上述した方法a4(利用者の指定を利用した注目オブジェクトの特定)において、上述した各手順に代えて次の手順を実行する。
A-4-1. Deformation 1 (Specifying object of interest):
In the first modification, the real object specified by the user using a part of the body or the like is specified as the object of interest. In the first modification, the following procedure is executed in place of each procedure described above in the method a4 (identification of an object of interest using user designation).
図12、図13は、案内処理の変形1について説明する図である。
・案内部144は、ステップS102において取得された外景画像を画像認識して、外景画像に含まれる全て(または主要な)実オブジェクトを認識する(手順a41)。詳細は手順a11と同様である。例えば図12は、ステップS102において取得された外景画像IM3の一例を示す。案内部144は、手順a41によって、外景画像IM3に含まれる実オブジェクトOB31〜OB33を認識する。
12 and 13 are diagrams for explaining a first variation of the guidance process.
The
・上述の通り、入力情報取得部110は、カメラ61により経時的に(繰り返し)撮影された外景画像を用いて利用者の身体の一部等(例えば、手全体、指先、手のひら、腕、手や腕に付けられた指輪や腕輪、手に持たれた道具器具)の動きを検知することができる。案内部144は、手順a41において認識された実オブジェクトの中から、入力情報取得部110により検知された利用者の身体の一部等の動きによって利用者が意図する1つ以上の実オブジェクトを特定し、当該1つ以上の実オブジェクトを注目オブジェクトとする(手順a42)。ここで「利用者が意図する実オブジェクト」とは、利用者が注目オブジェクトとして指定したいと考えている実オブジェクトを意味する。案内部144は、利用者の意図を、例えば、両手または片手で囲む動作、指をさす動作、道具器具等を用いて指し示す動作等により把握できる。例えば図13の例では、案内部144は、利用者の右手RHおよび左手LHで囲まれている実オブジェクトOB32を注目オブジェクトとする。なお、入力情報取得部110は、利用者の身体の一部等の動きを検知する際、利用者の身体の一部等の特徴点(例えば、指先CH1,CH2、指輪、腕輪、ポインター等道具器具の先端等)を動き検出のための目印にしてよい。
As described above, the input
変形1によれば、案内部144は、取得された外景画像と、利用者の身体の一部等の動きとから自動的に注目オブジェクトを特定することができる。このため利用者は、意図する実オブジェクトを手で囲む、指し示す等の動作をすることによって、直感的に注目オブジェクトを指定することができる。この結果、変形1によれば、利用者による意図を反映した注目オブジェクトの特定と、利用者における利便性の向上と、を実現することができる。このようにして特定された注目オブジェクトは、危険回避、情報提供、動作補助、作業支援といった、全てのタイプの案内に適している。
According to the first modification, the
A−4−2.変形2(注目オブジェクトの指定方法):
変形2では、変形1の構成においてさらに、利用者による注目オブジェクトの指定を補助するための虚像を表示させる。
A-4-2. Deformation 2 (target object specification method):
In the
図14は、案内処理の変形2について説明する図である。虚像VIには、利用者の視野VR内の実オブジェクトのうち、利用者が「注目オブジェクト」として指定している実オブジェクトを指し示す目印となる仮想オブジェクトVO31が含まれている。仮想オブジェクトVO31の態様および形状は、任意に定めることができる。仮想オブジェクトVO31の態様としては、実オブジェクトを囲む枠、実オブジェクトに重畳させるカバー、実オブジェクトを指し示すポインター等の態様を採用しうる。仮想オブジェクトVO31の形状としては、円形、三角形、四角形等を採用しうる。図14の例では、仮想オブジェクトVO31は、実オブジェクトを囲む円形の枠とされている。
FIG. 14 is a diagram for explaining
案内部144は、初期状態(すなわち手順a42開始直後)においては、デフォルト位置にデフォルトの大きさの仮想オブジェクトVO31を表示させる。その後、案内部144は、手順a42における利用者の身体の一部等の動きに追従させるようにして、仮想オブジェクトVO31の位置、大きさ、形状の少なくともいずれか1つを変更する。デフォルト位置とは、例えば、画面上の予め定められた位置(中央等)、画面上において任意の実オブジェクトに重なる位置等とすることができる。図14の例では、案内部144は、利用者の右手RHと左手LHとの動きに追従させるように、仮想オブジェクトVO31の位置および大きさを変更する。例えば、案内部144は、右手RHと左手LHとが形づくる円が徐々に小さく(大きく)なれば、仮想オブジェクトVO31の径を徐々に小さく(大きく)する。さらに案内部144は、右手RHと左手LHとが上方(下方)に移動すれば、仮想オブジェクトVO31もそれに追従するように上方(下方)に移動させる。
In the initial state (that is, immediately after the start of procedure a42), the
変形2によれば、案内部144は、利用者による注目オブジェクトの指定を補助するための虚像VIを表示させる。このため利用者は、虚像VIとして表示されている仮想オブジェクトVO31を目印として、視野VR内にある複数の実オブジェクトの中から「注目オブジェクト」として指定しようとする実オブジェクトがどれであるかを確認しつつ、注目オブジェクトを指定することができる。この結果、変形2によれば、利用者における利便性のさらなる向上を実現することができる。
According to the
A−4−3.変形3(音声による指示):
変形3では、注目オブジェクトの指定と、案内内容の指定とを音声により実施可能とする。
A-4-3. Modification 3 (instruction by voice):
In the third modification, the target object and the guidance content can be specified by voice.
図15は、変形3における案内用情報122aの一例を示す図である。図5に示した案内用情報122との違いは、各案内内容(利用者に案内すべき内容を表す文字列)に対して、当該案内内容の種類が対応付けられて記憶されている点のみである。本変形では、案内内容の種類として、注意喚起、情報、位置、作業内容、を想定する。種類として「注意喚起」が対応付けられている案内内容は、利用者に対する危険回避のための案内であることを意味する。同様に、種類として「情報」が対応付けられている案内内容は、利用者に対する情報提供のための案内であることを意味する。種類として「位置」が対応付けられている案内内容は、利用者に対する動作補助のための案内であることを意味する。種類として「作業内容」が対応付けられている案内内容は、利用者に対する作業支援のための案内であることを意味する。
FIG. 15 is a diagram illustrating an example of the
上述の通り、入力情報取得部110は、マイク63によって取得された音声を音声認識することで、利用者からの音声による操作入力を取得することができる。従って、図4に示した案内処理のステップS104において案内部144は、音声により指示された実オブジェクトを「注目オブジェクト」として特定することができる(方法a4)。さらに案内部144は、ステップS106〜S114で取得・案内する案内内容を、音声により指示された種類(注意喚起、情報、位置、作業内容)に限定することができる。
As described above, the input
また、案内部144は、ステップS106〜S114における案内内容に関する追加情報を、音声により取得してもよい。追加情報とは、例えば、ボトルに入っている液体の種類(炭酸か否か)、利用者の身長、車に装着されているタイヤの大きさ等が想定される。特に「追尾ありモード」の場合、案内部144は、取得した追加情報に応じて、案内する液体の量や、対象物(車、人、壁等)との距離における安全係数を変更することができる。具体的には、案内部144は、液体の種類が炭酸である場合はそうでない場合と比較して安全係数を大きくすることができる。同様に案内部144は、利用者の身長が高くなるにつれて安全係数を大きくすることができ、タイヤの大きさが大きくなるにつれて安全係数を大きくすることができる。このようにすれば案内部144は、利用者により与えられる追加情報を考慮してより正確に案内を実施することができる。なお、追加情報は、音声に限らず入力情報取得部110により実現される種々の入力手段(キー入力、ジェスチャー、視線等)により与えられうる。
Moreover, the
さらに、案内部144は、上述した変形1,2において、利用者の身体の一部等の動きによって特定されている複数の実オブジェクトの中からの、1つ以上の実オブジェクトの指定を、音声により取得してもよい。例えば、図13の例において、実オブジェクトOB31とOB32とが両手で囲まれている場合を想定する。その状態で利用者が「木」と発声することにより、案内部144は、実オブジェクトOB32を対象オブジェクトとして特定する。また、案内部144は、上述した変形2において、仮想オブジェクトVO31(利用者が注目オブジェクトとして指定する実オブジェクトを指し示す目印となる仮想オブジェクト)を表示させるデフォルト位置となる実オブジェクトの指定を、音声により取得してもよい。例えば、図14の例において、利用者が「右側の雲」と発声することにより、案内部144は、実オブジェクトOB33に重畳される位置に仮想オブジェクトVO31を配置した虚像VIを表示させる。このようにすれば、身体の動きと音声とにより注目オブジェクトを指定することができるため、利用者における利便性をより一層向上させることができる。
Furthermore, in the first and second modifications described above, the
変形3によれば、案内部144は、音声による指示に応じて案内処理を実行することができる。このため利用者は、手を離すことが困難な作業中においても操作入力を行うことができるため、利用者における利便性を向上させることができる。
According to the third modification, the
A−4−4.変形4(小型入力装置による指示):
変形4では、HMD100とは別に設けられた小型入力装置(以降、単に「入力装置」とも呼ぶ。)を用いて、注目オブジェクトの指定と、案内内容の指定とを実施可能とする。
A-4-4. Modification 4 (instruction by a small input device):
In the fourth modification, the object of interest and the guidance content can be specified using a small input device (hereinafter also simply referred to as “input device”) provided separately from the
図16は、入力装置の一例を示す図である。図17は、入力装置の構成を機能的に示すブロック図である。本変形の入力装置300は、時計形状であり、入力面310と、マイク320と、ROM330と、RAM340と、CPU350と、記憶部360と、通信インターフェイス370とを備えている。入力面310は、液晶パネルのような表示装置と、タッチパッドのような位置入力装置とを組み合わせたタッチパネルであり、使用者によって触れられた位置の情報を検出する。入力面310は、入力装置300のケース上部の全面に亘って配置されている。マイク320は、入力装置300のケースに内蔵されている。記憶部360は、ROM、RAM、DRAM、ハードディスク等によって構成されている。
FIG. 16 is a diagram illustrating an example of the input device. FIG. 17 is a block diagram functionally showing the configuration of the input device. The modified
CPU350は、記憶部360に格納されているコンピュータープログラムを読みだして実行することにより、制御部351として機能する。制御部351は、以下のd1〜d3に示す機能を実現する。
(d1)制御部351は、HMD100とペアリングを行う。制御部351は、ペアリングしたHMD100の情報を記憶部360に記憶させ、以降、他のHMD100との間における機能a2の実行や入力処理の実行を遮断する。
(d2)制御部351は、ペアリングしたHMD100のステータスを入力面310に表示する。ステータスとは、例えば、メール着信の有無、電話着信の有無、バッテリー残量、HMD100において実行されているアプリケーションの状態等である。
(d3)制御部351は、入力面310に対してなされた入力操作の内容を、通信インターフェイス370を介してHMD100へ送信する。また、制御部351は、マイク320によって取得された音声を音声認識して取得した入力操作の内容を、通信インターフェイス3370を介してHMD100へ送信する。
The
(D1) The
(D2) The
(D3) The
変形4の構成では、図5に示した案内用情報122に代えて、図15に示した案内用情報122aを備えている。変形4では、変形3と同様に、ステップS104における注目オブジェクトの指定、ステップS106〜S114における案内内容の種類の指定、ステップS106〜S114における案内内容に関する追加情報の指定、変形1,2における実オブジェクトの指定、のそれぞれを、入力装置300から取得することができる。
In the configuration of the modification 4, the
変形4によれば、案内部144は、入力装置300を用いた指示に応じて案内処理を実行することができる。このため利用者は、HMD100以外のデバイスを用いてHMD100を操作することができるため、利用者における利便性を向上させることができる。
According to the modification 4, the
図18は、入力装置の他の例を示す図である。図18に示す入力装置300aは、入力面310に代えて、十字キー311と、決定ボタン312と、を備えている。このような構成でも、図16に示した入力装置300と同様の効果を奏することができる。
FIG. 18 is a diagram illustrating another example of the input device. An
A−4−5.変形5(仮想小型入力装置による指示):
変形5では、HMD100によって実現される仮想小型入力装置(以降、単に「仮想入力装置」とも呼ぶ。)を用いて、注目オブジェクトの指定と、案内内容の指定とを実施可能とする。
A-4-5. Modification 5 (instruction by virtual small input device):
In the fifth modification, the object of interest and the guidance content can be specified using a virtual small-sized input device (hereinafter simply referred to as “virtual input device”) realized by the
図19は、仮想入力装置の一例を示す図である。仮想入力装置300bは、通常の時計(アナログ時計でもデジタル時計でもよい)の盤面に、HMD100による虚像VIが重畳表示されることによって実現される。具体的には、HMD100の拡張現実感処理部142は、利用者が仮想入力装置300bの盤面を見た際に、盤面に対して、虚像VIを重畳して表示させる。拡張現実感処理部142は、利用者が仮想入力装置300bの盤面を見たか否かを、カメラ61により取得された外景画像を画像認識することによって判断することができる。
FIG. 19 is a diagram illustrating an example of a virtual input device. The
虚像VIには、メニューボタンB1と、進むボタンB2と、ホームボタンB3と、戻るボタンB4と、確定ボタンB5と、が含まれている。メニューボタンB1は、HMD100のメニュー画面を虚像VIとして表示させるためのボタンである。進むボタンB2は、現在表示または選択されている画面および項目を次に進めるためのボタンである。ホームボタンB3は、現在表示されている画面や項目を初期状態に戻すためのボタンである。戻るボタンB4は、現在表示または選択されている画面および項目を前に戻すためのボタンである。確定ボタンB5は、選択内容を確定させるためのボタンである。これらのボタンB1〜B5は「仮想的な操作部」として機能する。入力情報取得部110は、カメラ61により経時的に(繰り返し)撮影された外景画像を用いて利用者の身体の一部等(例えば、指、ポインター等)の動きを検知する。入力情報取得部110は、検知した利用者の身体の一部等の動きと、各ボタンB1〜B5の位置とを照合することによって、利用者が操作しているボタンの種類を取得することができる。照合は、例えば、外景画像における利用者の指先の位置(座標)が、仮想的な操作部におけるどのボタンの領域にあるか(または近いか)を算出することによって実施できる。
The virtual image VI includes a menu button B1, a forward button B2, a home button B3, a return button B4, and a confirmation button B5. The menu button B1 is a button for displaying the menu screen of the
変形5の構成では、図5に示した案内用情報122に代えて、図15に示した案内用情報122aを備えている。変形5では、変形3と同様に、ステップS104における注目オブジェクトの指定、ステップS106〜S114における案内内容の種類の指定、ステップS106〜S114における案内内容に関する追加情報の指定、変形1,2における実オブジェクトの指定、のそれぞれを、仮想入力装置300bから取得することができる。
In the configuration of the modification 5, the
変形5によれば、案内部144は、仮想入力装置300bを用いた指示に応じて案内処理を実行することができる。このため利用者は、HMD100以外の仮想的なデバイスを用いてHMD100を操作することができるため、利用者における利便性を向上させることができる。
According to the fifth modification, the
A−4−6.変形6(追加情報の取得):
変形6では、変形3で説明した「追加情報」を用いる構成においてさらに、利用者からの入力によらずに追加情報を自動で取得する。具体的には、案内部144は、HMD100に搭載された測距センサーと、カメラ61により取得された外景画像の画像認識とを組み合わせて、注目オブジェクトの大きさや容量を推定してもよい。また案内部144は、HMD100に搭載された温度センサーと、カメラ61により取得された外景画像の画像認識とを組み合わせて、注目オブジェクトの各部位ごとの温度変化を推定してもよい。
A-4-6. Modification 6 (acquisition of additional information):
In the modification 6, in the configuration using the “additional information” described in the
変形6によれば、案内部144は、追加情報を自動で取得することができるため、より正確に案内を実施することができる。
According to the modification 6, since the
B.変形例:
上記実施形態において、ハードウェアによって実現されるとした構成の一部をソフトウェアに置き換えるようにしてもよく、逆に、ソフトウェアによって実現されるとした構成の一部をハードウェアに置き換えるようにしてもよい。その他、以下のような変形も可能である。
B. Variations:
In the above embodiment, a part of the configuration realized by hardware may be replaced by software, and conversely, a part of the configuration realized by software may be replaced by hardware. Good. In addition, the following modifications are possible.
・変形例1:
上記実施形態では、HMDの構成について例示した。しかし、HMDの構成は、本発明の要旨を逸脱しない範囲において任意に定めることが可能であり、例えば、各構成部の追加・削除・変換等を行うことができる。
・ Modification 1:
In the said embodiment, it illustrated about the structure of HMD. However, the configuration of the HMD can be arbitrarily determined without departing from the gist of the present invention. For example, each component can be added, deleted, converted, and the like.
上記実施形態における制御部と画像表示部とに対する構成要素の割り振りは、あくまで一例であり、種々の態様を採用可能である。例えば、以下のような態様としてもよい。
(i)制御部にCPUやメモリー等の処理機能を搭載し、画像表示部には表示機能のみを搭載する態様
(ii)制御部と画像表示部との両方にCPUやメモリー等の処理機能を搭載する態様
(iii)制御部と画像表示部とを一体化した態様(例えば、画像表示部に制御部が含まれ眼鏡型のウェアラブルコンピューターとして機能する態様)
(iv)制御部の代わりにスマートフォンや携帯型ゲーム機を使用する態様
(v)制御部と画像表示部とを無線LANや赤外線通信やBluetooth等の無線の信号伝送路を介した接続により接続し、接続部(コード)を廃した態様。なお、この場合において、制御部または画像表示部に対する給電をワイヤレスにより実施してもよい。
The allocation of components to the control unit and the image display unit in the above embodiment is merely an example, and various aspects can be employed. For example, the following aspects may be adopted.
(I) A mode in which processing functions such as a CPU and a memory are mounted on the control unit, and only a display function is mounted on the image display unit. (Ii) Processing functions such as a CPU and a memory are provided in both the control unit and the image display unit. Aspect to be mounted (iii) A mode in which the control unit and the image display unit are integrated (for example, a mode in which the control unit is included in the image display unit and functions as a glasses-type wearable computer)
(Iv) A mode in which a smartphone or a portable game machine is used instead of the control unit. (V) The control unit and the image display unit are connected by a connection via a wireless signal transmission path such as a wireless LAN, infrared communication, or Bluetooth. The aspect which abolished the connection part (code). In this case, power supply to the control unit or the image display unit may be performed wirelessly.
例えば、上記実施形態で例示した制御部の構成は任意に変更することができる。具体的には、例えば、制御部の送信部(Tx)および画像表示部の受信部(Rx)は、いずれも、双方向通信が可能な機能を備えており送受信部として機能してもよい。例えば、制御部が備えるとした操作用インターフェイス(各種キーやトラックパッド等)の一部を省略してもよい。例えば、制御部に操作用スティック等の他の操作用インターフェイスを備えてもよい。例えば、制御部にはキーボードやマウス等のデバイスを接続可能な構成として、キーボードやマウスから入力を受け付けるものとしてもよい。例えば、制御部が備えるとした各処理部(例えば画像処理部、表示制御部、拡張現実感処理部等)は、当該機能を実現するために設計されたASIC(Application Specific Integrated Circuit:特定用途向け集積回路)を用いて構成されてもよい。例えば、制御部には、電源として二次電池が搭載されることとしたが、電源としては二次電池に限らず、種々の電池を使用することができる。例えば、一次電池や、燃料電池、太陽電池、熱電池等を使用してもよい。 For example, the configuration of the control unit exemplified in the above embodiment can be arbitrarily changed. Specifically, for example, both the transmission unit (Tx) of the control unit and the reception unit (Rx) of the image display unit have a function capable of bidirectional communication, and may function as a transmission / reception unit. For example, a part of an operation interface (such as various keys and a track pad) provided in the control unit may be omitted. For example, the control unit may be provided with another operation interface such as an operation stick. For example, the control unit may be configured such that a device such as a keyboard or a mouse can be connected, and an input may be received from the keyboard or the mouse. For example, each processing unit (for example, an image processing unit, a display control unit, an augmented reality processing unit, or the like) included in the control unit is an ASIC (Application Specific Integrated Circuit) designed to realize the function. (Integrated circuit). For example, the control unit is mounted with a secondary battery as a power source, but the power source is not limited to a secondary battery, and various batteries can be used. For example, a primary battery, a fuel cell, a solar cell, a thermal cell, or the like may be used.
例えば、上記実施形態で例示した画像表示部の構成は任意に変更することができる。具体的には、例えば、画像表示部の画像光生成部は、上述した構成部(バックライト、バックライト制御部、LCD、LCD制御部)と共に、または、上述した構成部に代えて、他の方式を実現するための構成部を備えていても良い。例えば、画像光生成部は、有機EL(有機エレクトロルミネッセンス、Organic Electro-Luminescence)のディスプレイと、有機EL制御部とを備えていてもよい。例えば、画像生成部は、LCDに代えてデジタル・マイクロミラー・デバイス等を備えていてもよい。例えば、レーザー網膜投影型の頭部装着型表示装置に対して本発明を適用することも可能である。例えば、イヤホンに代えて、または、イヤホンと共に、骨伝導スピーカーを備えていてもよい。骨伝導スピーカーを利用した音の再生によれば、雑音の多い環境(例えば工場内)においても、利用者にはっきりと音を伝えることができる。 For example, the configuration of the image display unit exemplified in the above embodiment can be arbitrarily changed. Specifically, for example, the image light generation unit of the image display unit may be combined with the above-described configuration unit (backlight, backlight control unit, LCD, LCD control unit) or in place of the above-described configuration unit. You may provide the structure part for implement | achieving a system. For example, the image light generation unit may include an organic EL (Organic Electro-Luminescence) display and an organic EL control unit. For example, the image generation unit may include a digital micromirror device or the like instead of the LCD. For example, the present invention can be applied to a laser retinal projection type head-mounted display device. For example, a bone conduction speaker may be provided instead of the earphone or together with the earphone. According to sound reproduction using a bone conduction speaker, sound can be clearly transmitted to the user even in a noisy environment (for example, in a factory).
図20は、変形例におけるHMDの外観の構成を示す説明図である。図20(A)の画像表示部20xは、右光学像表示部26xおよび左光学像表示部28xを備えている。これらは上記実施形態の光学部材よりも小さく形成され、HMDの装着時における利用者の左右の眼の斜め上にそれぞれ配置されている。図20(B)の画像表示部20yは、右光学像表示部26yおよび左光学像表示部28yを備えている。これらは上記実施形態の光学部材よりも小さく形成され、HMDの装着時における利用者の左右の眼の斜め下にそれぞれ配置されている。このように、光学像表示部は利用者の眼の近傍に配置されていれば足りる。光学像表示部を形成する光学部材の大きさは任意であり、光学像表示部が利用者の眼の一部分のみを覆う態様、換言すれば、光学像表示部が利用者の眼を完全に覆わない態様でもよい。
FIG. 20 is an explanatory diagram showing the configuration of the appearance of the HMD in the modification. An
例えば、HMDは、両眼タイプの透過型HMDであるものとしたが、単眼タイプのHMDとしてもよい。例えば、利用者がHMDを装着した状態において外景の透過が遮断される非透過型HMDとして構成してもよいし、非透過型HMDにカメラを搭載したビデオシースルーとして構成してもよい。例えば、イヤホンは耳掛け型やヘッドバンド型を採用してもよく、省略しても良い。例えば、眼鏡のように装着する画像表示部に代えて、通常の平面型ディスプレイ装置(液晶ディスプレイ装置、プラズマディスプレイ装置、有機ELディスプレイ装置等)を採用してもよい。この場合も、制御部と画像表示部との間の接続は、有線、無線どちらでもよい。このようにすれば、制御部を、通常の平面型ディスプレイ装置のリモコンとして利用することができる。例えば、眼鏡のように装着する画像表示部に代えて、例えば帽子のように装着する画像表示部や、ヘルメット等の身体防護具に内蔵された画像表示部といった、他の態様の画像表示部を採用してもよい。例えば、自動車や飛行機等の車両、またはその他の交通手段に搭載されるヘッドアップディスプレイ(HUD、Head-Up Display)として構成されてもよい。 For example, the HMD is a binocular transmissive HMD, but may be a monocular HMD. For example, it may be configured as a non-transparent HMD that blocks the transmission of outside scenes when the user wears the HMD, or may be configured as a video see-through in which a camera is mounted on the non-transparent HMD. For example, the earphone may be an ear-hook type or a headband type, or may be omitted. For example, instead of the image display unit worn like glasses, a normal flat display device (liquid crystal display device, plasma display device, organic EL display device, etc.) may be employed. Also in this case, the connection between the control unit and the image display unit may be either wired or wireless. In this way, the control unit can be used as a remote controller for a normal flat display device. For example, instead of an image display unit worn like glasses, an image display unit of another aspect such as an image display unit worn like a hat or an image display unit built in a body protective device such as a helmet is used. It may be adopted. For example, you may comprise as a head-up display (HUD, Head-Up Display) mounted in vehicles, such as a motor vehicle and an airplane, or another transportation means.
・変形例2:
上記実施形態では、案内処理の一例を示した。しかし、上記実施形態において示した処理の手順はあくまで一例であり、種々の変形が可能である。例えば、一部のステップを省略してもよいし、更なる他のステップを追加してもよい。実行されるステップの順序を変更してもよい。
In the above embodiment, an example of the guidance process has been described. However, the processing procedure shown in the above embodiment is merely an example, and various modifications are possible. For example, some steps may be omitted, and other steps may be added. The order of the steps performed may be changed.
例えば、案内部は、視線方向の検出(ステップS108)を省略してもよい。この場合、案内部は、利用者の視線の方向にかかわらず、注目オブジェクトに対する案内を音声のみで実施すればよい(ステップS112)。 For example, the guide unit may omit the detection of the line-of-sight direction (step S108). In this case, the guidance unit may perform guidance for the object of interest only by voice regardless of the direction of the user's line of sight (step S112).
例えば、案内部は、案内内容の取得(ステップS106)に代えて、または、案内内容の取得と共に、DSSS(Driving Safety Support Systems)により提供される情報を取得して、ステップS112またはステップS114による案内を実施してもよい。また、案内部は、DSSS以外の他の「車両・歩行者等の支援システム」により提供される情報を取得して、ステップS112またはステップS114による案内を実施してもよい。 For example, the guidance unit obtains information provided by DSSS (Driving Safety Support Systems) instead of obtaining the guidance content (step S106) or together with obtaining the guidance content, and performs guidance in step S112 or step S114. May be implemented. In addition, the guide unit may acquire information provided by “support system for vehicles, pedestrians, etc.” other than DSSS, and may perform the guidance in step S112 or step S114.
例えば、案内部は、案内処理(ステップS112、S114)において、追尾ありモードの案内と、追尾なしモードの案内と、のうちのどちらか一方のみを実施してもよい。この場合、記憶部の案内モードは省略してよい。また、例えば、案内部は、原則として追尾なしモードの案内を実施することとし、所定の条件を満たした場合に限って追尾ありモードの案内を実施してもよい。所定の条件とは、例えば、注目オブジェクトの経時的な変化が所定量以上か否か(詳細な判定方法は上述した方法a1と同様)、注目オブジェクトの特徴が所定の特徴と一致するか否か(詳細な判定方法は上述した方法a2と同様)、注目オブジェクトに利用者の視線が向いたか否か(詳細な判定方法は上述した方法a3と同様)、注目オブジェクトに利用者の指定があったか否か(詳細な判定方法は上述した方法a4と同様)を採用することができる。 For example, the guidance unit may perform only one of guidance in the tracking mode and guidance in the non-tracking mode in the guidance processing (steps S112 and S114). In this case, the guidance mode of the storage unit may be omitted. In addition, for example, the guide unit may perform guidance in the mode without tracking in principle, and may perform guidance in the mode with tracking only when a predetermined condition is satisfied. The predetermined condition is, for example, whether or not a change with time of the object of interest is greater than or equal to a predetermined amount (the detailed determination method is the same as the method a1 described above), and whether or not the feature of the object of interest matches the predetermined feature (The detailed determination method is the same as the method a2 described above), whether the user's line of sight is directed to the object of interest (the detailed determination method is the same as the method a3 described above), and whether the user is specified for the object of interest. (The detailed determination method is the same as the method a4 described above).
例えば、案内部は、案内処理(ステップS112、S114)において、所定の数以上の案内音声を用いた案内を実施する場合に、案内音声の内容を短縮化してもよい。具体的には、図10の例において案内部は、「追突に注意してください」との案内音声を「追突注意」のように短縮化してもよく、「前方の車に注意してください」との案内音声を「前方注意」のように短縮化してもよい。所定の数は、2以上でもよいし、3以上でもよいし、利用者が設定可能であってもよい。このようにすれば、複数の案内音声を用いた案内に要する時間を短縮することができる。 For example, the guidance unit may shorten the content of the guidance voice when performing guidance using a predetermined number or more of guidance voices in the guidance processing (steps S112 and S114). Specifically, in the example of FIG. 10, the guidance unit may shorten the guidance voice “Please pay attention to the rear-end collision” like “Warning rear-end collision”. The guidance voice may be shortened as “forward attention”. The predetermined number may be two or more, may be three or more, and may be settable by the user. In this way, the time required for guidance using a plurality of guidance voices can be shortened.
例えば、案内部は、案内処理(ステップS112、S114)において、複数の案内音声を用いた案内を実施する場合に、案内音声に対応する注目オブジェクトの重要度に応じて、案内を実施する順序を決定してもよい。注目オブジェクトの重要度の決定に際しては、上述した方法a1〜a4を利用し、例えば、方法a4により特定された注目オブジェクトは優先順位が1番、方法a1により特定された注目オブジェクトは優先順位が2番、等とすることができる。また、注目オブジェクトの特定方法と優先順位との対応関係を、利用者が変更可能であってもよい。このようにすれば、優先順位の高い注目オブジェクトについての案内音声を先ず案内することができるため、利便性を向上させることができる。
For example, when performing guidance using a plurality of guidance voices in the guidance processing (steps S112 and S114), the guidance unit changes the order in which guidance is performed according to the importance of the object of interest corresponding to the guidance voice. You may decide. In determining the importance of the attention object, the above-described methods a1 to a4 are used. For example, the attention object identified by the method a4 has the highest priority, and the attention object identified by the method a1 has the
例えば、案内部は、案内処理(ステップS112、S114)において、注目オブジェクトと利用者との位置関係に応じて、右イヤホン内のスピーカーと、左イヤホン内のスピーカーと、のうちのいずれか一方から案内音声を出力させてもよい。具体的には、例えば、案内部は、注目オブジェクトが利用者の右側に位置する場合には、右イヤホン内のスピーカーから案内音声を出力させ、注目オブジェクトが利用者の左側に位置する場合には、左イヤホン内のスピーカーから案内音声を出力させてもよい。また、例えば、頭部装着型表示装置に広い周波数応答特性と指向性を持ったスピーカーを備える場合には、Dolby(登録商標)等の音声処理システムを利用することができる。この場合、案内部は、注目オブジェクトが存在する位置から案内音声が再生されるような音声データーを生成し、音声処理システムへ供給し、出力させることができる。このようにすれば、案内音声を聞いた利用者は、自身と注目オブジェクトとの位置関係を直観的に知ることができる。 For example, in the guidance process (steps S112 and S114), the guidance unit determines whether the speaker in the right earphone or the speaker in the left earphone is in accordance with the positional relationship between the object of interest and the user. A guidance voice may be output. Specifically, for example, when the attention object is located on the right side of the user, the guidance unit outputs guidance voice from the speaker in the right earphone, and when the attention object is located on the left side of the user. The guidance voice may be output from a speaker in the left earphone. For example, when the head-mounted display device includes a speaker having a wide frequency response characteristic and directivity, an audio processing system such as Dolby (registered trademark) can be used. In this case, the guidance unit can generate voice data that reproduces the guidance voice from the position where the target object exists, and can supply the voice data to the voice processing system for output. In this way, the user who has heard the guidance voice can intuitively know the positional relationship between the object and the object of interest.
例えば、案内部は、案内処理(ステップS112、S114)において、案内音声に代えて、ブザー等の警告音、アラーム等の注意喚起音、メロディー等を再生してもよい。 For example, in the guidance process (steps S112 and S114), the guidance unit may reproduce a warning sound such as a buzzer, a warning sound such as an alarm, a melody, or the like instead of the guidance voice.
例えば、案内部は、案内処理(ステップS112、S114)において、音(音波)に代えて、または、音と共に、振動によって注目オブジェクトに対する案内を行ってもよい。この場合、例えば、頭部装着型表示装置に振動モーター等を内蔵した振動部を備える構成とし、案内部は、案内音声の再生に代えて、または音声の再生と共に、振動モーターの駆動を行えばよい。この場合も、案内部は、注目オブジェクトと利用者との位置関係に応じて、例えば右保持部に内蔵されている振動モーターと、左保持部に内蔵されている振動モーターと、のうちのいずれか一方を駆動させてもよい。 For example, in the guidance process (steps S112 and S114), the guidance unit may perform guidance for the object of interest by vibration instead of sound (sound wave) or together with sound. In this case, for example, the head-mounted display device includes a vibration unit with a built-in vibration motor or the like, and the guide unit can drive the vibration motor instead of reproducing the guidance voice or together with the reproduction of the voice. Good. In this case as well, the guide unit may select one of, for example, a vibration motor built in the right holding unit and a vibration motor built in the left holding unit, depending on the positional relationship between the object of interest and the user. Either of them may be driven.
例えば、案内部は、案内処理(ステップS114)において表示させる仮想オブジェクトに視差を付してもよい。 For example, the guidance unit may add parallax to the virtual object displayed in the guidance process (step S114).
例えば、上述した案内処理と共に、次のような案内処理を実施してもよい。頭部装着型表示装置は、利用者と注目オブジェクトとの間の距離を取得する距離取得部を備える構成とする。案内部は、利用者と注目オブジェクトとの間の距離が所定の距離(例えば20m)以内となった場合に、案内音声を再生させる。案内音声は、警告音や注意喚起音やメロディーであってもよい。案内部は、所定の距離を、利用者の移動速度に応じて変化(例えば、時速50km以上の場合は20m等)させてもよい。なお、距離取得部は、例えば、図2に示したステレオカメラを利用したステレオカメラ方式で距離を取得してもよいし、単眼カメラと単眼カメラの移動距離を利用した単眼カメラ方式で距離を取得してもよい。距離取得部は、赤外線(または超音波)受発光部を利用したパターン照射方式で距離を取得してもよいし、赤外線(または超音波)受発光部を利用したToF(Time of Flight)方式で距離を取得してもよい。 For example, the following guidance processing may be performed together with the guidance processing described above. The head-mounted display device includes a distance acquisition unit that acquires a distance between the user and the object of interest. The guidance unit reproduces the guidance voice when the distance between the user and the object of interest is within a predetermined distance (for example, 20 m). The guidance voice may be a warning sound, a warning sound, or a melody. The guide unit may change the predetermined distance according to the moving speed of the user (for example, 20 m when the speed is 50 km / h or more). The distance acquisition unit may acquire the distance by a stereo camera method using the stereo camera shown in FIG. 2, for example, or acquire the distance by a monocular camera method using the movement distance between the monocular camera and the monocular camera. May be. The distance acquisition unit may acquire the distance by a pattern irradiation method using an infrared (or ultrasonic) light receiving / emitting unit, or by a ToF (Time of Flight) method using an infrared (or ultrasonic) light receiving / emitting unit. The distance may be acquired.
例えば、上述した案内処理の前処理として、または、案内処理のステップS114の前処理として、次のような調整処理を実施してもよい。頭部装着型表示装置は、IMU(Inertial Measurement Unit、慣性計測装置)を備える構成とする。CPUは、IMUを用いて、利用者の視界方向の領域(例えばカメラの撮像領域)と、画像表示部における虚像の表示領域と、の対応付けを行う。このようにすれば、拡張現実感処理部は、案内処理のステップS114において表示する仮想オブジェクトと、実オブジェクト(注目オブジェクト)と、の位置合わせの精度を向上させることができる。また、利用者の頭部の細かなぶれに起因する仮想オブジェクトの表示のぶれを抑制できる。また、拡張現実感処理において不要画像のマスク処理を実施する場合、マスク処理の速度を向上させることができる。 For example, the following adjustment process may be performed as a pre-process of the above-described guidance process or as a pre-process of step S114 of the guidance process. The head-mounted display device includes an IMU (Inertial Measurement Unit). Using the IMU, the CPU associates an area in the user's visual field direction (for example, an imaging area of a camera) with a virtual image display area in the image display unit. In this way, the augmented reality processing unit can improve the accuracy of alignment between the virtual object displayed in step S114 of the guidance process and the real object (target object). In addition, it is possible to suppress the display blur of the virtual object due to the fine shake of the user's head. Also, when performing mask processing of unnecessary images in augmented reality processing, the speed of mask processing can be improved.
例えば、複数の頭部装着型表示装置の利用者が存在する環境下において、案内処理では、各利用者の相対位置関係を利用して処理を実施してもよい。具体的には、例えば、注目オブジェクトの特定(ステップS104)において、HMD100xの案内部は、HMD100xの利用者と所定の相対位置関係を有する他のHMD100y、100z等の利用者を、注目オブジェクトとしてもよい。例えば、案内(ステップS112、S114)において、HMD100xの案内部は、HMD100xの利用者と他のHMD100y、100z等の利用者との相対位置関係に応じて、右イヤホン内のスピーカーと、左イヤホン内のスピーカーと、のうちのいずれか一方から案内音声を出力させてもよく、仮想オブジェクトを表示させる位置を調整してもよい。このようにすれば、複数の頭部装着型表示装置の利用者が存在する環境下(例えば、工場内、学校内等)において、各利用者の相対位置関係に基づく案内を実現することができる。 For example, in an environment where there are a plurality of head-mounted display device users, the guidance process may be performed using the relative positional relationship of each user. Specifically, for example, in specifying the object of interest (step S104), the guide unit of the HMD 100x also uses other HMDs 100y, 100z, etc., having a predetermined relative positional relationship with the user of the HMD 100x, as the object of attention. Good. For example, in the guidance (steps S112 and S114), the guidance unit of the HMD 100x is connected to the speaker in the right earphone and the left earphone in accordance with the relative positional relationship between the user of the HMD 100x and other users of the HMDs 100y and 100z. The guidance voice may be output from any one of the speakers, and the position where the virtual object is displayed may be adjusted. In this way, guidance based on the relative positional relationship of each user can be realized in an environment where there are users of a plurality of head-mounted display devices (for example, in factories, schools, etc.). .
例えば、上述した案内処理の変形1(身体の一部等の動きによる注目オブジェクトの指定)において、さらに案内部は、利用者の体の一部等の動きによって、注目オブジェクトに付す仮想オブジェクトの拡大、縮小、回転、配置位置の調整等を施してもよい。
For example, in the above-described
・変形例3:
上記実施形態では、案内用情報の一例を示した。しかし、上記実施形態において示した案内用情報の構成および内容はあくまで一例であり、種々の変形が可能である。例えば、一部の構成を省略してもよいし、更なる他の構成を追加してもよい。案内用情報に格納されているデーターを変更してもよい。
・ Modification 3:
In the above embodiment, an example of guidance information has been shown. However, the configuration and content of the guidance information shown in the above embodiment is merely an example, and various modifications can be made. For example, a part of the configuration may be omitted or another configuration may be added. The data stored in the guide information may be changed.
例えば、注目オブジェクトの名称等を用いた照合のための情報である「オブジェクト」欄は、1つであってもよいし、3つ以上であってもよい。 For example, there may be one “object” field, which is information for collation using the name of the object of interest, or may be three or more.
例えば、案内内容に代えて、または、案内内容と共に、手順情報が記憶されていてもよい。「手順情報」とは、HMDの利用者に対して、一連の動作手順を教示するために用いられる情報である。動作手順には、種々のカテゴリーの動作の手順が広く含まれる。例えば、料理や裁縫における製作者の動作の手順、工場作業における作業員の動作の手順、テニス等のスポーツにおける競技者の動作の手順等が含まれる。また、動作手順には、思考プロセスのような思考の手順、学習プロセスにおける思考の手順といった、利用者の体の動きを伴わない思考動作の手順をも含む。これらの動作の手順は、連続的であってもよいし、一定間隔をおいて不連続的であってもよい。 For example, procedure information may be stored instead of or together with the guidance content. “Procedure information” is information used to teach a series of operation procedures to an HMD user. The operation procedures widely include various categories of operation procedures. For example, the procedure of the producer's operation in cooking and sewing, the procedure of the worker's operation in factory work, the procedure of the athlete's operation in sports such as tennis are included. Further, the operation procedure includes a procedure of thinking operation that does not involve the movement of the user's body, such as a procedure of thinking such as a thought process and a procedure of thinking in the learning process. The procedure of these operations may be continuous or discontinuous at regular intervals.
・変形例4:
上記実施形態では、案内処理の具体例を示した。しかし、上記実施形態において示した具体例はあくまで一例であり、種々の変形が可能である。例えば、例示した音声による案内の態様や、拡張現実感処理における仮想オブジェクトの態様は、任意に変更することができる。
-Modification 4:
In the above embodiment, a specific example of the guidance process has been shown. However, the specific examples shown in the above embodiment are merely examples, and various modifications are possible. For example, the voice guidance mode exemplified and the virtual object mode in augmented reality processing can be arbitrarily changed.
例えば、第1、2の具体例では、実オブジェクトは1つの「もの」単位であるとして説明した。しかし、案内部は、1つの「もの」の中に複数の実オブジェクトが存在するとして案内処理を実施してもよい。具体的には、「車」という1つのものの中に、ボディー、バンパー、タイヤ、テールランプといった、複数の実オブジェクトが存在するとして案内処理を実施してもよい。 For example, in the first and second specific examples, the real object is described as one “thing” unit. However, the guide unit may perform the guide process on the assumption that there are a plurality of real objects in one “thing”. Specifically, the guidance process may be performed on the assumption that there are a plurality of real objects such as a body, a bumper, a tire, and a tail lamp in one “car”.
例えば、第1の具体例において、案内部は、グラスの近傍に、利用者に対して液体量を案内するための目盛りを表す仮想オブジェクトを表示させてもよい。同様に、案内部は、グラスの任意の地点に、液体の注入を停止すべき位置を案内するための目印を表す仮想オブジェクトを表示させてもよい。同様に、案内部は、グラスの近傍(好ましくは下部)に、利用者に対して重量を案内するためのスケールを表示させてもよい。案内部は、画像認識により推定された液体量等に応じてスケールの値を変化させてもよい。 For example, in the first specific example, the guide unit may display a virtual object representing a scale for guiding the liquid amount to the user in the vicinity of the glass. Similarly, the guiding unit may display a virtual object representing a mark for guiding a position where the liquid injection should be stopped at an arbitrary point on the glass. Similarly, the guide unit may display a scale for guiding weight to the user in the vicinity (preferably the lower part) of the glass. The guide unit may change the value of the scale according to the liquid amount estimated by the image recognition.
例えば、第2の具体例において、案内部は、前方の車との距離に応じて、当該車を強調するための仮想オブジェクトの態様を変化させてもよい。具体的には、案内部は、前方の車との距離が近ければ近いほど仮想オブジェクトを目立ちやすく(大きく、濃く)することができる。 For example, in the second specific example, the guide unit may change the aspect of the virtual object for emphasizing the car according to the distance from the car ahead. Specifically, the guide unit can make the virtual object more conspicuous (larger and darker) as the distance from the vehicle ahead is shorter.
・変形例5:
本発明は、上述の実施形態や実施例、変形例に限られるものではなく、その趣旨を逸脱しない範囲において種々の構成で実現することができる。例えば、発明の概要の欄に記載した各形態中の技術的特徴に対応する実施形態、実施例、変形例中の技術的特徴は、上述の課題の一部または全部を解決するために、あるいは、上述の効果の一部または全部を達成するために、適宜、差し替えや組み合わせを行うことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。
-Modification 5:
The present invention is not limited to the above-described embodiments, examples, and modifications, and can be realized with various configurations without departing from the spirit thereof. For example, the technical features in the embodiments, examples, and modifications corresponding to the technical features in each embodiment described in the summary section of the invention are to solve some or all of the above-described problems, or In order to achieve part or all of the above-described effects, replacement or combination can be performed as appropriate. Further, if the technical feature is not described as essential in the present specification, it can be deleted as appropriate.
10…制御部、11…決定キー、12…点灯部、13…表示切替キー、14…トラックパッド、15…輝度切替キー、16…方向キー、17…メニューキー、18…電源スイッチ、20…画像表示部、21…右保持部、22…右表示駆動部、23…左保持部、24…左表示駆動部、26…右光学像表示部、28…左光学像表示部、30…イヤホンプラグ、32…右イヤホン、34…左イヤホン、40…接続部、42…右コード、44…左コード、46…連結部材、48…本体コード、51…送信部、53…受信部、61…カメラ、62…視線検出部、63…マイク、66…9軸センサー、100…ヘッドマウントディスプレイ(頭部装着型表示装置)、110…入力情報取得部、120…記憶部、122、122a…案内用情報、124…案内モード、130…電源、132…無線通信部、134…GPSモジュール、140…CPU、142…拡張現実感処理部、144…案内部、150…OS、160…画像処理部、170…音声処理部、180…インターフェイス、190…表示制御部、201…右バックライト制御部、202…左バックライト制御部、211…右LCD制御部、212…左LCD制御部、221…右バックライト、222…左バックライト、241…右LCD、242…左LCD、251…右投写光学系、252…左投写光学系、261…右導光板、262…左導光板、300、300a…入力装置、300b…仮想入力装置、310…入力面、311…十字キー、312…決定ボタン、320…マイク、330…ROM、340…RAM、350…CPU、351…制御部、360…記憶部、370…通信インターフェィス、VSync…垂直同期信号、HSync…水平同期信号、Data…画像データー、OA…外部装置、PC…パーソナルコンピューター、VI…虚像、SC…外景、VR…視野、RE…右眼、LE…左眼、IM1、IM2…外景画像、OB11〜OB26…実オブジェクト、VO11〜VO23…仮想オブジェクト、SO11〜SO23…音声
DESCRIPTION OF
Claims (16)
前記利用者に前記虚像を視認させる画像表示部と、
前記頭部装着型表示装置を装着した状態における前記利用者の視界方向の外景画像を取得する画像取得部と、
現実世界に実在すると共に、取得された前記外景画像に含まれる少なくとも1つの実オブジェクトであって、前記利用者に対して注目を促す実オブジェクトである注目オブジェクトに対する案内を、音により行う案内部と、
を備える、頭部装着型表示装置。 A head-mounted display device that allows a user to visually recognize a virtual image,
An image display unit for allowing the user to visually recognize the virtual image;
An image acquisition unit for acquiring an outside scene image in the visual field direction of the user in a state in which the head-mounted display device is mounted;
A guidance unit that uses sound to guide a target object that is present in the real world and that is at least one real object included in the acquired outside scene image and is a real object that prompts the user to pay attention; ,
A head-mounted display device comprising:
前記頭部装着型表示装置を装着した状態における前記利用者の視線の方向を検出する視線検出部を備え、
前記案内部は、
前記注目オブジェクトが、検出された前記視線の方向にないと推定される場合は、前記音により前記案内を行い、
前記注目オブジェクトが、検出された前記視線の方向にある推定される場合は、前記音に加えてさらに、前記注目オブジェクトに付加的に表示するための仮想オブジェクトを含んだ前記虚像を前記画像表示部に形成させることで、前記案内を行う、頭部装着型表示装置。 The head-mounted display device according to claim 1, further comprising:
A line-of-sight detection unit that detects the direction of the line of sight of the user in a state in which the head-mounted display device is mounted;
The guide part is
When it is estimated that the object of interest is not in the direction of the detected line of sight, the guidance is performed with the sound,
When the object of interest is estimated to be in the direction of the detected line of sight, in addition to the sound, the image display unit further includes the virtual image including a virtual object for additionally displaying the object of interest. A head-mounted display device that performs the guidance by forming the head-mounted display device.
前記案内は、
前記注目オブジェクトに対する前記利用者の注意喚起のための案内と、
前記注目オブジェクトに関する情報の案内と、
前記注目オブジェクトの位置に関する案内と、
予め用意された手順情報に基づく、前記注目オブジェクトに対する前記利用者の作業内容の案内と、
のうちの少なくともいずれか1つを含む、頭部装着型表示装置。 The head-mounted display device according to claim 1 or 2,
The guidance is
Guidance for alerting the user to the object of interest;
Information guidance on the object of interest;
Guidance on the position of the object of interest;
Based on procedure information prepared in advance, guidance of the user's work content for the object of interest;
A head-mounted display device including at least one of the above.
前記案内部は、
前記案内として、前記注意喚起と、前記情報と、前記位置と、前記作業内容とのいずれを含むかを、前記利用者からの操作入力に応じて決定する、頭部装着型表示装置。 The head-mounted display device according to claim 3,
The guide part is
A head-mounted display device that determines which of the alert, the information, the position, and the work content is included as the guidance according to an operation input from the user.
前記画像取得部は、前記外景画像を繰り返し取得し、
前記案内部は、さらに、
取得された複数の前記外景画像をそれぞれ画像認識し、
前記複数の外景画像に含まれる実オブジェクトであって、経時的な変化が大きい実オブジェクトを、前記注目オブジェクトとする、頭部装着型表示装置。 The head-mounted display device according to any one of claims 1 to 4,
The image acquisition unit repeatedly acquires the outside scene image,
The guide unit further includes:
Recognizing each of the plurality of acquired outside scene images,
A head-mounted display device that uses a real object that is included in the plurality of outside scene images and has a large change over time as the object of interest.
前記案内部は、さらに、
取得された前記外景画像を画像認識し、
前記外景画像に含まれる実オブジェクトであって、所定の特徴を有する実オブジェクトを、前記注目オブジェクトとする、頭部装着型表示装置。 The head-mounted display device according to any one of claims 1 to 4,
The guide unit further includes:
Image recognition of the acquired outside scene image,
A head-mounted display device that uses a real object included in the outside scene image and having a predetermined characteristic as the attention object.
前記頭部装着型表示装置を装着した状態における前記利用者の視線の方向を検出する視線検出部を備え、
前記画像取得部は、前記外景画像を繰り返し取得し、
前記視線検出部は、前記視線の方向を繰り返し検出し、
前記案内部は、さらに、
取得された複数の前記外景画像と、複数回にわたり検出された前記視線の方向と、を照合し、
前記複数の外景画像に含まれる実オブジェクトであって、前記視線の先にある割合が多いと推定される実オブジェクトを、前記注目オブジェクトとする、頭部装着型表示装置。 The head-mounted display device according to any one of claims 1 to 4, further comprising:
A line-of-sight detection unit that detects the direction of the line of sight of the user in a state in which the head-mounted display device is mounted;
The image acquisition unit repeatedly acquires the outside scene image,
The line-of-sight detection unit repeatedly detects the direction of the line of sight,
The guide unit further includes:
The plurality of acquired outside scene images and the direction of the line of sight detected multiple times are collated,
A head-mounted display device in which a real object that is included in the plurality of outside scene images and is estimated to have a high proportion of the line of sight is the attention object.
前記利用者からの操作入力を取得する入力情報取得部を備え、
前記案内部は、さらに、
取得された前記外景画像と、取得された前記操作入力と、を照合し、
前記外景画像に含まれる実オブジェクトであって、前記利用者により指定された実オブジェクトを、前記注目オブジェクトとする、頭部装着型表示装置。 The head-mounted display device according to any one of claims 1 to 4, further comprising:
An input information acquisition unit for acquiring an operation input from the user;
The guide unit further includes:
The acquired outside scene image is collated with the acquired operation input,
A head-mounted display device in which a real object included in the outside scene image and designated by the user is the attention object.
前記画像取得部は、前記外景画像を繰り返し取得し、
前記入力情報取得部は、繰り返し取得された前記外景画像を画像認識することで前記利用者の身体の一部の動きを取得し、
前記案内部は、
取得された前記外景画像と、前記操作入力として取得された前記身体の一部の動きと、を照合し、
前記外景画像に含まれる実オブジェクトであって、前記身体の一部の動きに基づいて前記利用者により意図された実オブジェクトを、前記注目オブジェクトとする、頭部装着型表示装置。 The head-mounted display device according to claim 8,
The image acquisition unit repeatedly acquires the outside scene image,
The input information acquisition unit acquires a motion of a part of the user's body by recognizing the external scene image acquired repeatedly,
The guide part is
Collating the acquired outside scene image with the movement of the body part acquired as the operation input;
A head-mounted display device that uses a real object that is included in the outside scene image and that is intended by the user based on the movement of a part of the body as the attention object.
前記案内部は、さらに、
前記利用者が前記注目オブジェクトを指定する際の目印となる仮想オブジェクトであって、前記利用者の前記身体の一部の動きに追従させるようにして、位置、大きさ、形状の少なくともいずれか1つを経時的に変更した仮想オブジェクトを含む前記虚像を前記画像表示部に形成させる、頭部装着型表示装置。 The head-mounted display device according to claim 9,
The guide unit further includes:
A virtual object that serves as a mark when the user designates the object of interest, and at least one of a position, a size, and a shape so as to follow the movement of a part of the body of the user A head-mounted display device that causes the image display unit to form the virtual image including a virtual object whose shape has been changed over time.
前記入力情報取得部は、
前記頭部装着型表示装置に接続されている他の装置から前記操作入力を取得する、頭部装着型表示装置。 A head-mounted display device according to any one of claims 4 or 8 to 10,
The input information acquisition unit
A head-mounted display device that acquires the operation input from another device connected to the head-mounted display device.
前記画像表示部は、前記頭部装着型表示装置を操作するための仮想的な操作部を表す前記虚像を形成し、
前記画像取得部は、前記外景画像を繰り返し取得し、
前記入力情報取得部は、
繰り返し取得された前記外景画像を画像認識することで取得した前記利用者の身体の一部の動きと、前記仮想的な操作部内における各部の位置と、を照合することで前記操作入力を取得する、頭部装着型表示装置。 A head-mounted display device according to any one of claims 4 or 8 to 10,
The image display unit forms the virtual image representing a virtual operation unit for operating the head-mounted display device;
The image acquisition unit repeatedly acquires the outside scene image,
The input information acquisition unit
The operation input is acquired by collating the movement of a part of the user's body acquired by recognizing the repeatedly acquired outside scene image with the position of each unit in the virtual operation unit. Head mounted display device.
前記画像取得部は、前記外景画像を繰り返し取得し、
前記案内部は、
取得された複数の前記外景画像内における前記注目オブジェクトの経時的な変化に伴って、前記案内を繰り返し行う、頭部装着型表示装置。 The head-mounted display device according to any one of claims 1 to 12,
The image acquisition unit repeatedly acquires the outside scene image,
The guide part is
A head-mounted display device that repeatedly performs the guidance according to a change with time of the object of interest in the plurality of acquired outside scene images.
前記案内部は、さらに、前記案内のために使用する追加情報を取得する、頭部装着型表示装置。 The head-mounted display device according to any one of claims 1 to 13,
The guide unit is a head-mounted display device that further acquires additional information used for the guidance.
(a)前記頭部装着型表示装置を装着した状態における利用者の視界方向の外景画像を取得する工程と、
(b)現実世界に実在すると共に、取得された前記外景画像に含まれる少なくとも1つの実オブジェクトであって、前記利用者に対して注目を促す実オブジェクトである注目オブジェクトに対する案内を、音により行う工程と、
を備える、方法。 A method for controlling a head-mounted display device,
(A) acquiring an outside scene image in the user's field of view in a state where the head-mounted display device is mounted;
(B) Guidance is given by sound to at least one real object that exists in the real world and is an actual object that is included in the acquired outside scene image and that prompts the user to pay attention. Process,
A method comprising:
頭部装着型表示装置を装着した状態における利用者の視界方向の外景画像を取得する機能と、
現実世界に実在すると共に、取得された前記外景画像に含まれる少なくとも1つの実オブジェクトであって、前記利用者に対して注目を促す実オブジェクトである注目オブジェクトに対する案内を、音により行う機能と、
をコンピューターに実現させるための、コンピュータープログラム。 A computer program,
A function of acquiring an outside scene image in the direction of the user's field of view when the head-mounted display device is mounted;
A function for performing sound guidance on an object of interest that is an actual object that exists in the real world and that is at least one real object included in the acquired outside scene image and that attracts attention to the user;
A computer program that enables a computer to realize
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015224556A JP2017091433A (en) | 2015-11-17 | 2015-11-17 | Head-mounted display device, method for controlling head-mounted display device, computer program |
US14/982,441 US10303435B2 (en) | 2015-01-15 | 2015-12-29 | Head-mounted display device, method of controlling head-mounted display device, and computer program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015224556A JP2017091433A (en) | 2015-11-17 | 2015-11-17 | Head-mounted display device, method for controlling head-mounted display device, computer program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017091433A true JP2017091433A (en) | 2017-05-25 |
Family
ID=58768683
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015224556A Pending JP2017091433A (en) | 2015-01-15 | 2015-11-17 | Head-mounted display device, method for controlling head-mounted display device, computer program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017091433A (en) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019026713A1 (en) * | 2017-08-04 | 2019-02-07 | ソニー株式会社 | Information processing device, information processing method, and program |
JP2019075126A (en) * | 2018-11-13 | 2019-05-16 | 富士ゼロックス株式会社 | Information processing device and program |
WO2019220495A1 (en) * | 2018-05-14 | 2019-11-21 | 株式会社ソニー・インタラクティブエンタテインメント | Information processing device |
JP2019537087A (en) * | 2016-09-30 | 2019-12-19 | 株式会社ソニー・インタラクティブエンタテインメント | A method for providing interactive content in a virtual reality scene for safely guiding an HMD user in a real world space |
WO2021029164A1 (en) * | 2019-08-09 | 2021-02-18 | ソニー株式会社 | Image processing device, image processing method, and program |
JPWO2021131023A1 (en) * | 2019-12-27 | 2021-07-01 | ||
JPWO2021230048A1 (en) * | 2020-05-15 | 2021-11-18 | ||
CN114240444A (en) * | 2021-12-17 | 2022-03-25 | 支付宝(杭州)信息技术有限公司 | Face brushing payment method and device and face brushing payment equipment |
WO2023074148A1 (en) * | 2021-10-26 | 2023-05-04 | ソニーグループ株式会社 | Information processing device, information processing method, and program |
WO2023210158A1 (en) * | 2022-04-28 | 2023-11-02 | 株式会社Nttドコモ | Eyeglass-type display device and display system |
Citations (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020089544A1 (en) * | 2000-08-22 | 2002-07-11 | Dirk Jahn | System and method for combined use of different display/appliance types with system-controlled, context-dependent information display |
WO2005108926A1 (en) * | 2004-05-12 | 2005-11-17 | Takashi Yoshimine | Information processor, portable apparatus and information processing method |
JP2006155238A (en) * | 2004-11-29 | 2006-06-15 | Hiroshima Univ | Information processing apparatus, portable terminal, information processing method, information processing program, and computer-readable recording medium |
WO2006080344A1 (en) * | 2005-01-26 | 2006-08-03 | Matsushita Electric Industrial Co., Ltd. | Guiding device and guiding method |
JP2008230296A (en) * | 2007-03-16 | 2008-10-02 | Mazda Motor Corp | Vehicle drive supporting system |
JP2011119786A (en) * | 2009-11-30 | 2011-06-16 | Toshiba Corp | Information processor and content display control method |
JP2011227649A (en) * | 2010-04-19 | 2011-11-10 | Sony Corp | Image processing system, image processing device, image processing method and program |
JP2011245792A (en) * | 2010-05-28 | 2011-12-08 | Riso Kagaku Corp | Image forming system |
JP2012155654A (en) * | 2011-01-28 | 2012-08-16 | Sony Corp | Information processing device, notification method, and program |
JP2012155655A (en) * | 2011-01-28 | 2012-08-16 | Sony Corp | Information processing device, notification method, and program |
JP2013054661A (en) * | 2011-09-06 | 2013-03-21 | Nec Biglobe Ltd | Information display system, information display method and program for information display |
US20130141576A1 (en) * | 2011-12-01 | 2013-06-06 | Richard T. Lord | Determining threats based on information from road-based devices in a transportation-related context |
US20130194164A1 (en) * | 2012-01-27 | 2013-08-01 | Ben Sugden | Executable virtual objects associated with real objects |
JP2013162285A (en) * | 2012-02-03 | 2013-08-19 | Sony Corp | Information processing device, information processing method, and program |
JP2013190941A (en) * | 2012-03-13 | 2013-09-26 | Nikon Corp | Information input output device, and head-mounted display device |
US20130328928A1 (en) * | 2012-06-12 | 2013-12-12 | Sony Computer Entertainment Inc. | Obstacle avoidance apparatus and obstacle avoidance method |
WO2014097413A1 (en) * | 2012-12-19 | 2014-06-26 | 株式会社日立製作所 | Operation support terminal and operation support system |
JP2014142751A (en) * | 2013-01-23 | 2014-08-07 | Seiko Epson Corp | Display device, head-mounted type display device, and method for controlling display device |
JP2014146871A (en) * | 2013-01-28 | 2014-08-14 | Olympus Corp | Wearable display device and program |
US20140225918A1 (en) * | 2013-02-14 | 2014-08-14 | Qualcomm Incorporated | Human-body-gesture-based region and volume selection for hmd |
JP2014145734A (en) * | 2013-01-30 | 2014-08-14 | Nikon Corp | Information input/output device, and information input/output method |
JP2015125464A (en) * | 2013-12-25 | 2015-07-06 | Kddi株式会社 | Wearable device |
JP2016130985A (en) * | 2015-01-15 | 2016-07-21 | セイコーエプソン株式会社 | Head-mounted display device, method for controlling head-mounted display device, computer program |
JP2016194763A (en) * | 2015-03-31 | 2016-11-17 | 富士通株式会社 | Image processing apparatus, image processing program, and image processing method |
-
2015
- 2015-11-17 JP JP2015224556A patent/JP2017091433A/en active Pending
Patent Citations (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020089544A1 (en) * | 2000-08-22 | 2002-07-11 | Dirk Jahn | System and method for combined use of different display/appliance types with system-controlled, context-dependent information display |
WO2005108926A1 (en) * | 2004-05-12 | 2005-11-17 | Takashi Yoshimine | Information processor, portable apparatus and information processing method |
JP2006155238A (en) * | 2004-11-29 | 2006-06-15 | Hiroshima Univ | Information processing apparatus, portable terminal, information processing method, information processing program, and computer-readable recording medium |
WO2006080344A1 (en) * | 2005-01-26 | 2006-08-03 | Matsushita Electric Industrial Co., Ltd. | Guiding device and guiding method |
US20080243385A1 (en) * | 2005-01-26 | 2008-10-02 | Kakuya Yamamoto | Guiding Device and Guiding Method |
JP2008230296A (en) * | 2007-03-16 | 2008-10-02 | Mazda Motor Corp | Vehicle drive supporting system |
JP2011119786A (en) * | 2009-11-30 | 2011-06-16 | Toshiba Corp | Information processor and content display control method |
JP2011227649A (en) * | 2010-04-19 | 2011-11-10 | Sony Corp | Image processing system, image processing device, image processing method and program |
JP2011245792A (en) * | 2010-05-28 | 2011-12-08 | Riso Kagaku Corp | Image forming system |
JP2012155654A (en) * | 2011-01-28 | 2012-08-16 | Sony Corp | Information processing device, notification method, and program |
JP2012155655A (en) * | 2011-01-28 | 2012-08-16 | Sony Corp | Information processing device, notification method, and program |
JP2013054661A (en) * | 2011-09-06 | 2013-03-21 | Nec Biglobe Ltd | Information display system, information display method and program for information display |
US20130141576A1 (en) * | 2011-12-01 | 2013-06-06 | Richard T. Lord | Determining threats based on information from road-based devices in a transportation-related context |
US20130194164A1 (en) * | 2012-01-27 | 2013-08-01 | Ben Sugden | Executable virtual objects associated with real objects |
JP2013162285A (en) * | 2012-02-03 | 2013-08-19 | Sony Corp | Information processing device, information processing method, and program |
JP2013190941A (en) * | 2012-03-13 | 2013-09-26 | Nikon Corp | Information input output device, and head-mounted display device |
US20130328928A1 (en) * | 2012-06-12 | 2013-12-12 | Sony Computer Entertainment Inc. | Obstacle avoidance apparatus and obstacle avoidance method |
JP2013257716A (en) * | 2012-06-12 | 2013-12-26 | Sony Computer Entertainment Inc | Obstacle avoiding device and obstacle avoidance method |
WO2014097413A1 (en) * | 2012-12-19 | 2014-06-26 | 株式会社日立製作所 | Operation support terminal and operation support system |
JP2014142751A (en) * | 2013-01-23 | 2014-08-07 | Seiko Epson Corp | Display device, head-mounted type display device, and method for controlling display device |
JP2014146871A (en) * | 2013-01-28 | 2014-08-14 | Olympus Corp | Wearable display device and program |
JP2014145734A (en) * | 2013-01-30 | 2014-08-14 | Nikon Corp | Information input/output device, and information input/output method |
US20140225918A1 (en) * | 2013-02-14 | 2014-08-14 | Qualcomm Incorporated | Human-body-gesture-based region and volume selection for hmd |
JP2015125464A (en) * | 2013-12-25 | 2015-07-06 | Kddi株式会社 | Wearable device |
JP2016130985A (en) * | 2015-01-15 | 2016-07-21 | セイコーエプソン株式会社 | Head-mounted display device, method for controlling head-mounted display device, computer program |
JP2016194763A (en) * | 2015-03-31 | 2016-11-17 | 富士通株式会社 | Image processing apparatus, image processing program, and image processing method |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019537087A (en) * | 2016-09-30 | 2019-12-19 | 株式会社ソニー・インタラクティブエンタテインメント | A method for providing interactive content in a virtual reality scene for safely guiding an HMD user in a real world space |
US11036351B2 (en) | 2017-08-04 | 2021-06-15 | Sony Corporation | Information processing device and information processing method |
WO2019026713A1 (en) * | 2017-08-04 | 2019-02-07 | ソニー株式会社 | Information processing device, information processing method, and program |
WO2019220495A1 (en) * | 2018-05-14 | 2019-11-21 | 株式会社ソニー・インタラクティブエンタテインメント | Information processing device |
WO2019220758A1 (en) * | 2018-05-14 | 2019-11-21 | 株式会社ソニー・インタラクティブエンタテインメント | Information processing device |
JP2019075126A (en) * | 2018-11-13 | 2019-05-16 | 富士ゼロックス株式会社 | Information processing device and program |
CN114207671A (en) * | 2019-08-09 | 2022-03-18 | 索尼集团公司 | Image processing device, image processing method and program |
WO2021029164A1 (en) * | 2019-08-09 | 2021-02-18 | ソニー株式会社 | Image processing device, image processing method, and program |
US12190579B2 (en) | 2019-08-09 | 2025-01-07 | Sony Group Corporation | Image processing apparatus, image processing method, and program |
JP7559758B2 (en) | 2019-08-09 | 2024-10-02 | ソニーグループ株式会社 | Image processing device, image processing method, and program |
WO2021131023A1 (en) * | 2019-12-27 | 2021-07-01 | マクセル株式会社 | Head-mounted information output device |
JP7376616B2 (en) | 2019-12-27 | 2023-11-08 | マクセル株式会社 | Head-mounted information output device |
JPWO2021131023A1 (en) * | 2019-12-27 | 2021-07-01 | ||
WO2021230048A1 (en) * | 2020-05-15 | 2021-11-18 | 株式会社Nttドコモ | Information processing system |
JP7402322B2 (en) | 2020-05-15 | 2023-12-20 | 株式会社Nttドコモ | information processing system |
JPWO2021230048A1 (en) * | 2020-05-15 | 2021-11-18 | ||
WO2023074148A1 (en) * | 2021-10-26 | 2023-05-04 | ソニーグループ株式会社 | Information processing device, information processing method, and program |
CN114240444A (en) * | 2021-12-17 | 2022-03-25 | 支付宝(杭州)信息技术有限公司 | Face brushing payment method and device and face brushing payment equipment |
WO2023210158A1 (en) * | 2022-04-28 | 2023-11-02 | 株式会社Nttドコモ | Eyeglass-type display device and display system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10303435B2 (en) | Head-mounted display device, method of controlling head-mounted display device, and computer program | |
US10297062B2 (en) | Head-mounted display device, control method for head-mounted display device, and computer program | |
US9898868B2 (en) | Display device, method of controlling the same, and program | |
US10627620B2 (en) | Head-mounted display device, method of controlling head-mounted display device, and computer program | |
JP6492673B2 (en) | Head-mounted display device, method for controlling head-mounted display device, computer program | |
JP6237000B2 (en) | Head-mounted display device | |
US10140768B2 (en) | Head mounted display, method of controlling head mounted display, and computer program | |
US10635182B2 (en) | Head mounted display device and control method for head mounted display device | |
JP2017091433A (en) | Head-mounted display device, method for controlling head-mounted display device, computer program | |
JP6217244B2 (en) | Image processing apparatus, head-mounted display apparatus having the same, image processing method, and computer program | |
JP2016004340A (en) | Information distribution system, head-mounted type display device, control method of head-mounted type display device and computer program | |
US9799144B2 (en) | Head mounted display, and control method for head mounted display | |
JP6303274B2 (en) | Head-mounted display device and method for controlling head-mounted display device | |
US20160070101A1 (en) | Head mounted display device, control method for head mounted display device, information system, and computer program | |
JP2016224086A (en) | Display device, control method of display device and program | |
WO2016079950A1 (en) | Information processing device, method for controlling information processing device, and computer program | |
JP2016024208A (en) | Display device, method for controlling display device, and program | |
JP6711379B2 (en) | Head-mounted display, computer program | |
JP6582403B2 (en) | Head-mounted display device, method for controlling head-mounted display device, computer program | |
JP6394108B2 (en) | Head-mounted display device, control method therefor, and computer program | |
KR20240009984A (en) | Contextual visual and voice search from electronic eyewear devices | |
JP2016092567A (en) | Head-mounted display device, control method for head-mounted display device, and computer program | |
JP2016142966A (en) | Head-mounted display device, information processing device, image display device, image display system, method of sharing displayed images of head-mounted display device, and computer program | |
JP2016212769A (en) | Display device, control method for the same and program | |
JP6394174B2 (en) | Head-mounted display device, image display system, method for controlling head-mounted display device, and computer program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181012 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190521 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190522 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190717 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190730 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190925 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20191015 |