Nothing Special   »   [go: up one dir, main page]

JP6488786B2 - Head-mounted display device, head-mounted display device control method, and computer program - Google Patents

Head-mounted display device, head-mounted display device control method, and computer program Download PDF

Info

Publication number
JP6488786B2
JP6488786B2 JP2015052816A JP2015052816A JP6488786B2 JP 6488786 B2 JP6488786 B2 JP 6488786B2 JP 2015052816 A JP2015052816 A JP 2015052816A JP 2015052816 A JP2015052816 A JP 2015052816A JP 6488786 B2 JP6488786 B2 JP 6488786B2
Authority
JP
Japan
Prior art keywords
image
display
visual field
unit
head
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015052816A
Other languages
Japanese (ja)
Other versions
JP2016173693A (en
Inventor
健郎 矢島
健郎 矢島
勇一 毛利
勇一 毛利
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2015052816A priority Critical patent/JP6488786B2/en
Priority to CN201610146097.6A priority patent/CN105988219B/en
Priority to CN202011123958.1A priority patent/CN112130329B/en
Priority to US15/070,469 priority patent/US9977241B2/en
Publication of JP2016173693A publication Critical patent/JP2016173693A/en
Priority to US15/964,843 priority patent/US10175484B2/en
Application granted granted Critical
Publication of JP6488786B2 publication Critical patent/JP6488786B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Position Input By Displaying (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、頭部装着型表示装置の技術に関する。   The present invention relates to a head-mounted display device.

頭部に装着する表示装置である頭部装着型表示装置(ヘッドマウントディスプレイ(Head Mounted Display)、HMD)が知られている。頭部装着型表示装置は、例えば、液晶ディスプレイおよび光源を利用して画像を表わす画像光を生成し、生成された画像光を投写光学系や導光板を利用して使用者の眼に導くことにより、使用者に虚像を視認させる。頭部装着型表示装置には、使用者が虚像に加えて外景も視認可能な透過型と、使用者が外景を視認できない非透過型と、の2つのタイプがある。透過型の頭部装着型表示装置には、光学透過型とビデオ透過型とがある。   A head-mounted display device (Head Mounted Display, HMD) that is a display device mounted on the head is known. The head-mounted display device, for example, generates image light representing an image using a liquid crystal display and a light source, and guides the generated image light to a user's eye using a projection optical system or a light guide plate This causes the user to visually recognize the virtual image. There are two types of head-mounted display devices: a transmission type in which the user can visually recognize the outside scene in addition to a virtual image, and a non-transmission type in which the user cannot visually recognize the outside scene. The transmissive head-mounted display device includes an optical transmissive type and a video transmissive type.

特許文献1には、使用者の視野を2つ以上の領域に分割し、分割した領域ごとに対応させた仮想画像を表示させる頭部装着型表示装置が記載されている。また、特許文献2には、検出された使用者の視線位置の近傍に入力を補助するためのガイド情報を示す画像を表示させるマルチモーダル・インターフェース(multimodal interface)が記載されている。また、特許文献3には、使用者の歩行などの移動状態に合わせて変化する使用者の注視点までの距離と同じ位置に、使用者に視認される画像を表示させる頭部装着型表示装置が記載されている。   Patent Document 1 describes a head-mounted display device that divides a user's field of view into two or more regions and displays a virtual image corresponding to each divided region. Further, Patent Document 2 describes a multimodal interface that displays an image indicating guide information for assisting input in the vicinity of a detected user's line-of-sight position. Patent Document 3 discloses a head-mounted display device that displays an image visually recognized by the user at the same position as the distance to the user's point of gaze that changes in accordance with the movement state of the user such as walking. Is described.

特表2014−526157号公報Special table 2014-526157 gazette 特開平11−54778号公報Japanese Patent Laid-Open No. 11-54778 特開2014−225727号公報JP 2014-225727 A

しかし、特許文献1に記載された技術では、分割された領域に表示される仮想画像が多い場合には、仮想画像を表示させるための処理の負担が大きく、仮想画像の表示に遅れを生じるおそれがあった。また、特許文献2,3に記載された技術でも、表示される画像の容量が大きい場合には、画像を表示させるための処理の負担が大きい場合があった。そのほか、従来の頭部装着型表示装置の技術においては、その小型化や、低コスト化、製造の容易化、使い勝手の向上等が望まれていた。   However, in the technique described in Patent Document 1, when there are many virtual images displayed in the divided areas, the processing load for displaying the virtual images is heavy, and there is a risk of delaying the display of the virtual images. was there. Further, even in the techniques described in Patent Documents 2 and 3, when the capacity of an image to be displayed is large, the processing load for displaying the image may be large. In addition, in the technology of the conventional head-mounted display device, it has been desired to reduce the size, reduce the cost, facilitate the manufacturing, improve the usability, and the like.

本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の形態として実現することが可能である。
本発明の一形態によれば、頭部装着型表示装置が提供される。この頭部装着型表示装置は、画像を表示領域に表示可能な画像表示部と、使用者の視線方向を特定する視線方向特定部と、特定された前記視線方向に応じて、前記表示領域に表示される表示画像を変更する画像変更部と、を備え、前記画像変更部は、前記表示画像が使用者に三次元画像として視認される画像の場合には、特定された前記視線方向を含む第3の視野範囲では前記表示画像を三次元画像として前記表示領域に表示させ、前記第3の視野範囲よりも大きい範囲であると共に前記第3の視野範囲を含まない第4の視野範囲に表示では前記表示画像を二次元画像として使用者に視認されるように前記表示領域に表示させる。
この形態の頭部装着型表示装置によれば、使用者が視認している位置に応じて、画像の表示態様を変更することで、使用者の表示画像に対する視認性を低下させずに、画像を表示させるための処理の負担を低減できる。また、使用者が表示画像までの距離を認識しづらい視野範囲において二次元画像を表示領域に表示させるため、対応画像を視認する使用者の認識のしやすさを低減させないで、画像を表示させる処理の速度をより向上させることができる。
また、本発明の他の一形態によれば、頭部装着型表示装置が提供される。この頭部装着型表示装置は、画像を表示領域に表示可能な画像表示部と、使用者の視線方向を特定する視線方向特定部と、特定された前記視線方向に応じて、前記表示領域に表示される表示画像を変更する画像変更部と、を備え、前記画像変更部は、前記表示画像が複数の色の情報を含む画像である場合には、特定された前記視線方向を含む第5の視野範囲では前記表示画像を複数の色の情報を含む画像として前記表示領域に表示させ、前記第5の視野範囲よりも大きい範囲であると共に前記第5の視野範囲を含まない第6の視野範囲では前記表示画像を単色の濃淡を用いて前記表示領域に表示させる。
この形態の頭部装着型表示装置によれば、使用者が視認している位置に応じて、画像の表示態様を変更することで、使用者の表示画像に対する視認性を低下させずに、画像を表示させるための処理の負担を低減できる。また、画像を視認する使用者の認識のしやすさを低減させないで、画像を表示させる処理の速度をより向上させることができる。
その他、本発明は、以下の形態としても実現することが可能である。
SUMMARY An advantage of some aspects of the invention is to solve at least a part of the problems described above, and the invention can be implemented as the following forms.
According to one aspect of the present invention, a head-mounted display device is provided. The head-mounted display device includes an image display unit capable of displaying an image in a display area, a line-of-sight direction specifying unit for specifying a user's line-of-sight direction, and the display area according to the specified line-of-sight direction. An image change unit that changes a display image to be displayed, and the image change unit includes the specified line-of-sight direction when the display image is an image that is visually recognized by a user as a three-dimensional image. In the third visual field range, the display image is displayed as a three-dimensional image in the display region, and is displayed in a fourth visual field range that is larger than the third visual field range and does not include the third visual field range. Then, the display image is displayed in the display area so as to be visually recognized by the user as a two-dimensional image.
According to the head-mounted display device of this embodiment, the image display mode is changed according to the position that the user is viewing, without reducing the visibility of the display image of the user. It is possible to reduce the burden of processing for displaying. In addition, since the two-dimensional image is displayed in the display area in the field of view where it is difficult for the user to recognize the distance to the display image, the image is displayed without reducing the ease of recognition by the user who visually recognizes the corresponding image. The processing speed can be further improved.
According to another embodiment of the present invention, a head-mounted display device is provided. The head-mounted display device includes an image display unit capable of displaying an image in a display area, a line-of-sight direction specifying unit for specifying a user's line-of-sight direction, and the display area according to the specified line-of-sight direction. An image change unit that changes a display image to be displayed, and the image change unit includes a fifth line that includes the identified line-of-sight direction when the display image is an image including information of a plurality of colors. In the visual field range, the display image is displayed on the display area as an image including information of a plurality of colors, and is a sixth visual field that is larger than the fifth visual field range and does not include the fifth visual field range. In the range, the display image is displayed in the display area using a single color shading.
According to the head-mounted display device of this embodiment, the image display mode is changed according to the position that the user is viewing, without reducing the visibility of the display image of the user. It is possible to reduce the burden of processing for displaying. In addition, the processing speed for displaying an image can be further improved without reducing the ease of recognition by a user who visually recognizes the image.
In addition, the present invention can be realized as the following forms.

(1)本発明の一形態によれば、頭部装着型表示装置が提供される。この頭部装着型表示装置は、画像を表示領域に表示可能な画像表示部と;使用者の視線方向を特定する視線方向特定部と;特定された前記視線方向に応じて、前記表示領域に表示される表示画像を変更する画像変更部と、を備える。この形態の頭部装着型表示装置によれば、使用者が視認している位置に応じて、画像の表示態様を変更することで、使用者の表示画像に対する視認性を低下させずに、画像を表示させるための処理の負担を低減できる。 (1) According to one aspect of the present invention, a head-mounted display device is provided. The head-mounted display device includes an image display unit capable of displaying an image in a display area; a line-of-sight direction specifying unit that specifies a user's line-of-sight direction; and the display area according to the specified line-of-sight direction. An image changing unit that changes a displayed display image. According to the head-mounted display device of this embodiment, the image display mode is changed according to the position that the user is viewing, without reducing the visibility of the display image of the user. It is possible to reduce the burden of processing for displaying.

(2)上記形態の頭部装着型表示装置において、前記画像変更部は、特定された前記視線方向に応じて変化する使用者の視覚特性に対応させて前記表示画像を変更してもよい。この形態の頭部装着型表示装置によれば、画像を視認する使用者の認識などの視覚特性を損なわないで、画像を表示させる処理の速度を向上させることができる。 (2) In the head-mounted display device according to the above aspect, the image change unit may change the display image in accordance with a visual characteristic of a user that changes in accordance with the identified line-of-sight direction. According to the head-mounted display device of this aspect, it is possible to improve the processing speed for displaying an image without impairing visual characteristics such as recognition of a user who visually recognizes the image.

(3)上記形態の頭部装着型表示装置において、前記画像変更部は、前記表示領域の一部に前記表示画像を表示する場合に、前記表示画像の位置と前記視線方向とに応じて、前記表示画像を変更してもよい。この形態の頭部装着型表示装置によれば、画像を視認する使用者の認識のしやすさを低減させないで、画像を表示させる処理の速度を向上させることができる。 (3) In the head-mounted display device according to the above aspect, when the display image is displayed on a part of the display area, the image change unit, depending on the position of the display image and the line-of-sight direction, The display image may be changed. According to the head-mounted display device of this aspect, it is possible to improve the processing speed for displaying an image without reducing the ease of recognition by a user who visually recognizes the image.

(4)上記形態の頭部装着型表示装置において、前記画像表示部は、外景を透過可能であり;前記頭部装着型表示装置は、さらに;前記外景を撮像する外景撮像部を備え;前記画像変更部は、撮像された前記外景の画像の中から特定対象物を検出し、検出した特定対象物の位置に対応付けて前記表示画像の位置を設定してもよい。この形態の頭部装着型表示装置によれば、特定対象物と表示される画像との対応関係について、よりわかりやすく使用者に視認させることができ、使用者の使い勝手が向上する。 (4) In the head-mounted display device of the above aspect, the image display unit can transmit an outside scene; the head-mounted display device further includes an outside scene imaging unit that images the outside scene; The image changing unit may detect the specific object from the captured image of the outside scene and set the position of the display image in association with the detected position of the specific object. According to this type of head-mounted display device, the correspondence between the specific object and the displayed image can be more easily recognized by the user, and the usability of the user is improved.

(5)上記形態の頭部装着型表示装置において、前記視線方向特定部は、前記画像表示部の向きを検出する表示部方向検出部を有し、検出された前記画像表示部の向きに基づいて前記視線方向を特定してもよい。この形態の頭部装着型表示装置によれば、例えば、使用者の眼を撮像するような装置を使用せずに、簡便に安価に使用者の視線方向を特定できる。 (5) In the head-mounted display device of the above aspect, the line-of-sight direction specifying unit includes a display unit direction detection unit that detects the direction of the image display unit, and is based on the detected direction of the image display unit. The line-of-sight direction may be specified. According to this form of the head-mounted display device, for example, the user's line-of-sight direction can be specified easily and inexpensively without using a device that images the user's eyes.

(6)上記形態の頭部装着型表示装置において、前記視線方向特定部は、使用者の眼を撮像する眼撮像部を有し、撮像された使用者の眼の画像に基づいて、前記視線方向を特定してもよい。この形態の頭部装着型表示装置によれば、使用者の視線方向を精度良く特定できる。 (6) In the head-mounted display device according to the above aspect, the line-of-sight direction specifying unit includes an eye imaging unit that images a user's eyes, and the line of sight is based on the captured image of the user's eyes. The direction may be specified. According to this form of the head-mounted display device, the user's line-of-sight direction can be accurately identified.

(7)上記形態の頭部装着型表示装置において、前記画像変更部は、前記表示画像が文字画像を含む場合には、特定された前記視線方向を含む第1の視野範囲では前記文字画像を前記表示画像として前記表示領域に表示させ、前記第1の視野範囲よりも大きい範囲であると共に前記第1の視野範囲を含まない第2の視野範囲では前記文字画像を前記表示画像として前記表示領域に表示させなくてもよい。この形態の頭部装着型表示装置によれば、使用者が文字を認識しづらい視野範囲では文字画像を含まない画像が表示領域に表示されるため、画像を視認する使用者の認識のしやすさをより低減させないで、画像を表示させる処理の速度を向上させることができる。 (7) In the head-mounted display device according to the above aspect, when the display image includes a character image, the image changing unit displays the character image in the first visual field range including the specified line-of-sight direction. The display image is displayed in the display area as the display image, and the character image is used as the display image in the second visual field range that is larger than the first visual field range and does not include the first visual field range. Does not have to be displayed. According to this type of head-mounted display device, an image that does not include a character image is displayed in the display area in a visual field range in which it is difficult for the user to recognize the character. The speed of processing for displaying an image can be improved without further reducing the image quality.

(8)上記形態の頭部装着型表示装置において、前記画像変更部は、前記表示画像が使用者に三次元画像として視認される画像の場合には、特定された前記視線方向を含む第3の視野範囲では前記表示画像を三次元画像として前記表示領域に表示させ、前記第3の視野範囲よりも大きい範囲であると共に前記第3の視野範囲を含まない第4の視野範囲に表示では前記表示画像を二次元画像として使用者に視認されるように前記表示領域に表示させてもよい。この形態の頭部装着型表示装置によれば、使用者が表示画像までの距離を認識しづらい視野範囲において二次元画像を表示領域に表示させるため、対応画像を視認する使用者の認識のしやすさを低減させないで、画像を表示させる処理の速度をより向上させることができる。 (8) In the head-mounted display device according to the above aspect, the image changing unit includes a third line of sight that includes the specified line-of-sight direction when the display image is an image that is visually recognized by a user as a three-dimensional image. In the visual field range, the display image is displayed as a three-dimensional image in the display region, and is displayed in a fourth visual field range that is larger than the third visual field range and does not include the third visual field range. The display image may be displayed in the display area so as to be visually recognized by the user as a two-dimensional image. According to this type of head-mounted display device, since the two-dimensional image is displayed in the display area in the visual field range in which it is difficult for the user to recognize the distance to the display image, the user who recognizes the corresponding image is recognized. The speed of processing for displaying an image can be further improved without reducing the ease.

(9)上記形態の頭部装着型表示装置において、前記画像変更部は、前記表示画像が複数の色の情報を含む画像である場合には、特定された前記視線方向を含む第5の視野範囲では前記表示画像を複数の色の情報を含む画像として前記表示領域に表示させ、前記第5の視野範囲よりも大きい範囲であると共に前記第5の視野範囲を含まない第6の視野範囲では前記表示画像を単色の濃淡を用いて前記表示領域に表示させてもよい。この形態の頭部装着型表示装置によれば、画像を視認する使用者の認識のしやすさを低減させないで、画像を表示させる処理の速度をより向上させることができる。 (9) In the head-mounted display device according to the above aspect, when the display image is an image including information of a plurality of colors, the image change unit includes a fifth field of view including the specified line-of-sight direction. In the range, the display image is displayed in the display area as an image including information of a plurality of colors. In the sixth field range that is larger than the fifth field range and does not include the fifth field range. The display image may be displayed in the display area using a single color shade. According to the head-mounted display device of this aspect, it is possible to further improve the processing speed for displaying an image without reducing the ease of recognition by a user who visually recognizes the image.

(10)上記形態の頭部装着型表示装置において、前記画像変更部は、前記第6の視野範囲では、前記表示画像の輪郭のみを前記表示領域に表示させてもよい。この形態の頭部装着型表示装置によれば、使用者が色情報を認識しづらい範囲においては画像の外枠のみを表示させので、対応画像を視認する使用者の認識のしやすさを低減させないで、画像を表示させる処理の速度をより向上させることができる。 (10) In the head-mounted display device according to the above aspect, the image changing unit may display only the outline of the display image in the display area in the sixth visual field range. According to this form of the head-mounted display device, only the outer frame of the image is displayed in a range where it is difficult for the user to recognize the color information, thereby reducing the ease of recognition by the user viewing the corresponding image. Without this, the processing speed for displaying an image can be further improved.

(11)上記形態の頭部装着型表示装置において、前記画像変更部は、特定された前記視線方向を含む第7の視野範囲よりも大きい範囲であると共に前記第7の視野範囲を含まない第8の視野範囲では、前記表示画像を前記第7の視野範囲に表示される画像よりも簡略化した簡易画像として前記表示領域に表示させてもよい。この形態の頭部装着型表示装置によれば、使用者が表示画像の詳細な内容までを認識できない視野範囲では画像があることだけを示す簡略化した画像のみが表示領域に表示されるため、対応画像を視認する使用者の認識のしやすさを低減させないで、対応画像を表示させる処理の速度をより向上させることができる。 (11) In the head-mounted display device according to the above aspect, the image changing unit is a range that is larger than a seventh visual field range including the identified line-of-sight direction and does not include the seventh visual field range. In the visual field range of 8, the display image may be displayed in the display region as a simplified image that is simpler than the image displayed in the seventh visual field range. According to the head-mounted display device of this form, only a simplified image indicating that there is an image is displayed in the display area in the visual field range where the user cannot recognize the detailed contents of the display image. The speed of the process for displaying the corresponding image can be further improved without reducing the ease of recognition by the user who visually recognizes the corresponding image.

上述した本発明の各形態の有する複数の構成要素はすべてが必須のものではなく、上述の課題の一部または全部を解決するため、あるいは、本明細書に記載された効果の一部または全部を達成するために、適宜、前記複数の構成要素の一部の構成要素について、その変更、削除、新たな他の構成要素との差し替え、限定内容の一部削除を行なうことが可能である。また、上述の課題の一部または全部を解決するため、あるいは、本明細書に記載された効果の一部または全部を達成するために、上述した本発明の一形態に含まれる技術的特徴の一部または全部を上述した本発明の他の形態に含まれる技術的特徴の一部または全部と組み合わせて、本発明の独立した一形態とすることも可能である。   A plurality of constituent elements of each embodiment of the present invention described above are not essential, and some or all of the effects described in the present specification are to be solved to solve part or all of the above-described problems. In order to achieve the above, it is possible to appropriately change, delete, replace with another new component, and partially delete the limited contents of some of the plurality of components. In order to solve some or all of the above-described problems or achieve some or all of the effects described in this specification, technical features included in one embodiment of the present invention described above. A part or all of the technical features included in the other aspects of the present invention described above may be combined to form an independent form of the present invention.

例えば、本発明の一形態は、画像表示部と、視線方向特定部と、画像変更部と、の3つ要素の内の一部または全部の要素を備えた装置として実現可能である。すなわち、この装置は、画像表示部を有していてもよく、有していなくてもよい。また、装置は、視線方向特定部を有していてもよく、有していなくてもよい。また、装置は、画像変更部を有していてもよく、有していなくてもよい。画像表示部は、例えば、画像を表示領域に表示可能であってもよい。視線方向特定部は、例えば、使用者の視線方向を特定してもよい。画像変更部は、例えば、特定された前記視線方向に応じて、前記表示領域に表示される表示画像を変更してもよい。こうした装置は、例えば、頭部装着型表示装置として実現できるが、頭部装着型表示装置以外の他の装置としても実現可能である。このような形態によれば、装置の操作性の向上および簡易化、装置の一体化や、装置を使用する使用者の利便性の向上、等の種々の課題の少なくとも1つを解決することができる。前述した頭部装着型表示装置の各形態の技術的特徴の一部または全部は、いずれもこの装置に適用することが可能である。   For example, one embodiment of the present invention can be realized as an apparatus including some or all of the three elements of the image display unit, the line-of-sight direction specifying unit, and the image changing unit. That is, this apparatus may or may not have an image display unit. In addition, the device may or may not have a line-of-sight direction specifying unit. Further, the apparatus may or may not have an image changing unit. The image display unit may be capable of displaying an image in a display area, for example. The line-of-sight direction specifying unit may specify the line-of-sight direction of the user, for example. For example, the image changing unit may change the display image displayed in the display area in accordance with the identified line-of-sight direction. Such a device can be realized as, for example, a head-mounted display device, but can also be realized as a device other than the head-mounted display device. According to such a form, it is possible to solve at least one of various problems such as improvement and simplification of the operability of the device, integration of the device, and improvement of convenience of the user who uses the device. it can. Any or all of the technical features of each form of the head-mounted display device described above can be applied to this device.

本発明は、頭部装着型表示装置以外の種々の形態で実現することも可能である。例えば、表示装置、頭部装着型表示装置および表示装置の制御方法、制御システム、頭部装着型表示システム、表示装置、制御システムおよび表示装置の機能を実現するためのコンピュータープログラム、そのコンピュータープログラムを記録した記録媒体、そのコンピュータープログラムを含み搬送波内に具現化されたデータ信号等の形態で実現できる。   The present invention can also be realized in various forms other than the head-mounted display device. For example, a display device, a head-mounted display device, a control method for the display device, a control system, a head-mounted display system, a display device, a computer program for realizing the functions of the control system and the display device, and the computer program It can be realized in the form of a recorded recording medium, a data signal including the computer program and embodied in a carrier wave.

本実施形態における頭部装着型表示装置(HMD)の外観構成を示す説明図である。It is explanatory drawing which shows the external appearance structure of the head mounted display apparatus (HMD) in this embodiment. 本実施形態におけるHMDの構成を機能的に示すブロック図である。It is a block diagram which shows the structure of HMD in this embodiment functionally. 注視点と使用者の視線方向と関係の説明図である。It is explanatory drawing of a relationship with a gaze point and a user's gaze direction. 注視点を中心とする水平視野および鉛直視野の概略図である。It is the schematic of a horizontal visual field and a vertical visual field centering on a gazing point. 水平視野における視野の範囲ごとの人間の認識の度合いを示す説明図である。It is explanatory drawing which shows the degree of human recognition for every visual field range in a horizontal visual field. 鉛直視野における視野の範囲ごとの人間の認識の度合いを示す説明図である。It is explanatory drawing which shows the degree of human recognition for every visual field range in a vertical visual field. 画像光生成部によって画像光が射出される様子を示す説明図である。It is explanatory drawing which shows a mode that image light is inject | emitted by the image light production | generation part. 画像表示処理の流れを示すフローチャートである。It is a flowchart which shows the flow of an image display process. 対応画像の画像表示位置と区別された視野範囲との関係を示す説明図である。It is explanatory drawing which shows the relationship between the image display position of a corresponding image, and the visual field range distinguished. 対応画像が表示された場合の使用者の視野の一例を示す説明図である。It is explanatory drawing which shows an example of a user's visual field when a corresponding image is displayed. カメラの撮像範囲が変化した後の対応画像が表示された場合に使用者の視野の一例を示す説明図である。It is explanatory drawing which shows an example of a user's visual field when the corresponding image after the imaging range of a camera changes is displayed. 使用者の視線方向が変化した後の対応画像が表示された場合に使用者が視認する視野の一例を示す説明図である。It is explanatory drawing which shows an example of the visual field which a user visually recognizes when the corresponding image after a user's gaze direction changes is displayed. 本実施形態の変形例における使用者が視認する視野の一例を示す説明図である。It is explanatory drawing which shows an example of the visual field visually recognized by the user in the modification of this embodiment. 変形例における使用者が視認する視野の一例を示す説明図である。It is explanatory drawing which shows an example of the visual field visually recognized by the user in a modification. 対応画像が視野範囲に属する場合に使用者が視認する視野の一例を示す説明図である。It is explanatory drawing which shows an example of the visual field which a user visually recognizes when a corresponding image belongs to a visual field range. 変形例におけるHMDの外観構成を示す説明図である。It is explanatory drawing which shows the external appearance structure of HMD in a modification.

A.実施形態:
A−1.頭部装着型表示装置の構成:
図1は、本実施形態における頭部装着型表示装置100(HMD100)の外観構成を示す説明図である。HMD100は、頭部に装着する表示装置であり、ヘッドマウントディスプレイ(Head Mounted Display、HMD)とも呼ばれる。本実施形態のHMD100は、使用者が虚像を視認すると同時に外景も直接視認可能な光学透過型の頭部装着型表示装置である。なお、本明細書では、HMD100によって使用者が視認する虚像を便宜的に「表示画像」ともいう。
A. Embodiment:
A-1. Configuration of head mounted display device:
FIG. 1 is an explanatory diagram showing an external configuration of a head-mounted display device 100 (HMD 100) according to the present embodiment. The HMD 100 is a display device mounted on the head, and is also called a head mounted display (HMD). The HMD 100 according to the present embodiment is an optically transmissive head-mounted display device that allows a user to visually recognize a virtual image and at the same time visually recognize an outside scene. In this specification, a virtual image visually recognized by the user with the HMD 100 is also referred to as a “display image” for convenience.

HMD100は、使用者の頭部に装着された状態において使用者に虚像を視認させる画像表示部20と、画像表示部20を制御する制御部10(コントローラー10)と、を備えている。   The HMD 100 includes an image display unit 20 that allows a user to visually recognize a virtual image while being mounted on the user's head, and a control unit 10 (controller 10) that controls the image display unit 20.

画像表示部20は、使用者の頭部に装着される装着体であり、本実施形態では眼鏡形状を有している。画像表示部20は、右保持部21と、右表示駆動部22と、左保持部23と、左表示駆動部24と、右光学像表示部26と、左光学像表示部28と、第1カメラ61と、第2カメラ62と、右眼撮像カメラ37と、左眼撮像カメラ38と、を含んでいる。右光学像表示部26および左光学像表示部28は、それぞれ、使用者が画像表示部20を装着した際に使用者の右および左の眼前に位置するように配置されている。右光学像表示部26の一端と左光学像表示部28の一端とは、使用者が画像表示部20を装着した際の使用者の眉間に対応する位置で、互いに接続されている。   The image display unit 20 is a mounting body that is mounted on the user's head, and has a glasses shape in the present embodiment. The image display unit 20 includes a right holding unit 21, a right display driving unit 22, a left holding unit 23, a left display driving unit 24, a right optical image display unit 26, a left optical image display unit 28, and a first optical display unit. The camera 61, the 2nd camera 62, the right eye imaging camera 37, and the left eye imaging camera 38 are included. The right optical image display unit 26 and the left optical image display unit 28 are arranged so as to be positioned in front of the right and left eyes of the user when the user wears the image display unit 20, respectively. One end of the right optical image display unit 26 and one end of the left optical image display unit 28 are connected to each other at a position corresponding to the eyebrow of the user when the user wears the image display unit 20.

右保持部21は、右光学像表示部26の他端である端部ERから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。同様に、左保持部23は、左光学像表示部28の他端である端部ELから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。右保持部21および左保持部23は、眼鏡のテンプル(つる)のようにして、使用者の頭部に画像表示部20を保持する。   The right holding unit 21 extends from the end ER which is the other end of the right optical image display unit 26 to a position corresponding to the user's temporal region when the user wears the image display unit 20. It is a member. Similarly, the left holding unit 23 extends from the end EL which is the other end of the left optical image display unit 28 to a position corresponding to the user's temporal region when the user wears the image display unit 20. It is a member provided. The right holding unit 21 and the left holding unit 23 hold the image display unit 20 on the user's head like a temple of glasses.

右表示駆動部22と左表示駆動部24とは、使用者が画像表示部20を装着した際の使用者の頭部に対向する側に配置されている。なお、以降では、右保持部21および左保持部23を総称して単に「保持部」とも呼び、右表示駆動部22および左表示駆動部24を総称して単に「表示駆動部」とも呼び、右光学像表示部26および左光学像表示部28を総称して単に「光学像表示部」とも呼ぶ。   The right display drive unit 22 and the left display drive unit 24 are disposed on the side facing the user's head when the user wears the image display unit 20. Hereinafter, the right holding unit 21 and the left holding unit 23 are collectively referred to simply as “holding unit”, and the right display driving unit 22 and the left display driving unit 24 are collectively referred to simply as “display driving unit”. The right optical image display unit 26 and the left optical image display unit 28 are collectively referred to simply as “optical image display unit”.

表示駆動部22,24は、液晶ディスプレイ241,242(Liquid Crystal Display、以下「LCD241,242」とも呼ぶ)や投写光学系251,252等を含む(図2参照)。表示駆動部22,24の構成の詳細は後述する。光学部材としての光学像表示部26,28は、導光板261,262(図2参照)と調光板とを含んでいる。導光板261,262は、光透過性の樹脂材料等によって形成され、表示駆動部22,24から出力された画像光を使用者の眼に導く。調光板は、薄板状の光学素子であり、使用者の眼の側とは反対の側である画像表示部20の表側を覆うように配置されている。調光板は、導光板261,262を保護し、導光板261,262の損傷や汚れの付着等を抑制する。また、調光板の光透過率を調整することによって、使用者の眼に入る外光量を調整して虚像の視認のしやすさを調整できる。なお、調光板は省略可能である。   The display driving units 22 and 24 include liquid crystal displays 241 and 242 (hereinafter referred to as “LCDs 241 and 242”), projection optical systems 251 and 252 (see FIG. 2). Details of the configuration of the display driving units 22 and 24 will be described later. The optical image display units 26 and 28 as optical members include light guide plates 261 and 262 (see FIG. 2) and a light control plate. The light guide plates 261 and 262 are formed of a light transmissive resin material or the like, and guide the image light output from the display driving units 22 and 24 to the eyes of the user. The light control plate is a thin plate-like optical element, and is arranged so as to cover the front side of the image display unit 20 which is the side opposite to the user's eye side. The light control plate protects the light guide plates 261 and 262 and suppresses damage to the light guide plates 261 and 262 and adhesion of dirt. In addition, by adjusting the light transmittance of the light control plate, it is possible to adjust the amount of external light entering the user's eyes and adjust the ease of visual recognition of the virtual image. The light control plate can be omitted.

第1カメラ61および第2カメラ62は、外景を撮像する。第1カメラ61と第2カメラ62とのそれぞれは、画像表示部20の異なる位置に配置されている。第1カメラ61は、右光学像表示部26の他端である端部ERにおいて、画像表示部20が使用者に装着された場合の使用者の頭部方向に配置されている。また、同じように、第2カメラ62は、左光学像表示部28の他端である端部ELにおいて、画像表示部20が使用者に装着された場合の使用者の頭部方向に配置されている。本実施形態では、第1カメラ61と第2カメラ62とのそれぞれは、画像表示部20の中心である右光学像表示部26の一端と左光学像表示部28の一端とが接続する位置を通る中心線に対して、線対称に配置されている。なお、以降では、第1カメラ61と第2カメラ62とを合わせて、単に、カメラ61,62とも呼ぶ。本実施形態では、第1カメラ61が画像表示部20に配置されている場所と、第2カメラ62が画像表示部20に配置されている場所と、が異なるため、第1カメラ61の撮像範囲と第2カメラ62の撮像範囲との両方に撮像されている対象までの距離を、三角法を用いて算出できる。なお、カメラ61,62は、請求項における外景撮像部に相当する。   The first camera 61 and the second camera 62 capture an outside scene. Each of the first camera 61 and the second camera 62 is disposed at a different position on the image display unit 20. The first camera 61 is arranged at the end ER, which is the other end of the right optical image display unit 26, in the direction of the user's head when the image display unit 20 is worn by the user. Similarly, the second camera 62 is arranged at the end EL, which is the other end of the left optical image display unit 28, in the direction of the user's head when the image display unit 20 is worn by the user. ing. In the present embodiment, each of the first camera 61 and the second camera 62 has a position where one end of the right optical image display unit 26 and one end of the left optical image display unit 28 that are the center of the image display unit 20 are connected. It is arranged symmetrically with respect to the passing center line. Hereinafter, the first camera 61 and the second camera 62 are also simply referred to as cameras 61 and 62. In the present embodiment, since the location where the first camera 61 is arranged in the image display unit 20 and the location where the second camera 62 is arranged in the image display unit 20 are different, the imaging range of the first camera 61 is different. And the distance to the object imaged in both the imaging range of the second camera 62 can be calculated using trigonometry. The cameras 61 and 62 correspond to the outside scene imaging unit in the claims.

右眼撮像カメラ37は、画像表示部20を装着した使用者の右眼を撮像するカメラである。同様に、左眼撮像カメラ38は、画像表示部20を装着した使用者の左眼を撮像するカメラである。右眼撮像カメラ37によって撮像された使用者の右眼の画像および左眼撮像カメラ38によって撮像された使用者の左眼の画像は、後述する方向特定部166が使用者の視線方向を特定するための処理に用いられる。なお、右眼撮像カメラ37および左眼撮像カメラ38は、単眼カメラであるが、ステレオカメラであってもよい。以降では、右眼撮像カメラ37および左眼撮像カメラ38を合わせて、眼撮像カメラ37,38とも呼ぶ。眼撮像カメラ37,38と後述する方向特定部166とは、請求項における視線方向特定部に相当する。また、眼撮像カメラ37,38は、請求項における眼撮像部に相当する。   The right eye imaging camera 37 is a camera that images the right eye of the user wearing the image display unit 20. Similarly, the left eye imaging camera 38 is a camera that images the left eye of the user wearing the image display unit 20. For the right eye image of the user captured by the right eye imaging camera 37 and the left eye image of the user captured by the left eye imaging camera 38, the direction specifying unit 166 described later specifies the direction of the user's line of sight. Used for processing. Note that the right-eye imaging camera 37 and the left-eye imaging camera 38 are monocular cameras, but may be stereo cameras. Hereinafter, the right eye imaging camera 37 and the left eye imaging camera 38 are also collectively referred to as eye imaging cameras 37 and 38. The eye imaging cameras 37 and 38 and a direction specifying unit 166 described later correspond to a line-of-sight direction specifying unit in the claims. The eye imaging cameras 37 and 38 correspond to the eye imaging unit in the claims.

画像表示部20は、さらに、画像表示部20を制御部10に接続するための接続部40を有している。接続部40は、制御部10に接続される本体コード48と、右コード42と、左コード44と、連結部材46と、を含んでいる。右コード42と左コード44とは、本体コード48が2本に分岐したコードである。右コード42は、右保持部21の延伸方向の先端部APから右保持部21の筐体内に挿入され、右表示駆動部22に接続されている。同様に、左コード44は、左保持部23の延伸方向の先端部APから左保持部23の筐体内に挿入され、左表示駆動部24に接続されている。連結部材46は、本体コード48と、右コード42および左コード44と、の分岐点に設けられ、イヤホンプラグ30を接続するためのジャックを有している。イヤホンプラグ30からは、右イヤホン32および左イヤホン34が延伸している。   The image display unit 20 further includes a connection unit 40 for connecting the image display unit 20 to the control unit 10. The connection unit 40 includes a main body cord 48, a right cord 42, a left cord 44, and a connecting member 46 that are connected to the control unit 10. The right cord 42 and the left cord 44 are codes in which the main body cord 48 is branched into two. The right cord 42 is inserted into the casing of the right holding unit 21 from the distal end AP in the extending direction of the right holding unit 21 and connected to the right display driving unit 22. Similarly, the left cord 44 is inserted into the housing of the left holding unit 23 from the distal end AP in the extending direction of the left holding unit 23 and connected to the left display driving unit 24. The connecting member 46 is provided at a branch point between the main body cord 48, the right cord 42 and the left cord 44, and has a jack for connecting the earphone plug 30. A right earphone 32 and a left earphone 34 extend from the earphone plug 30.

画像表示部20と制御部10とは、接続部40を介して各種信号の伝送を行なう。本体コード48における連結部材46とは反対側の端部と、制御部10と、のそれぞれには、互いに嵌合するコネクター(図示しない)が設けられている。本体コード48のコネクターと制御部10のコネクターとの嵌合/嵌合解除により、制御部10と画像表示部20とが接続されたり切り離されたりする。右コード42と、左コード44と、本体コード48とには、例えば、金属ケーブルや光ファイバーを採用できる。   The image display unit 20 and the control unit 10 transmit various signals via the connection unit 40. A connector (not shown) that fits each other is provided at each of the end of the main body cord 48 opposite to the connecting member 46 and the control unit 10. By fitting / releasing the connector of the main body cord 48 and the connector of the control unit 10, the control unit 10 and the image display unit 20 are connected or disconnected. For the right cord 42, the left cord 44, and the main body cord 48, for example, a metal cable or an optical fiber can be adopted.

制御部10は、HMD100を制御するための装置である。制御部10は、決定キー11と、点灯部12と、表示切替キー13と、トラックパッド14と、輝度切替キー15と、方向キー16と、メニューキー17と、電源スイッチ18と、を含んでいる。決定キー11は、押下操作を検出して、制御部10で操作された内容を決定する信号を出力する。点灯部12は、HMD100の動作状態を、その発光状態によって通知する。HMD100の動作状態としては、例えば、電源のON/OFF等がある。点灯部12としては、例えば、LEDが用いられる。表示切替キー13は、押下操作を検出して、例えば、コンテンツ動画の表示モードを3Dと2Dとに切り替える信号を出力する。トラックパッド14は、トラックパッド14の操作面上での使用者の指の操作を検出して、検出内容に応じた信号を出力する。トラックパッド14としては、静電式や圧力検出式、光学式といった種々のトラックパッドを採用できる。輝度切替キー15は、押下操作を検出して、画像表示部20の輝度を増減する信号を出力する。方向キー16は、上下左右方向に対応するキーへの押下操作を検出して、検出内容に応じた信号を出力する。電源スイッチ18は、スイッチのスライド操作を検出することで、HMD100の電源投入状態を切り替える。   The control unit 10 is a device for controlling the HMD 100. The control unit 10 includes a determination key 11, a lighting unit 12, a display switching key 13, a track pad 14, a luminance switching key 15, a direction key 16, a menu key 17, and a power switch 18. Yes. The determination key 11 detects a pressing operation and outputs a signal for determining the content operated by the control unit 10. The lighting unit 12 notifies the operation state of the HMD 100 according to the light emission state. The operation state of the HMD 100 includes, for example, power ON / OFF. For example, an LED is used as the lighting unit 12. The display switching key 13 detects a pressing operation and outputs a signal for switching the display mode of the content video between 3D and 2D, for example. The track pad 14 detects the operation of the user's finger on the operation surface of the track pad 14 and outputs a signal corresponding to the detected content. As the track pad 14, various track pads such as an electrostatic type, a pressure detection type, and an optical type can be adopted. The luminance switching key 15 detects a pressing operation and outputs a signal for increasing or decreasing the luminance of the image display unit 20. The direction key 16 detects a pressing operation on a key corresponding to the up / down / left / right direction, and outputs a signal corresponding to the detected content. The power switch 18 switches the power-on state of the HMD 100 by detecting a slide operation of the switch.

図2は、本実施形態におけるHMD100の構成を機能的に示すブロック図である。図2に示すように、制御部10は、記憶部120と、電源130と、無線通信部132と、操作部135と、CPU140と、インターフェイス180と、送信部51(Tx51)および送信部52(Tx52)と、を有している。操作部135は、使用者による操作を受け付け、決定キー11、表示切替キー13、トラックパッド14、輝度切替キー15、方向キー16、メニューキー17、電源スイッチ18、から構成されている。電源130は、HMD100の各部に電力を供給する。電源130としては、例えば二次電池を用いることができる。無線通信部132は、無線LANやブルートゥースといった所定の無線通信規格に則って、例えば、コンテンツサーバー、テレビ、パーソナルコンピューターといった他の機器との間で無線通信を行なう。   FIG. 2 is a block diagram functionally showing the configuration of the HMD 100 in the present embodiment. As illustrated in FIG. 2, the control unit 10 includes a storage unit 120, a power supply 130, a wireless communication unit 132, an operation unit 135, a CPU 140, an interface 180, a transmission unit 51 (Tx51), and a transmission unit 52 ( Tx52). The operation unit 135 receives an operation by the user and includes an enter key 11, a display switch key 13, a track pad 14, a luminance switch key 15, a direction key 16, a menu key 17, and a power switch 18. The power supply 130 supplies power to each part of the HMD 100. As the power supply 130, for example, a secondary battery can be used. The wireless communication unit 132 performs wireless communication with other devices such as a content server, a television, and a personal computer in accordance with a predetermined wireless communication standard such as a wireless LAN or Bluetooth.

記憶部120は、コンピュータープログラムを格納しているROMと、CPU140が種々のコンピュータープログラムの書き込みおよび読み取りを実行するときに用いられるRAMと、を有する。   The storage unit 120 includes a ROM that stores computer programs, and a RAM that is used when the CPU 140 executes writing and reading of various computer programs.

CPU140は、記憶部120のROMに格納されているコンピュータープログラムを読み出し、記憶部120のRAMに書き込みおよび読み取りを実行することにより、オペレーティングシステム150(OS150)、表示制御部190、音声処理部170、画像処理部160、画像設定部165、距離測定部168、および、方向特定部166として機能する。   The CPU 140 reads a computer program stored in the ROM of the storage unit 120 and writes and reads the computer program in the RAM of the storage unit 120, whereby the operating system 150 (OS 150), the display control unit 190, the audio processing unit 170, It functions as an image processing unit 160, an image setting unit 165, a distance measuring unit 168, and a direction specifying unit 166.

表示制御部190は、右表示駆動部22および左表示駆動部24を制御する制御信号を生成する。具体的には、表示制御部190は、制御信号により、右LCD制御部211による右LCD241の駆動ON/OFF、右バックライト制御部201による右バックライト221の駆動ON/OFF、左LCD制御部212による左LCD242の駆動ON/OFF、左バックライト制御部202による左バックライト222の駆動ON/OFFなど、を個別に制御する。これにより、表示制御部190は、右表示駆動部22および左表示駆動部24のそれぞれによる画像光の生成および射出を制御する。例えば、表示制御部190は、右表示駆動部22および左表示駆動部24の両方に画像光を生成させたり、一方のみに画像光を生成させたり、両方共に画像光を生成させなかったりする。なお、画像光を生成することを「画像を表示する」ともいう。   The display control unit 190 generates control signals for controlling the right display drive unit 22 and the left display drive unit 24. Specifically, the display control unit 190 controls driving of the right LCD 241 by the right LCD control unit 211, driving ON / OFF of the right backlight 221 by the right backlight control unit 201, and left LCD control unit according to control signals. The left LCD 242 driving ON / OFF by 212, the left backlight 222 driving ON / OFF by the left backlight control unit 202, and the like are individually controlled. Thus, the display control unit 190 controls the generation and emission of image light by the right display driving unit 22 and the left display driving unit 24, respectively. For example, the display control unit 190 may cause both the right display driving unit 22 and the left display driving unit 24 to generate image light, generate only one image light, or neither may generate image light. Note that generating image light is also referred to as “displaying an image”.

表示制御部190は、右LCD制御部211と左LCD制御部212とに対する制御信号のそれぞれを、送信部51および52を介して送信する。また、表示制御部190は、右バックライト制御部201と左バックライト制御部202とに対する制御信号のそれぞれを送信する。   The display control unit 190 transmits control signals for the right LCD control unit 211 and the left LCD control unit 212 via the transmission units 51 and 52, respectively. In addition, the display control unit 190 transmits control signals to the right backlight control unit 201 and the left backlight control unit 202, respectively.

画像処理部160は、コンテンツに含まれる画像信号を取得する。画像処理部160は、取得した画像信号から、垂直同期信号VSyncや水平同期信号HSync等の同期信号を分離する。また、画像処理部160は、分離した垂直同期信号VSyncや水平同期信号HSyncの周期に応じて、PLL(Phase Locked Loop)回路等(図示しない)を利用してクロック信号PCLKを生成する。画像処理部160は、同期信号が分離されたアナログ画像信号を、A/D変換回路等(図示しない)を用いてディジタル画像信号に変換する。その後、画像処理部160は、変換後のディジタル画像信号を、対象画像の画像データ(RGBデータ)として、1フレームごとに記憶部120内のDRAMに格納する。なお、画像処理部160は、必要に応じて、画像データに対して、解像度変換処理、輝度、彩度の調整といった種々の色調補正処理、キーストーン補正処理等の画像処理を実行してもよい。   The image processing unit 160 acquires an image signal included in the content. The image processing unit 160 separates synchronization signals such as the vertical synchronization signal VSync and the horizontal synchronization signal HSync from the acquired image signal. Further, the image processing unit 160 generates a clock signal PCLK using a PLL (Phase Locked Loop) circuit or the like (not shown) according to the period of the separated vertical synchronization signal VSync and horizontal synchronization signal HSync. The image processing unit 160 converts the analog image signal from which the synchronization signal is separated into a digital image signal using an A / D conversion circuit or the like (not shown). Thereafter, the image processing unit 160 stores the converted digital image signal as image data (RGB data) of the target image in the DRAM in the storage unit 120 for each frame. Note that the image processing unit 160 may execute image processing such as various tone correction processing such as resolution conversion processing, brightness and saturation adjustment, and keystone correction processing on the image data as necessary. .

画像処理部160は、生成されたクロック信号PCLK、垂直同期信号VSync、水平同期信号HSync、記憶部120内のDRAMに格納された画像データ、のそれぞれを、送信部51、52を介して送信する。なお、送信部51を介して送信される画像データを「右眼用画像データ」とも呼び、送信部52を介して送信される画像データを「左眼用画像データ」とも呼ぶ。送信部51、52は、制御部10と画像表示部20との間におけるシリアル伝送のためのトランシーバーとして機能する。   The image processing unit 160 transmits the generated clock signal PCLK, vertical synchronization signal VSync, horizontal synchronization signal HSync, and image data stored in the DRAM in the storage unit 120 via the transmission units 51 and 52, respectively. . Note that the image data transmitted via the transmission unit 51 is also referred to as “right eye image data”, and the image data transmitted via the transmission unit 52 is also referred to as “left eye image data”. The transmission units 51 and 52 function as a transceiver for serial transmission between the control unit 10 and the image display unit 20.

音声処理部170は、コンテンツに含まれる音声信号を取得し、取得した音声信号を増幅して、連結部材46に接続された右イヤホン32内のスピーカー(図示しない)および左イヤホン34内のスピーカー(図示しない)に対して音声信号を供給する。なお、例えば、Dolby(登録商標)システムを採用した場合、音声信号に対する処理がなされ、右イヤホン32および左イヤホン34のそれぞれからは、例えば周波数等が変えられた異なる音が出力される。   The audio processing unit 170 acquires an audio signal included in the content, amplifies the acquired audio signal, and a speaker (not shown) in the right earphone 32 and a speaker (not shown) connected to the connecting member 46 ( An audio signal is supplied to (not shown). For example, when the Dolby (registered trademark) system is adopted, processing on the audio signal is performed, and different sounds with different frequencies or the like are output from the right earphone 32 and the left earphone 34, for example.

方向特定部166は、眼撮像カメラ37,38によって撮像された使用者の右眼REの画像および左眼LEの画像を解析することによって、使用者の視線方向を特定する。撮像された使用者の右眼REの画像および左眼LEの画像に基づく使用者の視線方向の特定方法としては、種々の公知技術を用いることができる。例えば、方向特定部166は、撮像された画像を、記憶部120に予め記憶された使用者の視線方向に対応させた画像のデータベースを基準として、撮像された眼の画像に対してパターンマッチングや統計的識別法を用いて、使用者の視線方向を特定できる。   The direction specifying unit 166 specifies the user's line-of-sight direction by analyzing the image of the user's right eye RE and the image of the left eye LE captured by the eye imaging cameras 37 and 38. Various known techniques can be used as a method for identifying the user's line-of-sight direction based on the captured image of the right eye RE and left eye LE of the user. For example, the direction specifying unit 166 performs pattern matching on the captured eye image with reference to an image database in which the captured image is associated with the user's line-of-sight direction stored in the storage unit 120 in advance. The user's line-of-sight direction can be identified using statistical identification methods.

距離測定部168は、第1カメラ61の撮像画像に含まれる対象物と、第2カメラ62の撮像画像に含まれる対象物と、に対して三角法を用いることで、カメラ61,62の撮像画像に含まれる対象物の画像までの距離を測定する。なお、本実施形態では、配置された場所が異なるステレオカメラである第1カメラ61と第2カメラ62とによって、対象物までの距離が測定されたが、他の実施形態では、TOF(Time Of Flight)センサーなどの異なる測定手段によって、対象物までの距離が測定されてもよい。   The distance measurement unit 168 uses the trigonometry for the object included in the captured image of the first camera 61 and the object included in the captured image of the second camera 62, thereby capturing the images of the cameras 61 and 62. The distance to the image of the object contained in the image is measured. In the present embodiment, the distance to the object is measured by the first camera 61 and the second camera 62, which are stereo cameras having different locations, but in other embodiments, the TOF (Time Of The distance to the object may be measured by different measuring means such as a Flight sensor.

画像設定部165は、画像表示部20に表示させる画像(表示画像)の各種設定を行なう。例えば、画像設定部165は、表示画像の表示位置や表示画像の大きさや表示画像の輝度などを設定したり、表示画像を三次元画像として、使用者に立体的(3D)に視認させるために両眼視差(単に、「視差」ともいう)を形成するように右眼用画像データと左眼用画像データとを設定する。また、画像設定部165は、撮像画像に対してパターンマッチング等を用いることで、撮像画像の中から予め設定された検出対象の画像を検出する。   The image setting unit 165 performs various settings for an image (display image) to be displayed on the image display unit 20. For example, the image setting unit 165 sets the display position of the display image, the size of the display image, the brightness of the display image, or the like, or allows the user to visually recognize the display image as a three-dimensional image three-dimensionally (3D). The right-eye image data and the left-eye image data are set so as to form binocular parallax (also simply referred to as “parallax”). Further, the image setting unit 165 detects a preset detection target image from the captured image by using pattern matching or the like on the captured image.

本実施形態では、画像設定部165は、同じ画像データに基づく画像であっても、特定された使用者の視線方向と、画像が表示される画像領域の位置と、の関係によって、異なる画像を画像表示部20に表示させる。例えば、画像設定部165は、RGB(Red Green Blue)の色情報を有する三次元画像データに基づいて、使用者の注視点を中心とする所定の視野の範囲ではRGBの色情報を有し、測定された距離情報を用いた三次元画像として画像表示部20に表示させる。一方、画像設定部165は、三次元画像データに基づいて、当該所定の視野の範囲外では白と黒のみの色情報を有する二次元画像として画像表示部20に表示させる。画像設定部165は、視線方向と画像領域の位置との関係について、同じ画像データであってもどのように異なる画像を表示するかの対応を決定するルックアップテーブルを、ROMを介して読み取ることで、画像表示部20に表示させる画像を決定している。   In the present embodiment, the image setting unit 165 displays different images depending on the relationship between the identified line-of-sight direction of the user and the position of the image area where the image is displayed, even if the images are based on the same image data. It is displayed on the image display unit 20. For example, the image setting unit 165 has RGB color information in a range of a predetermined visual field centered on a user's gazing point based on three-dimensional image data having RGB (Red Green Blue) color information, It is displayed on the image display unit 20 as a three-dimensional image using the measured distance information. On the other hand, the image setting unit 165 causes the image display unit 20 to display a two-dimensional image having only white and black color information outside the predetermined field of view based on the three-dimensional image data. The image setting unit 165 reads, via the ROM, a look-up table that determines the correspondence of how different images are displayed even with the same image data regarding the relationship between the line-of-sight direction and the position of the image area. Thus, the image to be displayed on the image display unit 20 is determined.

図3は、注視点PORと使用者の視線方向EDと関係の説明図である。図3には、使用者の右眼REと左眼LEとが注視点PORを見ている場合の視線方向EDが示されている。本実施形態では、右眼REと左眼LEとの中間点である左右眼球中心MPから注視点PORまでの方向を視線方向EDとして定義している。なお、使用者の視線方向EDの定義については、種々変形可能であり、例えば、利き眼から注視点PORまでの方向を視線方向EDとして定義してもよい。   FIG. 3 is an explanatory diagram of a relationship between the gazing point POR and the user's line-of-sight direction ED. FIG. 3 shows the line-of-sight direction ED when the right eye RE and the left eye LE of the user are looking at the gazing point POR. In the present embodiment, the direction from the left and right eyeball center MP, which is an intermediate point between the right eye RE and the left eye LE, to the gazing point POR is defined as the line-of-sight direction ED. The definition of the user's line-of-sight direction ED can be variously modified. For example, the direction from the dominant eye to the gazing point POR may be defined as the line-of-sight direction ED.

人間は、注視点PORを中心とする一定の範囲である視野に存在する対象を視認できる。一般に、人間は、注視点PORまでの距離と同じ距離に存在し、注視点PORの近い位置に存在する対象ほど、より明確に視認できる。人間が視野のどの範囲に存在する対象かによって人間の視認性が変化する視覚特性には、種々の形態がある。例えば、ある視野の範囲までは対象の輪郭を明確に視認できるが、それ以外の視野の範囲では、対象が存在することを認識できるものの、対象の輪郭が把握できないといった視覚特性が存在する。なお、対象の代わりとなる表示画像についても同様のことが言える。換言すると、人間は、注視点PORから離れるほど、視野に含まれる対象物を認識する能力が低下する。そのため、本実施形態では、画像設定部165は、使用者の視線方向EDから離れる位置に表示される画像については、同じ画像データに基づく画像であっても、例えば、画像の解像度を落とすなどの手段によって、当該画像を画像表示部20に表示させるための処理を低減させて画像表示部20に当該画像を表示させる。なお、画像設定部165は、請求項における画像変更部に相当する。   A human can visually recognize an object existing in a visual field that is a certain range around the point of interest POR. In general, a human being is present at the same distance as the distance to the gazing point POR, and the object existing near the gazing point POR is more clearly visible. There are various forms of visual characteristics in which human visibility changes depending on the range in which the human is present. For example, the outline of the target can be clearly seen up to a certain visual field range, but there is a visual characteristic that the target outline cannot be grasped in other visual field ranges although it can be recognized that the target exists. The same can be said for a display image serving as a substitute for an object. In other words, the ability of a human to recognize an object included in the field of view decreases as the distance from the point of interest POR increases. Therefore, in the present embodiment, the image setting unit 165 may reduce the resolution of the image even if the image displayed at a position away from the user's line-of-sight direction ED is based on the same image data. By the means, processing for displaying the image on the image display unit 20 is reduced, and the image display unit 20 displays the image. The image setting unit 165 corresponds to the image changing unit in the claims.

注視点PORを中心とする約5度以内の領域は、視力などの視機能が優れている弁別視野と呼ばれている。また、注視点PORを中心として水平方向に約30度以内で、かつ、視点を中心として垂直方向に約20度以内の領域は、眼球運動だけで瞬時に対象を認識できる有効視野と呼ばれている。また、注視点PORを中心として水平方向に約60〜90度で、かつ、視点を中心として垂直方向に約45〜70度以内の領域は、使用者が眼球を動かす眼球運動や頭部運動を行なうことで無理なく対象を認識できる安定注視野と呼ばれている。   A region within about 5 degrees centered on the gazing point POR is called a discrimination visual field having excellent visual functions such as visual acuity. An area within about 30 degrees in the horizontal direction around the point of interest POR and within about 20 degrees in the vertical direction around the viewpoint is called an effective field of view that can instantly recognize the object only by eye movement. Yes. In addition, an area of about 60 to 90 degrees in the horizontal direction around the point of interest POR and about 45 to 70 degrees in the vertical direction around the viewpoint is an eye movement or head movement in which the user moves the eyeball. This is called a stable gaze that can be recognized without difficulty.

図4は、注視点PORを中心とする水平視野VRwおよび鉛直視野VRhの概略図である。図4には、水平方向および鉛直方向における弁別視野と有効視野と安定注視野との関係が示されている。図4には、使用者が注視点PORを見ている場合に、注視点PORを中心として視認できる視野VRと、視野VRを水平方向成分に分けて説明するための水平視野VRwと、視野VRを鉛直方向成分に分けて説明するための鉛直視野VRhと、が示されている。図4では、弁別視野と有効視野と安定注視野とは、下記の関係(1)のように表される。なお、関係(1)における括弧書きの角度は、注視点PORを中心とした場合の片側の角度である。
弁別視野:W0,H0(〜約5度)
有効視野:W1(〜約30度),H1(〜約20度) ・・・(1)
安定注視野:W2(〜約60(90)度),H2(〜約45(70)度)
図4に示すように、視野VRの鉛直方向では、上側よりも下側における安定注視野などが広い範囲である。これは、人間にとって、鉛直方向に沿って上側よりも下側を視認しやすいことを示している。
FIG. 4 is a schematic diagram of the horizontal visual field VRw and the vertical visual field VRh centering on the gazing point POR. FIG. 4 shows the relationship among the discrimination visual field, the effective visual field, and the stable visual field in the horizontal direction and the vertical direction. FIG. 4 shows a visual field VR that can be viewed around the gazing point POR when the user is looking at the gazing point POR, a horizontal visual field VRw for explaining the visual field VR divided into horizontal components, and a visual field VR. A vertical visual field VRh for explaining the above by dividing it into vertical components is shown. In FIG. 4, the discrimination visual field, the effective visual field, and the stable focus visual field are expressed as the following relationship (1). The angle in parentheses in the relationship (1) is an angle on one side when the gazing point POR is the center.
Discrimination field of view: W0, H0 (up to about 5 degrees)
Effective field of view: W1 (up to about 30 degrees), H1 (up to about 20 degrees) (1)
Stable field of view: W2 (up to about 60 (90) degrees), H2 (up to about 45 (70) degrees)
As shown in FIG. 4, in the vertical direction of the visual field VR, the stable focus visual field on the lower side is wider than the upper side. This indicates that it is easier for a human to visually recognize the lower side than the upper side along the vertical direction.

図5は、水平視野VRwにおける視野の範囲ごとの人間の認識の度合いを示す説明図である。図5には、使用者USの視線方向EDを中心として6つに区別した視野範囲VR1から視野範囲VR6が示されており、下記の関係(2)が成立する。なお、関係(2)における括弧書きの角度は、注視点PORを中心とした場合の片側の角度である。
VR1:注視点PORとみなせる範囲(〜約1度)
VR2:文字を識別できる範囲(〜約10度)
VR3:眼球運動が楽に行なえる範囲(〜約15度)・・・(2)
VR4:形状を識別できる範囲(〜約30度)
VR5:色情報を識別できる範囲(〜約60度)
VR6:視野の限界(〜約94度)
以上、図5に示すように、視野によって使用者USが認識できる情報が異なってくる。
FIG. 5 is an explanatory diagram showing the degree of human recognition for each field of view in the horizontal field of view VRw. FIG. 5 shows visual field ranges VR1 to VR6 that are divided into six visual fields in the visual axis direction ED of the user US, and the following relationship (2) is established. The angle in parentheses in the relationship (2) is an angle on one side when the gazing point POR is the center.
VR1: The range that can be regarded as the point of interest POR (up to about 1 degree)
VR2: Range in which characters can be identified (up to about 10 degrees)
VR3: Range in which eye movement can be easily performed (up to about 15 degrees) (2)
VR4: Range in which the shape can be identified (up to about 30 degrees)
VR5: Range in which color information can be identified (up to about 60 degrees)
VR6: limit of visual field (up to about 94 degrees)
As described above, as shown in FIG. 5, the information that can be recognized by the user US varies depending on the field of view.

図6は、鉛直視野VRhにおける視野の範囲ごとの人間の認識の度合いを示す説明図である。図6には、図5の水平視野VRwの代わりとしての鉛直視野VRhについての区別された使用者USの視野が示されている。そのため、区別した視野範囲がどういった視野範囲であるのかの説明は省略する。   FIG. 6 is an explanatory diagram showing the degree of human recognition for each visual field range in the vertical visual field VRh. FIG. 6 shows a distinguished user US field of view for a vertical field of view VRh as an alternative to the horizontal field of view VRw of FIG. For this reason, the description of the visual field range that is the distinguished visual field range is omitted.

図2に示すインターフェイス180は、制御部10に対して、コンテンツの供給元となる種々の外部機器OAを接続するためのインターフェイスである。外部機器OAとしては、例えば、パーソナルコンピューター(PC)や携帯電話端末、ゲーム端末等、がある。インターフェイス180としては、例えば、USBインターフェイス、マイクロUSBインターフェイス、メモリーカード用インターフェイス等、を用いることができる。   An interface 180 illustrated in FIG. 2 is an interface for connecting various external devices OA that are content supply sources to the control unit 10. Examples of the external device OA include a personal computer (PC), a mobile phone terminal, and a game terminal. As the interface 180, for example, a USB interface, a micro USB interface, a memory card interface, or the like can be used.

画像表示部20は、右表示駆動部22と、左表示駆動部24と、右光学像表示部26としての右導光板261と、左光学像表示部28としての左導光板262と、第1カメラ61と、第2カメラ62と、を備えている。   The image display unit 20 includes a right display drive unit 22, a left display drive unit 24, a right light guide plate 261 as a right optical image display unit 26, a left light guide plate 262 as a left optical image display unit 28, and a first A camera 61 and a second camera 62 are provided.

右表示駆動部22は、受信部53(Rx53)と、光源として機能する右バックライト制御部201(右BL制御部201)および右バックライト221(右BL221)と、表示素子として機能する右LCD制御部211および右LCD241と、右投写光学系251と、を含んでいる。右バックライト制御部201と右バックライト221とは、光源として機能する。右LCD制御部211と右LCD241とは、表示素子として機能する。なお、右バックライト制御部201と、右LCD制御部211と、右バックライト221と、右LCD241と、を総称して「画像光生成部」とも呼ぶ。   The right display driving unit 22 includes a receiving unit 53 (Rx53), a right backlight control unit 201 (right BL control unit 201) and a right backlight 221 (right BL221) that function as a light source, and a right LCD that functions as a display element. A control unit 211, a right LCD 241 and a right projection optical system 251 are included. The right backlight control unit 201 and the right backlight 221 function as a light source. The right LCD control unit 211 and the right LCD 241 function as display elements. The right backlight control unit 201, the right LCD control unit 211, the right backlight 221 and the right LCD 241 are collectively referred to as “image light generation unit”.

受信部53は、制御部10と画像表示部20との間におけるシリアル伝送のためのレシーバーとして機能する。右バックライト制御部201は、入力された制御信号に基づいて、右バックライト221を駆動する。右バックライト221は、例えば、LEDやエレクトロルミネセンス(EL)等の発光体である。右LCD制御部211は、受信部53を介して入力されたクロック信号PCLKと、垂直同期信号VSyncと、水平同期信号HSyncと、右眼用画像データと、に基づいて、右LCD241を駆動する。右LCD241は、複数の画素をマトリクス状に配置した透過型液晶パネルである。   The receiving unit 53 functions as a receiver for serial transmission between the control unit 10 and the image display unit 20. The right backlight control unit 201 drives the right backlight 221 based on the input control signal. The right backlight 221 is a light emitter such as an LED or electroluminescence (EL). The right LCD control unit 211 drives the right LCD 241 based on the clock signal PCLK, the vertical synchronization signal VSync, the horizontal synchronization signal HSync, and the right-eye image data input via the reception unit 53. The right LCD 241 is a transmissive liquid crystal panel in which a plurality of pixels are arranged in a matrix.

右投写光学系251は、右LCD241から射出された画像光を並行状態の光束にするコリメートレンズによって構成される。右光学像表示部26としての右導光板261は、右投写光学系251から出力された画像光を、所定の光路に沿って反射させつつ使用者の右眼REに導く。なお、右投写光学系251と右導光板261とを総称して「導光部」とも呼ぶ。   The right projection optical system 251 is configured by a collimator lens that converts the image light emitted from the right LCD 241 to light beams in a parallel state. The right light guide plate 261 as the right optical image display unit 26 guides the image light output from the right projection optical system 251 to the right eye RE of the user while reflecting the image light along a predetermined optical path. The right projection optical system 251 and the right light guide plate 261 are collectively referred to as “light guide unit”.

左表示駆動部24は、右表示駆動部22と同様の構成を有している。左表示駆動部24は、受信部54(Rx54)と、光源として機能する左バックライト制御部202(左BL制御部202)および左バックライト222(左BL222)と、表示素子として機能する左LCD制御部212および左LCD242と、左投写光学系252と、を含んでいる。左バックライト制御部202と左バックライト222とは、光源として機能する。左LCD制御部212と左LCD242とは、表示素子として機能する。なお、左バックライト制御部202と、左LCD制御部212と、左バックライト222と、左LCD242と、を総称して「画像光生成部」とも呼ぶ。また、左投写光学系252は、左LCD242から射出された画像光を並行状態の光束にするコリメートレンズによって構成される。左光学像表示部28としての左導光板262は、左投写光学系252から出力された画像光を、所定の光路に沿って反射させつつ使用者の左眼LEに導く。なお、左投写光学系252と左導光板262とを総称して「導光部」とも呼ぶ。   The left display drive unit 24 has the same configuration as the right display drive unit 22. The left display driving unit 24 includes a receiving unit 54 (Rx54), a left backlight control unit 202 (left BL control unit 202) and a left backlight 222 (left BL222) that function as a light source, and a left LCD that functions as a display element. A control unit 212 and a left LCD 242 and a left projection optical system 252 are included. The left backlight control unit 202 and the left backlight 222 function as a light source. The left LCD control unit 212 and the left LCD 242 function as display elements. The left backlight control unit 202, the left LCD control unit 212, the left backlight 222, and the left LCD 242 are also collectively referred to as “image light generation unit”. The left projection optical system 252 is configured by a collimating lens that converts the image light emitted from the left LCD 242 into a light beam in a parallel state. The left light guide plate 262 as the left optical image display unit 28 guides the image light output from the left projection optical system 252 to the left eye LE of the user while reflecting the image light along a predetermined optical path. The left projection optical system 252 and the left light guide plate 262 are collectively referred to as “light guide unit”.

図7は、画像光生成部によって画像光が射出される様子を示す説明図である。右LCD241は、マトリクス状に配置された各画素位置の液晶を駆動することによって、右LCD241を透過する光の透過率を変化させることにより、右バックライト221から照射される照明光ILを、画像を表わす有効な画像光PLへと変調する。左側についても同様である。なお、図2に示すように、本実施形態ではバックライト方式を採用したが、フロントライト方式や、反射方式を用いて画像光を射出する構成としてもよい。   FIG. 7 is an explanatory diagram illustrating a state in which image light is emitted by the image light generation unit. The right LCD 241 changes the transmittance of the light transmitted through the right LCD 241 by driving the liquid crystal at each pixel position arranged in a matrix, thereby changing the illumination light IL emitted from the right backlight 221 into an image. Is modulated into an effective image light PL representing The same applies to the left side. As shown in FIG. 2, the backlight system is adopted in the present embodiment, but the image light may be emitted using a front light system or a reflection system.

A−2.画像表示処理:
図8は、画像表示処理の流れを示すフローチャートである。画像表示処理では、CPU140が、カメラ61,62の撮像画像の中から検出された検出対象に対応付けられた対応画像を画像表示部20に表示させる際に、使用者の視線方向EDを中心として区別された視野範囲と画像の表示位置とに基づいて、表示画像を変更して画像表示部20に表示させる処理である。
A-2. Image display processing:
FIG. 8 is a flowchart showing the flow of the image display process. In the image display process, when the CPU 140 displays the corresponding image associated with the detection target detected from the captured images of the cameras 61 and 62 on the image display unit 20, the user's line-of-sight direction ED is the center. In this process, the display image is changed and displayed on the image display unit 20 based on the distinguished visual field range and the display position of the image.

画像表示処理では、初めに、画像設定部165は、カメラ61,62を用いて、外景を撮像する(ステップS11)。画像設定部165は、撮像されたカメラ61,62の撮像画像の中から画像表示部20に表示させる対応画像に対応付けられた検出対象をパターンマッチング等によって検出する(ステップS13)。画像設定部165は、撮像画像の中から検出対象を検出しない場合には(ステップS13:NO)、引き続き、撮像画像の中から検出対象の検出を待機する(ステップS13)。   In the image display process, first, the image setting unit 165 images an outside scene using the cameras 61 and 62 (step S11). The image setting unit 165 detects the detection target associated with the corresponding image displayed on the image display unit 20 from the captured images of the captured cameras 61 and 62 by pattern matching or the like (step S13). If the detection target is not detected from the captured image (step S13: NO), the image setting unit 165 continues to wait for detection of the detection target from the captured image (step S13).

ステップS13の処理において、画像設定部165は、撮像画像の中から検出対象を検出した場合には(ステップS13:YES)、検出対象に予め対応付けられた対応画像を画像表示部20に表示させる画像表示位置を決定する(ステップS15)。対応画像の画像表示位置については、種々の決定が可能であり、例えば、撮像画像の中の検出対象の位置にかかわらず画像表示部20が画像を表示できる画像表示最大領域PNにおける固定された位置に表示させたり、検出対象に設定された特徴点の位置の近傍に表示させる場合などがある。なお、画像表示最大領域PNは、請求項における表示領域に相当する。   In the process of step S13, when the detection unit is detected from the captured image (step S13: YES), the image setting unit 165 causes the image display unit 20 to display a corresponding image associated with the detection target in advance. The image display position is determined (step S15). The image display position of the corresponding image can be variously determined. For example, the fixed position in the image display maximum region PN where the image display unit 20 can display an image regardless of the position of the detection target in the captured image. Or may be displayed near the position of a feature point set as a detection target. The image display maximum area PN corresponds to a display area in claims.

対応画像の画像表示位置が決定されると(ステップS15)、CPU140は、画像表示部20を頭部に装着している使用者の注視点PORおよび視線方向EDを、眼撮像カメラ37,38の撮像画像を用いて特定する(ステップS17)。CPU140は、距離測定部168がカメラ61,62の撮像画像を用いて測定した検出対象までの距離と、方向特定部166が眼撮像カメラ37,38の撮像画像を用いて特定した使用者の視線方向EDと、を特定する。   When the image display position of the corresponding image is determined (step S15), the CPU 140 displays the gazing point POR and the line-of-sight direction ED of the user wearing the image display unit 20 on the head of the eye imaging cameras 37 and 38. It specifies using a captured image (step S17). The CPU 140 determines the distance to the detection target measured by the distance measurement unit 168 using the captured images of the cameras 61 and 62, and the user's line of sight specified by the direction specifying unit 166 using the captured images of the eye imaging cameras 37 and 38. The direction ED is specified.

画像設定部165は、対応画像の画像表示最大領域PNにおける画像表示位置が、特定された視線方向EDに基づいて設定された複数の視野範囲の内のいずれの視野範囲に属するかを特定する(ステップS19)。画像設定部165は、例えば、図5に示すように、特定された視線方向EDを中心とする複数の視野範囲を区別し、画像表示位置が区別したどの視野範囲に属するのかを特定する。   The image setting unit 165 specifies which of the plurality of visual field ranges set based on the specified line-of-sight direction ED the image display position of the corresponding image in the maximum image display area PN belongs ( Step S19). For example, as shown in FIG. 5, the image setting unit 165 distinguishes a plurality of visual field ranges centered on the identified line-of-sight direction ED, and identifies which visual field range the image display position belongs to.

図9は、対応画像IM1の画像表示位置と区別された視野範囲との関係を示す説明図である。図9には、使用者が視認する視野VRの一例が示されている。図9に示すように、使用者は、光学像表示部26,28を透過した外景SCを視認できる。外景SCには、検出対象TWとしてのランドマークの1つとしての「スカイツリー」が含まれている。図9には、CPU140によって特定された使用者の注視点PORと、注視点PORを中心として所定の範囲で設定された視野範囲VR2,VR3,VR4,VR5と、が示されている。なお、視野範囲VR3とは、視野範囲VR3に含まれ、かつ、視野範囲VR2に含まれない範囲をいう。同じように、視野範囲VR4とは、視野範囲VR4に含まれ、かつ、視野範囲VR2,VR3に含まれない範囲をいい、視野範囲VR5とは、視野範囲VR5に含まれ、かつ、視野範囲VR2,VR3,VR4のいずれにも含まれない範囲をいう。図9では、破線の画像表示最大領域PNと、注視点PORを示す星印と、各視野範囲を示す一点鎖線と、を説明のために便宜上示しているが、これらは使用者には視認されない。本実施形態では、カメラ61,62の撮像画像によって、使用者が視認する視野に相当する撮像画像が作成されているため、作成された撮像画像と使用者の視野VRとは一致する。他の実施形態では、撮像画像と使用者の視野VRとが異なっていてもよい。   FIG. 9 is an explanatory diagram showing the relationship between the image display position of the corresponding image IM1 and the distinguished visual field range. FIG. 9 shows an example of the visual field VR visually recognized by the user. As shown in FIG. 9, the user can visually recognize the outside scene SC transmitted through the optical image display units 26 and 28. The outside scene SC includes a “sky tree” as one of landmarks as the detection target TW. FIG. 9 shows a user's gazing point POR specified by the CPU 140 and visual field ranges VR2, VR3, VR4, and VR5 set in a predetermined range around the gazing point POR. The visual field range VR3 is a range that is included in the visual field range VR3 and not included in the visual field range VR2. Similarly, the visual field range VR4 refers to a range that is included in the visual field range VR4 and is not included in the visual field ranges VR2 and VR3, and the visual field range VR5 is included in the visual field range VR5 and is also included in the visual field range VR2. , VR3, and VR4. In FIG. 9, the broken line image display maximum area PN, the star indicating the gazing point POR, and the alternate long and short dash line indicating each visual field range are shown for convenience, but these are not visually recognized by the user. . In this embodiment, since the captured image corresponding to the visual field visually recognized by the user is created by the captured images of the cameras 61 and 62, the created captured image matches the visual field VR of the user. In other embodiments, the captured image and the visual field VR of the user may be different.

画像設定部165は、図8のステップS19の処理を行なうと、検出対象TWに対応付けられた対応画像の画像データに基づいて画像表示最大領域PNに表示させる対応画像の表示態様を設定する(ステップS23)。本実施形態では、画像設定部165は、画像表示最大領域PNにおいて対応画像が表示される位置に対応させて、同じ画像データに基づく表示画像であっても、表示画像の態様の設定を変更する。画像設定部165は、対応画像IM1の表示態様を設定すると、表示態様を設定した対応画像IM1を画像表示最大領域PNに表示させる(ステップS23)。   When the process of step S19 in FIG. 8 is performed, the image setting unit 165 sets the display mode of the corresponding image to be displayed in the image display maximum region PN based on the image data of the corresponding image associated with the detection target TW ( Step S23). In the present embodiment, the image setting unit 165 changes the setting of the display image mode corresponding to the position where the corresponding image is displayed in the maximum image display area PN, even for display images based on the same image data. . When the display mode of the corresponding image IM1 is set, the image setting unit 165 displays the corresponding image IM1 in which the display mode is set in the image display maximum region PN (Step S23).

図10は、対応画像IM1が表示された場合の使用者の視野VRの一例を示す説明図である。図10に示すように、使用者の視野VRには、光学像表示部26,28を透過して使用者が視認できる外景SCと、画像表示最大領域PN内に表示された対応画像IM1と、が含まれている。対応画像IM1は、撮像画像の中から検出された検出対象TWに対応付けられて画像表示最大領域PNに表示される画像である。対応画像IM1は、検出対象TWの近くに検出対象TWに重複しないように表示されるように予め設定されている。特に、特定された使用者の注視点PORが検出対象TWに重複する場合には、対応画像IM1は、特定された注視点PORの位置に合わせて表示される。なお、検出対象TWは、請求項における特定対象物に相当する。   FIG. 10 is an explanatory diagram illustrating an example of the visual field VR of the user when the corresponding image IM1 is displayed. As shown in FIG. 10, in the user's visual field VR, an external scene SC that can be visually recognized by the user through the optical image display units 26 and 28, and a corresponding image IM1 displayed in the image display maximum area PN, It is included. The corresponding image IM1 is an image displayed in the maximum image display area PN in association with the detection target TW detected from the captured image. The corresponding image IM1 is set in advance so as to be displayed near the detection target TW so as not to overlap the detection target TW. In particular, when the identified user's point of interest POR overlaps the detection target TW, the corresponding image IM1 is displayed in accordance with the position of the identified point of interest POR. The detection target TW corresponds to the specific target in the claims.

画像設定部165は、特定された注視点PORの位置に対応付けた対応画像IM1を表示させる画像表示位置と各視野範囲との位置関係を特定する。画像設定部165は、対応画像IM1の少なくとも一部が最も注視点PORに近い視野範囲VR2に含まれることを特定すると、対応画像IM1の画像データに基づいて表示させる画像の表示態様として、対応画像IM1の画像データを最も詳細まで表した表示態様として設定する。画像設定部165は、設定した表示態様の対応画像IM1として、下記の内容(A)〜(C)の全てを充足した画像を画像表示最大領域PNに表示させる。
(A)文字画像
(B)三次元画像(距離情報を含む)
(C)RGBの色情報を含む画像
設定された表示態様の対応画像IM1は、文字画像を含んでおり、検出対象TWまでの距離と同じ距離に視認されるような三次元画像として画像表示最大領域PNに表示される。また、対応画像IM1に含まれる文字画像の内の下線が引いてある「こちら」には、別に画像表示最大領域PNに表示されるカーソルなどを移動させることによって、「こちら」を選択可能であることを示すために、他の文字画像と異なる色(例えば、青(BLUE))によって表示されている。操作部135が受け付けた所定の操作によって、対応画像IM1に含まれる「こちら」が選択されると、CPU140は、無線通信部132を介して、検出対象TWのホームページ(HP)へと接続される。なお、本実施形態では、対応画像IM1の画像表示位置が複数の視野範囲に含まれる場合には、画像設定部165は、最も内側の視野範囲に対応画像IM1の全体が含まれた場合に表示される態様で、対応画像IM1を画像表示最大領域PNに表示させる。なお、他の実施形態では、対応画像IM1の表示位置がいずれの視野範囲に含まれるかの特定について種々変形可能であり、例えば、画像の内の最も含まれる表示領域が多い視野範囲が、表示態様を設定するための視野範囲として特定されてもよい。視野範囲VR2は、請求項における第1の視野範囲に相当し、視野範囲VR2以外の視野範囲は、請求項における第2の視野範囲に相当する。
The image setting unit 165 specifies the positional relationship between the image display position for displaying the corresponding image IM1 associated with the position of the specified gazing point POR and each visual field range. When the image setting unit 165 identifies that at least a part of the corresponding image IM1 is included in the visual field range VR2 closest to the gazing point POR, the image setting unit 165 sets the corresponding image as a display mode of the image to be displayed based on the image data of the corresponding image IM1. The image data of IM1 is set as the display mode showing the most detail. The image setting unit 165 displays an image satisfying all of the following contents (A) to (C) in the image display maximum area PN as the corresponding image IM1 of the set display mode.
(A) Character image (B) Three-dimensional image (including distance information)
(C) Image including RGB color information Corresponding image IM1 of the set display mode includes a character image, and the maximum image display as a three-dimensional image that is visually recognized at the same distance as the distance to the detection target TW. It is displayed in the area PN. Further, “here”, which is underlined in the character image included in the corresponding image IM1, can be selected by moving a cursor displayed in the image display maximum area PN separately. In order to indicate this, the color is displayed in a color different from that of other character images (for example, blue (BLUE)). When “here” included in the corresponding image IM1 is selected by a predetermined operation received by the operation unit 135, the CPU 140 is connected to the homepage (HP) of the detection target TW via the wireless communication unit 132. . In the present embodiment, when the image display position of the corresponding image IM1 is included in the plurality of visual field ranges, the image setting unit 165 displays when the entire corresponding image IM1 is included in the innermost visual field range. In this manner, the corresponding image IM1 is displayed in the image display maximum area PN. In other embodiments, the field of view range in which the display position of the corresponding image IM1 is included can be variously modified. For example, a field of view range having the largest number of display areas included in the image is displayed. You may specify as a visual field range for setting an aspect. The visual field range VR2 corresponds to the first visual field range in the claims, and the visual field ranges other than the visual field range VR2 correspond to the second visual field range in the claims.

図8のステップS23において、対応画像IM1が画像表示最大領域PNに表示されると、CPU140は、カメラ61,62の撮像範囲の変化を監視する(ステップS25)。CPU140は、カメラ61,62の撮像範囲の変化を検出した場合には(ステップS25:YES)、ステップS13以降の処理を繰り返す。なお、CPU140は、カメラ61,62の撮像範囲の変化は、所定の閾値を用いて、所定の閾値以下の変化であれば、撮像画像に変化がないとして扱ってもよい。   In step S23 of FIG. 8, when the corresponding image IM1 is displayed in the maximum image display area PN, the CPU 140 monitors a change in the imaging range of the cameras 61 and 62 (step S25). CPU140 repeats the process after step S13, when the change of the imaging range of the cameras 61 and 62 is detected (step S25: YES). Note that the CPU 140 may treat the change in the imaging range of the cameras 61 and 62 as a change in the captured image if there is a change below a predetermined threshold using a predetermined threshold.

図11は、カメラ61,62の撮像範囲が変化した後の対応画像IM2が表示された場合に使用者の視野VRの一例を示す説明図である。図11には、図10と比較して、使用者が検出対象TWよりも離れた位置に存在し、使用者の注視点PORが外景SCに含まれる月MNである場合の視野VRが示されている。すなわち、図11では、図10と比較して、使用者の注視点PORも変化している。図11に示す例では、カメラ61,62の撮像画像から検出された検出対象TWは、視野範囲VR5よりもさらに外側の範囲に含まれる。この場合に、画像設定部165は、対応画像IM1と同じ対応画像IM2の画像データに基づいて画像表示最大領域PNに表示させる画像の表示態様として、検出対象TWの位置のみを簡略化した距離情報を有さない表示態様として設定する。図11に示すように、画像設定部165は、対応画像IM2の画像データに基づく簡略化した対応画像IM2として、検出対象TWの位置に重複する丸の画像である対応画像IM2を、画像表示最大領域PNに無限遠の位置に表示させる。本実施形態では、画像設定部165は、視野範囲VR5に含まれる検出対象TWの対応画像として、検出対象TWの位置を表すだけの画像を画像表示最大領域PNに表示させる。なお、視野範囲VR5よりも外側の範囲は、請求項における第8の視野範囲に相当し、視野範囲VR5を含む視野範囲VR5より内側の視野範囲は、請求項における第7の視野範囲に相当する。   FIG. 11 is an explanatory diagram illustrating an example of the visual field VR of the user when the corresponding image IM2 after the imaging ranges of the cameras 61 and 62 are changed is displayed. FIG. 11 shows the visual field VR when the user is present at a position away from the detection target TW and the user's point of interest POR is the moon MN included in the outside scene SC, as compared with FIG. ing. That is, in FIG. 11, compared with FIG. 10, the user's point of interest POR also changes. In the example illustrated in FIG. 11, the detection target TW detected from the captured images of the cameras 61 and 62 is included in a range further outside the visual field range VR5. In this case, the image setting unit 165 simplifies only the position of the detection target TW as the display mode of the image to be displayed in the image display maximum area PN based on the image data of the same corresponding image IM2 as the corresponding image IM1. It is set as a display mode that does not have. As illustrated in FIG. 11, the image setting unit 165 displays the corresponding image IM2 that is a round image overlapping the position of the detection target TW as the simplified corresponding image IM2 based on the image data of the corresponding image IM2. The area PN is displayed at a position at infinity. In the present embodiment, the image setting unit 165 displays an image only representing the position of the detection target TW in the image display maximum region PN as a corresponding image of the detection target TW included in the visual field range VR5. The range outside the visual field range VR5 corresponds to the eighth visual field range in the claims, and the visual field range inside the visual field range VR5 including the visual field range VR5 corresponds to the seventh visual field range in the claims. .

図8のステップS23において、対応画像IM2が表示されると、CPU140は、カメラ61,62の撮像範囲の変化を監視する(ステップS25)。CPU140は、カメラ61,62の撮像画像の変化がないと判定した場合には(ステップS25:NO)、使用者の視線方向EDの変化を監視する(ステップS27)。CPU140は、使用者の視線方向EDが変化したと判定した場合には(ステップS27:YES)、ステップS17以降の処理を繰り返す。   When the corresponding image IM2 is displayed in step S23 of FIG. 8, the CPU 140 monitors a change in the imaging range of the cameras 61 and 62 (step S25). When determining that there is no change in the captured images of the cameras 61 and 62 (step S25: NO), the CPU 140 monitors the change in the user's line-of-sight direction ED (step S27). When the CPU 140 determines that the user's line-of-sight direction ED has changed (step S27: YES), the CPU 140 repeats the processing after step S17.

図12は、使用者の視線方向EDが変化した後の対応画像IM3が表示された場合に使用者が視認する視野VRの一例を示す説明図である。図12には、図11と比較して、使用者の注視点PORが変化した場合の視野VRが示されている。図12に示す例では、使用者の注視点PORは、外景SCに含まれる建物BD1であり、カメラ61,62の撮像画像における検出対象TWの位置は、視野範囲VR4および視野範囲VR5に含まれている。そのため、画像設定部165は、検出対象TWが視野範囲VR4に属すると判定して、検出対象TWに対応付けられた対応画像IM1と同じ画像データである対応画像IM3の画像データに基づいて画像表示最大領域PNに表示させる画像の表示態様を設定する。画像設定部165は、設定した表示態様に基づいて、ホームページ(HP)とリンクしており、選択可能なボタンとしての対応画像IM3を、図10の対応画像IM1の「こちら」と同じ色の無限遠に視認される画像として、画像表示最大領域PNに表示させる。換言すると、画像設定部165は、図10に示す対応画像IM1に対して、(A)文字画像の内容と、(B)距離情報を含む三次元画像の内容と、を含まないで、(C)RGBの色情報を含む画像として、画像表示最大領域PNに対応画像IM3を表示させる。なお、視野範囲VR4は、請求項における第4の視野範囲に相当し、視野範囲VR4よりも内側の視野範囲は、請求項における第3の視野範囲に相当する。   FIG. 12 is an explanatory diagram illustrating an example of a visual field VR visually recognized by the user when the corresponding image IM3 after the user's line-of-sight direction ED is changed is displayed. FIG. 12 shows the visual field VR when the user's gazing point POR is changed as compared with FIG. 11. In the example shown in FIG. 12, the user's point of interest POR is the building BD1 included in the outside scene SC, and the position of the detection target TW in the captured images of the cameras 61 and 62 is included in the visual field range VR4 and the visual field range VR5. ing. Therefore, the image setting unit 165 determines that the detection target TW belongs to the visual field range VR4, and displays an image based on the image data of the corresponding image IM3 that is the same image data as the corresponding image IM1 associated with the detection target TW. A display mode of an image to be displayed in the maximum area PN is set. The image setting unit 165 is linked to the homepage (HP) based on the set display mode, and the corresponding image IM3 as a selectable button is infinite in the same color as “here” of the corresponding image IM1 in FIG. As an image visually recognized in the distance, the image is displayed in the maximum image display area PN. In other words, the image setting unit 165 does not include (A) the content of the character image and (B) the content of the three-dimensional image including the distance information with respect to the corresponding image IM1 illustrated in FIG. ) The corresponding image IM3 is displayed in the image display maximum area PN as an image including RGB color information. The visual field range VR4 corresponds to the fourth visual field range in the claims, and the visual field range inside the visual field range VR4 corresponds to the third visual field range in the claims.

図8のステップS23の処理において、対応画像IM3が画像表示最大領域PNに表示されると、CPU140は、カメラ61,62の撮像範囲の変化を監視する(ステップS25)。CPU140は、カメラ61,62の撮像範囲の変化がないと判定した場合には(ステップS25:NO)、使用者の視線方向EDの変化を監視する(ステップS27)。CPU140は、使用者USの視線方向EDの変化がないと判定した場合には(ステップS27:NO)、操作部135に対する画像表示処理を終了する所定の操作の受付を監視する(ステップS29)。画像表示処理を終了する所定の操作が受け付けられない場合には(ステップS29:NO)、CPU140は、ステップS25以降の処理を繰り返す。ステップS29の処理において、画像表示処理を終了する所定の操作が受け付けられた場合には(ステップS29:YES)、CPU140は、画像表示処理を終了する。   In the process of step S23 of FIG. 8, when the corresponding image IM3 is displayed in the maximum image display area PN, the CPU 140 monitors a change in the imaging range of the cameras 61 and 62 (step S25). When determining that there is no change in the imaging range of the cameras 61 and 62 (step S25: NO), the CPU 140 monitors the change in the user's line-of-sight direction ED (step S27). When determining that there is no change in the line-of-sight direction ED of the user US (step S27: NO), the CPU 140 monitors reception of a predetermined operation for ending the image display process on the operation unit 135 (step S29). When the predetermined operation for ending the image display process is not accepted (step S29: NO), the CPU 140 repeats the processes after step S25. In the process of step S29, when a predetermined operation for ending the image display process is accepted (step S29: YES), the CPU 140 ends the image display process.

また、本実施形態におけるHMD100では、画像設定部165は、特定された使用者の視線方向EDと対応画像の表示位置との関係に基づいて、同じ対応画像の画像データであっても、異なる画像として画像表示部20の画像表示最大領域PNに表示させる。そのため、本実施形態のHMD100では、対応画像を視認する使用者の認識のしやすさを低減させないで、対応画像を表示させる処理の速度を向上させることができる。   Further, in the HMD 100 according to the present embodiment, the image setting unit 165 has different image data for the same corresponding image based on the relationship between the identified line-of-sight direction ED of the user and the display position of the corresponding image. As shown in the image display maximum area PN of the image display unit 20. Therefore, in the HMD 100 of the present embodiment, the processing speed for displaying the corresponding image can be improved without reducing the ease of recognition by the user who visually recognizes the corresponding image.

また、本実施形態のHMD100では、画像設定部165は、カメラ61,62の撮像画像の中から検出された検出対象TWの位置に対応付けて対応画像の画像表示位置を設定する。そのため、本実施形態のHMD100では、検出対象TWと対応画像との対応関係について、よりわかりやすく使用者に視認させることができ、使用者の使い勝手が向上する。   In the HMD 100 of the present embodiment, the image setting unit 165 sets the image display position of the corresponding image in association with the position of the detection target TW detected from the captured images of the cameras 61 and 62. For this reason, in the HMD 100 of the present embodiment, the correspondence between the detection target TW and the corresponding image can be more easily recognized by the user, and the usability of the user is improved.

また、本実施形態のHMD100では、眼撮像カメラ37,38の撮像画像によって使用者の視線方向EDが特定されるため、使用者の視線方向EDおよび注視点PORを精度良く特定できる。   Further, in the HMD 100 of the present embodiment, the user's line-of-sight direction ED and the gazing point POR can be accurately identified because the user's line-of-sight direction ED is specified by the captured images of the eye imaging cameras 37 and 38.

また、本実施形態のHMD100では、画像設定部165は、対応画像IM1の画像データに基づいて、視野範囲VR2では文字画像を含む対応画像IM1を画像表示部20の画像表示最大領域PNに表示させる。一方で、画像設定部165は、対応画像IM1の画像データに基づいて、視野範囲VR2よりも外側の視野範囲では、文字画像を含まない対応画像(例えば、対応画像IM2)を画像表示部20の画像表示最大領域PNに表示させる。そのため、本実施形態のHMD100では、使用者が文字を認識しづらい視野範囲では文字画像を含まない対応画像が画像表示部20に表示されるため、対応画像を視認する使用者の認識のしやすさをより低減させないで、対応画像を表示させる処理の速度を向上させることができる。   Further, in the HMD 100 of the present embodiment, the image setting unit 165 displays the corresponding image IM1 including the character image in the visual field range VR2 in the image display maximum region PN of the image display unit 20 based on the image data of the corresponding image IM1. . On the other hand, based on the image data of the corresponding image IM1, the image setting unit 165 displays a corresponding image that does not include a character image (for example, the corresponding image IM2) in the image display unit 20 in the visual field range outside the visual field range VR2. The image is displayed in the maximum image display area PN. Therefore, in the HMD 100 according to the present embodiment, the corresponding image not including the character image is displayed on the image display unit 20 in the visual field range in which it is difficult for the user to recognize the character, so that the user who recognizes the corresponding image can easily recognize. The speed of the process for displaying the corresponding image can be improved without further reducing the depth.

また、本実施形態のHMD100では、画像設定部165は、対応画像IM1の画像データに基づいて、視野範囲VR5では、簡略化した丸の画像の対応画像IM2を画像表示部20の画像表示最大領域PNに表示させる。そのため、本実施形態のHMD100では、使用者が表示画像の詳細な内容までを認識できない視野範囲では画像があることだけを示す簡略化した画像のみが画像表示部20に表示されるため、対応画像を視認する使用者の認識のしやすさを低減させないで、対応画像を表示させる処理の速度をより向上させることができる。   In the HMD 100 of the present embodiment, the image setting unit 165 displays the simplified image corresponding to the circle image IM2 in the image display unit 20 in the visual field range VR5 based on the image data of the corresponding image IM1. Display on PN. For this reason, in the HMD 100 of the present embodiment, only a simplified image indicating that there is an image is displayed on the image display unit 20 in the visual field range where the user cannot recognize the detailed contents of the display image. The speed of the process for displaying the corresponding image can be further improved without reducing the ease of recognition by the user who visually recognizes the image.

また、本実施形態のHMD100では、画像設定部165は、対応画像IM1の画像データに基づいて、視野範囲VR4では、使用者の注視点PORまでの距離にかかわらず、距離情報を含まない二次元画像としての対応画像IM3を画像表示部20の画像表示最大領域PNに表示させる。そのため、本実施形態のHMD100では、使用者が表示画像までの距離を認識しづらい視野範囲において二次元画像を画像表示部20に表示させるため、対応画像を視認する使用者の認識のしやすさを低減させないで、対応画像を表示させる処理の速度をより向上させることができる。   In the HMD 100 of the present embodiment, the image setting unit 165 includes a two-dimensional image that does not include distance information in the visual field range VR4 regardless of the distance to the user's point of interest POR, based on the image data of the corresponding image IM1. The corresponding image IM3 as an image is displayed in the image display maximum area PN of the image display unit 20. Therefore, in the HMD 100 of the present embodiment, since the two-dimensional image is displayed on the image display unit 20 in the visual field range in which it is difficult for the user to recognize the distance to the display image, it is easy for the user who visually recognizes the corresponding image to recognize. The processing speed for displaying the corresponding image can be further improved without reducing.

B.変形例:
なお、この発明は上記実施形態に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能であり、例えば、次のような変形も可能である。
B. Variation:
In addition, this invention is not limited to the said embodiment, It can implement in a various aspect in the range which does not deviate from the summary, For example, the following deformation | transformation is also possible.

B−1.変形例1:
図13は、変形例における使用者が視認する視野VRの一例を示す説明図である。図13には、実施形態の図12と比較して、使用者の注視点PORが建物BD1から建物BD2へと変化した後の視野VRが示されている。図13に示す例では、使用者の注視点PORが建物BD2であるため、画像設定部165は、カメラ61,62の撮像画像における検出対象TWの位置が視野範囲VR3に属すると判定して、画像表示最大領域PNに表示画像としての対応画像IM4を表示させる。対応画像IM4は、図12に示す対応画像IM3に対して、さらに、(B)距離情報を含む三次元画像として表示される画像である。換言すると、対応画像IM4は、(B)距離情報を含む三次元画像の内容と、(C)RGBの色情報と、を含む画像である。なお、視野範囲VR4は、請求項における第4の視野範囲に相当し、視野範囲VR4よりも内側の視野範囲は、請求項における第3の視野範囲に相当する。
B-1. Modification 1:
FIG. 13 is an explanatory diagram illustrating an example of the visual field VR visually recognized by the user in the modification. FIG. 13 shows the visual field VR after the user's gazing point POR is changed from the building BD1 to the building BD2, compared to FIG. 12 of the embodiment. In the example shown in FIG. 13, since the user's point of interest POR is the building BD2, the image setting unit 165 determines that the position of the detection target TW in the captured images of the cameras 61 and 62 belongs to the visual field range VR3. The corresponding image IM4 as a display image is displayed in the image display maximum area PN. The corresponding image IM4 is an image displayed as a three-dimensional image including (B) distance information with respect to the corresponding image IM3 shown in FIG. In other words, the corresponding image IM4 is an image including (B) the content of a three-dimensional image including distance information and (C) RGB color information. The visual field range VR4 corresponds to the fourth visual field range in the claims, and the visual field range inside the visual field range VR4 corresponds to the third visual field range in the claims.

このように、この変形例のHMD100では、画像設定部165は、対応画像IM1の画像データに基づいて、視野範囲VR3では、距離情報を含む三次元画像としての対応画像IM4を画像表示部20の画像表示最大領域PNに表示させる。そのため、この変形例のHMD100では、同じ画像データに基づいて、使用者が三次元画像として認識できる範囲においては三次元画像が表示され、使用者が三次元画像を認識しづらい範囲においては二次元画像が表示される。これにより、対応画像を視認する使用者の認識のしやすさを低減させないで、対応画像を表示させる処理の速度をより向上させることができる。   As described above, in the HMD 100 of this modified example, the image setting unit 165 displays the corresponding image IM4 as a three-dimensional image including the distance information in the visual field range VR3 based on the image data of the corresponding image IM1. The image is displayed in the maximum image display area PN. Therefore, in the HMD 100 of this modified example, based on the same image data, a 3D image is displayed in a range that can be recognized as a 3D image by the user, and in a range in which the user cannot easily recognize the 3D image. An image is displayed. Thereby, the speed of the process which displays a corresponding image can be improved more, without reducing the ease of recognition of the user who visually recognizes a corresponding image.

図14は、変形例における使用者が視認する視野VRの一例を示す説明図である。図14には、実施形態の図12と比較して、使用者の注視点PORが建物BD1から建物BD3へと変化した後の視野VRが示されている。図14に示す例では、使用者USの注視点PORが建物BD3であるため、画像設定部165は、カメラ61,62の撮像画像における検出対象TWの位置が視野範囲VR5に属すると判定して、画像表示最大領域PNに表示画像としての対応画像IM5を表示させる。対応画像IM5は、白と黒との濃淡によって表され、対応画像IM1と同じ画像データに基づいて作成される画像である。対応画像IM5は、RGBの色情報を含まない上で使用者の視認性を向上させるために、濃淡の濃い色の長方形の画像を背景として、濃淡の薄い色の「HP」の文字を表した画像である。換言すると、対応画像IM5は、対応画像IM3に対して、(C)RGBの色情報を含まない画像である。なお、視野範囲VR5は、請求項における第6の視野範囲に相当し、視野範囲VR5よりも内側の視野範囲は、請求項における第5の視野範囲に相当する。   FIG. 14 is an explanatory diagram illustrating an example of the visual field VR visually recognized by the user in the modification. FIG. 14 shows the visual field VR after the user's gazing point POR is changed from the building BD1 to the building BD3, as compared with FIG. 12 of the embodiment. In the example illustrated in FIG. 14, since the gazing point POR of the user US is the building BD3, the image setting unit 165 determines that the position of the detection target TW in the captured images of the cameras 61 and 62 belongs to the visual field range VR5. The corresponding image IM5 as the display image is displayed in the image display maximum area PN. Corresponding image IM5 is an image that is represented by the density of white and black and is created based on the same image data as corresponding image IM1. Corresponding image IM5 does not include RGB color information, and expresses characters of “HP” with light and dark colors against a background of a dark and dark rectangular image in order to improve user visibility. It is an image. In other words, the corresponding image IM5 is an image that does not include (C) RGB color information with respect to the corresponding image IM3. The visual field range VR5 corresponds to the sixth visual field range in the claims, and the visual field range inside the visual field range VR5 corresponds to the fifth visual field range in the claims.

このように、この変形例のHMD100では、画像設定部165は、対応画像IM1の画像データに基づいて、視野範囲VR5では、RGBの色情報を含まない対応画像IM5を画像表示部20の画像表示最大領域PNに表示させる。そのため、この変形例のHMD100では、同じ画像データに基づいて、使用者がRGBを含む種々の色情報を認識できる範囲においてはRGBの色情報を用いた対応画像が表示され、使用者が色情報を認識しづらい範囲においては白と黒との色情報のみを有する対応画像が表示させる。これにより、対応画像を視認する使用者の認識のしやすさを低減させないで、対応画像を表示させる処理の速度をより向上させることができる。   As described above, in the HMD 100 of this modification, the image setting unit 165 displays the corresponding image IM5 that does not include RGB color information in the field of view range VR5 based on the image data of the corresponding image IM1. The maximum area PN is displayed. Therefore, in the HMD 100 of this modification, a corresponding image using RGB color information is displayed within a range in which the user can recognize various color information including RGB based on the same image data. In a range where it is difficult to recognize the image, a corresponding image having only color information of white and black is displayed. Thereby, the speed of the process which displays a corresponding image can be improved more, without reducing the ease of recognition of the user who visually recognizes a corresponding image.

B−2.変形例2:
図15は、対応画像IM5が視野範囲VR5に属する場合に使用者が視認する視野VRの一例を示す説明図である。図15には、撮像された人間の被写体OBに頭部の位置に、帽子の画像である対応画像IM6が重畳されて表示されている場合の視野VRが示されている。被写体OBは、上半身および下半身にスキーウェアを試着している人間であり、実際には帽子を頭部に試着していない。図15に示すように、HMD100の使用者の注視点PORは、被写体OBから離れた位置であり、この場合に、対応画像IM6が画像表示最大領域PNにおいて表示される領域は、視野範囲VR5に属する。対応画像IM6の基となる画像データは、対応画像IM6として表示されている帽子の模様などの色情報も含んでいる。しかし、画像設定部165は、対応画像IM6の表示位置が視野範囲VR5に属するため、対応画像IM6を、模様やRGBなどの色情報を含まず、帽子の外枠だけを黒の濃い濃淡で表示させた画像として画像表示最大領域PNに表示させる。換言すると、画像設定部165は、対応画像IM6の輪郭を使用者に認識させるため、帽子の画像の外枠のみの画像を画像表示最大領域PNに表示させる。
B-2. Modification 2:
FIG. 15 is an explanatory diagram illustrating an example of the visual field VR visually recognized by the user when the corresponding image IM5 belongs to the visual field range VR5. FIG. 15 shows a visual field VR in a case where a corresponding image IM6 that is an image of a hat is superimposed on a captured human subject OB and displayed at the position of the head. The subject OB is a person who is trying on ski wear on the upper body and the lower body, and is not actually trying on a hat on the head. As shown in FIG. 15, the gazing point POR of the user of the HMD 100 is a position away from the subject OB, and in this case, the region where the corresponding image IM6 is displayed in the image display maximum region PN is in the visual field range VR5. Belongs. The image data on which the corresponding image IM6 is based also includes color information such as a hat pattern displayed as the corresponding image IM6. However, since the display position of the corresponding image IM6 belongs to the visual field range VR5, the image setting unit 165 does not include color information such as a pattern or RGB, and displays only the outer frame of the hat with a dark dark shade of black. The image is displayed in the image display maximum area PN. In other words, the image setting unit 165 displays an image of only the outer frame of the hat image in the image display maximum region PN in order to make the user recognize the outline of the corresponding image IM6.

このように、この変形例のHMD100では、画像設定部165は、画像データに基づいて、視野範囲VR5では、表示画像の輪郭のみの対応画像IM6を画像表示部20の画像表示最大領域PNに表示させる。そのため、この変形例のHMD100では、使用者が色情報を認識しづらい範囲においては画像の外枠のみを表示させので、対応画像を視認する使用者の認識のしやすさを低減させないで、対応画像を表示させる処理の速度をより向上させることができる。   As described above, in the HMD 100 of this modification, the image setting unit 165 displays the corresponding image IM6 of only the outline of the display image in the image display maximum region PN of the image display unit 20 based on the image data. Let For this reason, in the HMD 100 of this modified example, only the outer frame of the image is displayed in a range where it is difficult for the user to recognize the color information, so that the user can easily recognize the corresponding image without reducing the ease of recognition. The processing speed for displaying an image can be further improved.

B−3.変形例3:
上記実施形態では、表示画像が画像表示最大領域PNの一部に表示されたが、表示画像は、画像表示最大領域PNの全体に表示される画像であってもよいし、カメラ61,62の撮像画像から検出される検出対象と対応付けられた対応画像とは異なる画像であってもよい。例えば、表示画像は、検出対象と無関係に、コンテンツ等によって再生される映画などの動画であってもよい。また、表示画像としての動画は、画像表示最大領域PNの全体に表示されてもよい。画像が画像表示最大領域PNの全体に表示される動画の場合に、画像設定部165は、使用者の視線方向EDが画像表示最大領域PN上にないと判定したときには、動画を非表示にしてもよい。このように、画像設定部165は、画像表示最大領域PNに表示される画像と特定された使用者の視線方向EDとに基づいて、表示画像の表示態様を種々変形して設定する。
B-3. Modification 3:
In the above-described embodiment, the display image is displayed in a part of the image display maximum area PN. However, the display image may be an image displayed on the entire image display maximum area PN. The image may be different from the corresponding image associated with the detection target detected from the captured image. For example, the display image may be a moving image such as a movie that is reproduced by content or the like regardless of the detection target. The moving image as the display image may be displayed on the entire image display maximum area PN. When the image is a moving image displayed on the entire image display maximum area PN, the image setting unit 165 hides the moving image when determining that the user's line-of-sight direction ED is not on the image display maximum area PN. Also good. As described above, the image setting unit 165 variously changes and sets the display mode of the display image based on the image displayed in the image display maximum region PN and the identified user's line-of-sight direction ED.

上記実施形態では、使用者の視線方向EDは、眼撮像カメラ37,38の撮像画像に基づいて特定されたが、別の方法によって特定されてもよい。例えば、画像表示部20の向きによって使用者の視線方向EDが特定されてもよい。具体的には、画像表示部20を頭部に装着している使用者の視線方向EDは、画像表示部20の正面方向であると特定し、常に、画像表示最大領域PNの中心を使用者の注視点PORとして設定してもよい。この変形例のHMD100によれば、眼撮像カメラ37,38のような装置を使用せずに、簡便に安価に使用者の視線方向EDを特定できる。また、画像表示部20にジャイロセンサーが搭載されて、ジャイロセンサーによって検出された角速度に基づいて、画像表示部20の向きが特定されてもよい。また、使用者のこめかみや鼻に接触する部分に配置された電極が検出する筋電位によって使用者の視線方向が特定されてもよい。   In the above embodiment, the user's line-of-sight direction ED is specified based on the captured images of the eye imaging cameras 37 and 38, but may be specified by another method. For example, the user's line-of-sight direction ED may be specified by the orientation of the image display unit 20. Specifically, the line-of-sight direction ED of the user wearing the image display unit 20 on the head is specified as the front direction of the image display unit 20, and the center of the image display maximum region PN is always set to the user. May be set as the point of interest POR. According to the HMD 100 of this modification, the user's line-of-sight direction ED can be specified easily and inexpensively without using an apparatus such as the eye imaging cameras 37 and 38. Further, a gyro sensor may be mounted on the image display unit 20 and the orientation of the image display unit 20 may be specified based on the angular velocity detected by the gyro sensor. Further, the line-of-sight direction of the user may be specified by a myoelectric potential detected by an electrode disposed in a portion that contacts the user's temple or nose.

また、上記実施形態では、人間の視野と視野に関連した人間に視認の程度によって、視野範囲VR2などの使用者の注視点PORに対する範囲を設定したが、これらの範囲によっては、種々変形可能である。外景SCの輝度などの明るさ、HMD100の使用者の視力、表示される画像の解像度などによって視野範囲VR2などが設定されてもよい。   In the above embodiment, the range for the user's point of interest POR, such as the visual field range VR2, is set according to the visual field of the human and the level of human visibility related to the visual field, but various modifications can be made depending on these ranges. is there. The visual field range VR2 and the like may be set according to the brightness of the outside scene SC and the like, the visual acuity of the user of the HMD 100, the resolution of the displayed image, and the like.

上記実施形態では、カメラ61,62の撮像画像に基づいて、撮像画像に含まれる対象物までの距離が測定されたが、対象物までの距離の測定の方法や測定の有無については、種々変形可能である。また、必ずしも、対象物までの距離が測定される必要はない。   In the above embodiment, the distance to the object included in the captured image is measured based on the captured images of the cameras 61 and 62. However, the method for measuring the distance to the object and the presence or absence of the measurement are variously modified. Is possible. In addition, the distance to the object need not necessarily be measured.

上記実施形態では、画像表示部20を装着した使用者が透過した外景SCを視認できたが、使用者が外景SCを視認できないいわゆるクローズ型のHMDであってもよい。   In the above-described embodiment, the user who wears the image display unit 20 can visually recognize the transmitted outside scene SC. However, a so-called closed HMD in which the user cannot visually recognize the outside scene SC may be used.

また、上記実施形態では、外景SCを撮像する撮像部として、第1カメラ61と第2カメラ62とによって構成されるステレオカメラが用いられたが、1つのカメラが用いられてもよいし、3つ以上のカメラが用いられてもよい。また、カメラの配置される位置は、必ずしも画像表示部20に含まれる必要はなく、カメラは、画像表示部20と別体で構成されてもよい。   In the above-described embodiment, a stereo camera including the first camera 61 and the second camera 62 is used as the imaging unit that images the outside scene SC. However, one camera may be used. More than one camera may be used. In addition, the position where the camera is arranged is not necessarily included in the image display unit 20, and the camera may be configured separately from the image display unit 20.

また、使用者の視覚特性には個人差があるため、操作部135が所定の操作を受け付けることで、視野範囲と画像表示部20に表示される画像との対応関係が変更されてもよい。   Further, since there are individual differences in the visual characteristics of the user, the correspondence between the visual field range and the image displayed on the image display unit 20 may be changed by the operation unit 135 receiving a predetermined operation.

上記実施形態では、三次元画像として使用者に認識させるために、両眼視差を形成する方法を用いたが、三次元画像として使用者に認識させる方法については、種々変形可能である。例えば、三次元画像として使用者に認識させる方法として、輻輳運動させる画像が画像表示部20に表示されたり、陰影が画像に付与したり、画像の大きさの変更させることで奥行き感が表されてもよい。また、二次元画像についても、例えば、距離情報を含まない無限遠として画像表示部20に表示される画像であってもよく、種々変形可能である。   In the above embodiment, a method of forming binocular parallax is used in order to make the user recognize as a three-dimensional image, but the method of making the user recognize as a three-dimensional image can be variously modified. For example, as a method for allowing the user to recognize as a three-dimensional image, an image for converging motion is displayed on the image display unit 20, a shadow is added to the image, or a sense of depth is expressed by changing the size of the image. May be. Also, the two-dimensional image may be an image displayed on the image display unit 20 as infinity not including distance information, for example, and can be variously modified.

図14に示すように、視野範囲VR5では、RGBの色情報を含まない対応画像IM5が画像表示最大領域PNに表示されたが、色情報を含まない例としては、これに限られず、種々変形可能である。例えば、赤(RED)などの単色に対して、濃淡が付与された画像が画像表示最大領域PNに表示されてもよい。色情報を減らした画像としては、単に、特定の色のグレースケールなどによって表示された画像であってもよい。   As shown in FIG. 14, in the visual field range VR5, the corresponding image IM5 that does not include RGB color information is displayed in the image display maximum area PN. However, examples that do not include color information are not limited thereto, and various modifications are possible. Is possible. For example, an image provided with light and shade for a single color such as red (RED) may be displayed in the image display maximum area PN. An image with reduced color information may simply be an image displayed in a specific color gray scale or the like.

上記実施形態では、図11に示すように、簡略化した画像として丸の画像である対応画像IM2が画像表示最大領域PNに表示されたが、簡略化した画像については、種々変形可能である。例えば、丸以外の三角や四角の画像であってもよいし、画像データに対応付けられた当該画像データを連想しやすい何らかのシンボルマークの形状であってもよい。簡略化した画像とは、画像データに基づいて表示される画像(例えば、対応画像IM1)と比較して、複雑ではなく、そこに簡略化した画像が存在することを使用者に認識させる程度の画像であればよい。   In the above embodiment, as shown in FIG. 11, the corresponding image IM2 that is a round image is displayed as a simplified image in the image display maximum area PN. However, the simplified image can be variously modified. For example, the image may be a triangle or square image other than a circle, or may be in the form of some symbol mark that easily associates the image data associated with the image data. The simplified image is not complicated compared to an image (for example, the corresponding image IM1) displayed based on the image data, and the user can recognize that the simplified image exists there. Any image can be used.

上記実施形態では、使用者の視線方向と使用者の視野範囲との関係に基づいて、画像表示最大領域PNに表示される画像の態様が変化したが、態様ではなく、画像が表示される位置が変化してもよい。例えば、視野範囲VR2に含まれる場合には、画像表示最大領域PNの全体に画像が表示され、視野範囲VR5よりも外側の範囲である場合には、画像表示最大領域PNの一部に簡略化された画像が表示されてもよい。   In the above embodiment, the aspect of the image displayed in the image display maximum area PN has changed based on the relationship between the user's line-of-sight direction and the user's visual field range. May change. For example, when it is included in the visual field range VR2, the image is displayed on the entire image display maximum region PN, and when it is a range outside the visual field range VR5, it is simplified to a part of the image display maximum region PN. The displayed image may be displayed.

B−4.変形例4:
上記実施形態では、制御部10に操作部135が形成されたが、操作部135の態様については種々変形可能である。例えば、制御部10とは別体で操作部135であるユーザーインターフェースがある態様でもよい。この場合に、操作部135は、電源130等が形成された制御部10とは別体であるため、小型化でき、使用者の操作性が向上する。また、カメラ61,62が画像表示部20に配置されたが、カメラ61が画像表示部20とは別体に構成され、外景SCを撮像できてもよい。また、制御部10の構成するCPU140や電源130が画像表示部20に全て搭載されたHMD100であってもよい。このHMD100では、画像表示部20と別体で構成されるコントローラーがないため、より小型化できる。また、制御部10と画像表示部20とのそれぞれに、CPU140が搭載されることで、制御部10がコントローラー単体として使用され、画像表示部20が表示装置単体として使用されてもよい。
B-4. Modification 4:
In the above embodiment, the operation unit 135 is formed in the control unit 10, but the mode of the operation unit 135 can be variously modified. For example, a mode in which a user interface that is the operation unit 135 is provided separately from the control unit 10 may be used. In this case, the operation unit 135 is separate from the control unit 10 in which the power supply 130 and the like are formed. Therefore, the operation unit 135 can be reduced in size and user operability is improved. Further, the cameras 61 and 62 are arranged in the image display unit 20, but the camera 61 may be configured separately from the image display unit 20 and can capture the outside scene SC. Alternatively, the HMD 100 in which the CPU 140 and the power supply 130 that are included in the control unit 10 are all mounted in the image display unit 20 may be used. The HMD 100 can be further downsized because there is no controller configured separately from the image display unit 20. Further, by mounting the CPU 140 on each of the control unit 10 and the image display unit 20, the control unit 10 may be used as a single controller and the image display unit 20 may be used as a single display device.

例えば、画像光生成部は、有機EL(有機エレクトロルミネッセンス、Organic Electro-Luminescence)のディスプレイと、有機EL制御部とを備える構成としてもよい。また、例えば、画像光生成部は、LCDに代えて、LCOS(Liquid crystal on silicon, LCoS は登録商標)や、デジタル・マイクロミラー・デバイス等を用いることもできる。また、例えば、レーザー網膜投影型のHMD100に対して本発明を適用することも可能である。また、画像表示最大領域PNは、各画素に形成されたMEMSシャッターを開閉するMEMSシャッター方式のディスプレイによって構成されてもよい。   For example, the image light generation unit may include an organic EL (Organic Electro-Luminescence) display and an organic EL control unit. Further, for example, the image light generation unit may use LCOS (Liquid crystal on silicon, LCoS is a registered trademark), a digital micromirror device, or the like instead of the LCD. Further, for example, the present invention can be applied to the laser retinal projection type HMD 100. The image display maximum area PN may be configured by a MEMS shutter type display that opens and closes a MEMS shutter formed in each pixel.

また、画像光生成部として、MEMSミラーを用いた走査光学系を採用し、MEMSディスプレイ技術を利用したHMD100であってもよい。具体的な構成としては、HMD100は、信号光形成部と、信号光形成部が射出する光を走査するMEMSミラーを有する走査光学系と、走査光学系により走査される光によって虚像が形成される光学部材と、を光射出部として備えてもよい。HMD100がこの構成を備えると、信号光形成部によって射出された光は、MEMSミラーによって反射され、光学部材に入射し、光学部材に導かれて、虚像形成面(例えば、反射面)に達する。MEMSミラーが光を走査することにより、虚像形成面に虚像が形成され、形成された虚像を使用者が視認することで、使用者に画像が認識される。   Alternatively, the image light generation unit may be an HMD 100 that employs a scanning optical system using a MEMS mirror and utilizes MEMS display technology. As a specific configuration, the HMD 100 forms a virtual image by a signal light forming unit, a scanning optical system having a MEMS mirror that scans light emitted from the signal light forming unit, and light scanned by the scanning optical system. You may provide an optical member as a light emission part. When the HMD 100 has this configuration, the light emitted by the signal light forming unit is reflected by the MEMS mirror, enters the optical member, is guided to the optical member, and reaches a virtual image forming surface (for example, a reflecting surface). When the MEMS mirror scans light, a virtual image is formed on the virtual image forming surface, and the user visually recognizes the formed virtual image so that the user can recognize the image.

また、例えば、HMD100は、光学像表示部が使用者の眼の一部分のみを覆う態様、換言すれば、光学像表示部が使用者の眼を完全に覆わない態様のヘッドマウントディスプレイとしてもよい。また、HMD100は、いわゆる単眼タイプのヘッドマウントディスプレイであるとしてもよい。また、HMD100の代わりに、使用者の頭部に装着されるのではなく、双眼鏡のように使用者が手で位置を固定するハンドヘルドディスプレイが画像表示装置として用いられてもよい。また、HMD100は、両眼タイプの光学透過型であるとしているが、本発明は、例えば、ビデオ透過型といった他の形式の頭部装着型表示装置にも同様に適用可能である。   Further, for example, the HMD 100 may be a head mounted display in which the optical image display unit covers only a part of the user's eyes, in other words, the optical image display unit does not completely cover the user's eyes. The HMD 100 may be a so-called monocular type head mounted display. Further, instead of being mounted on the user's head instead of the HMD 100, a handheld display in which the user fixes the position by hand like binoculars may be used as the image display device. Although the HMD 100 is a binocular optical transmission type, the present invention can be similarly applied to other types of head-mounted display devices such as a video transmission type.

また、HMD100は、他の装置から受信した画像信号に基づく画像を表示するためだけの表示装置と用いられてもよい。具体的には、デスクトップ型のPCのモニターに相当する表示装置として用いられ、例えば、デスクトップ型のPCから画像信号を受信することで、画像表示部20の画像表示最大領域PNに画像が表示されてもよい。   Moreover, HMD100 may be used with the display apparatus only for displaying the image based on the image signal received from the other apparatus. Specifically, it is used as a display device corresponding to a desktop PC monitor. For example, by receiving an image signal from a desktop PC, an image is displayed in the maximum image display area PN of the image display unit 20. May be.

また、HMD100は、システムの一部として機能するように用いられてもよい。例えば、航空機を含むシステムの一部の機能を実行するための装置としてHMD100が用いられてもよいし、HMD100が用いられるシステムとしては、航空機を含むシステムに限られず、自動車や自転車など含むシステムであってもよい。   Moreover, HMD100 may be used so that it may function as a part of system. For example, the HMD 100 may be used as a device for executing a part of functions of a system including an aircraft, and the system in which the HMD 100 is used is not limited to a system including an aircraft, but is a system including an automobile or a bicycle. There may be.

また、イヤホンは耳掛け型やヘッドバンド型が採用されてもよく、省略してもよい。また、例えば、自動車や飛行機等の車両に搭載される頭部装着型表示装置として構成されてもよい。また、例えば、ヘルメット等の身体防護具に内蔵された頭部装着型表示装置として構成されてもよい。   The earphone may be an ear-hook type or a headband type, or may be omitted. Further, for example, it may be configured as a head-mounted display device mounted on a vehicle such as an automobile or an airplane. For example, it may be configured as a head-mounted display device built in a body protective device such as a helmet.

B−5.変形例5:
上記実施形態におけるHMD100の構成は、あくまで一例であり、種々変形可能である。例えば、制御部10に設けられた方向キー16を省略したり、方向キー16やトラックパッド14に加えて、操作用スティック等の他の操作用インターフェイスを設けたりしてもよい。また、制御部10は、キーボードやマウス等の入力デバイスを接続可能な構成であり、キーボードやマウスから入力を受け付けるものとしてもよい。
B-5. Modification 5:
The configuration of the HMD 100 in the above embodiment is merely an example and can be variously modified. For example, the direction key 16 provided in the control unit 10 may be omitted, or another operation interface such as an operation stick may be provided in addition to the direction key 16 and the track pad 14. Moreover, the control part 10 is a structure which can connect input devices, such as a keyboard and a mouse | mouth, and is good also as what receives an input from a keyboard or a mouse | mouth.

また、画像表示部として、眼鏡のように装着する画像表示部20に代えて、例えば帽子のように装着する画像表示部といった他の方式の画像表示部を採用してもよい。また、イヤホン32,34は、適宜省略可能である。また、上記実施形態では、画像光を生成する構成として、LCDと光源とを利用しているが、これらに代えて、有機ELディスプレイといった他の表示素子を採用してもよい。   As the image display unit, instead of the image display unit 20 worn like glasses, another type of image display unit such as an image display unit worn like a hat may be adopted. Further, the earphones 32 and 34 can be omitted as appropriate. Moreover, in the said embodiment, although LCD and a light source are utilized as a structure which produces | generates image light, it replaces with these and you may employ | adopt other display elements, such as an organic EL display.

図16は、変形例におけるHMDの外観構成を示す説明図である。図16(A)の例の場合、図1に示したHMD100との違いは、画像表示部20xが、右光学像表示部26に代えて右光学像表示部26xを備える点と、左光学像表示部28に代えて左光学像表示部28xを備える点とである。右光学像表示部26xは、上記実施形態の光学部材よりも小さく形成され、HMD100xの装着時における使用者の右眼の斜め上に配置されている。同様に、左光学像表示部28xは、上記実施形態の光学部材よりも小さく形成され、HMD100xの装着時における使用者の左眼の斜め上に配置されている。図16(B)の例の場合、図1に示したHMD100との違いは、画像表示部20yが、右光学像表示部26に代えて右光学像表示部26yを備える点と、左光学像表示部28に代えて左光学像表示部28yを備える点とである。右光学像表示部26yは、上記実施形態の光学部材よりも小さく形成され、ヘッドマウントディスプレイの装着時における使用者の右眼の斜め下に配置されている。左光学像表示部28yは、上記実施形態の光学部材よりも小さく形成され、ヘッドマウントディスプレイの装着時における使用者の左眼の斜め下に配置されている。このように、光学像表示部は使用者の眼の近傍に配置されていれば足りる。また、光学像表示部を形成する光学部材の大きさも任意であり、光学像表示部が使用者の眼の一部分のみを覆う態様、換言すれば、光学像表示部が使用者の眼を完全に覆わない態様のHMD100として実現できる。   FIG. 16 is an explanatory diagram showing an external configuration of an HMD in a modified example. In the example of FIG. 16A, the difference from the HMD 100 illustrated in FIG. 1 is that the image display unit 20x includes a right optical image display unit 26x instead of the right optical image display unit 26, It is a point provided with the left optical image display part 28x instead of the display part 28. The right optical image display unit 26x is formed smaller than the optical member of the above-described embodiment, and is disposed obliquely above the right eye of the user when the HMD 100x is mounted. Similarly, the left optical image display unit 28x is formed smaller than the optical member of the above-described embodiment, and is disposed obliquely above the left eye of the user when the HMD 100x is worn. 16B, the difference from the HMD 100 shown in FIG. 1 is that the image display unit 20y includes a right optical image display unit 26y instead of the right optical image display unit 26, and the left optical image. It is a point provided with the left optical image display part 28y instead of the display part 28. The right optical image display unit 26y is formed smaller than the optical member of the above-described embodiment, and is disposed obliquely below the right eye of the user when the head mounted display is mounted. The left optical image display unit 28y is formed smaller than the optical member of the above-described embodiment, and is disposed obliquely below the left eye of the user when the head mounted display is mounted. Thus, it is sufficient that the optical image display unit is disposed in the vicinity of the user's eyes. The size of the optical member forming the optical image display unit is also arbitrary, and the optical image display unit covers only a part of the user's eye, in other words, the optical image display unit completely covers the user's eye. It can be realized as an HMD 100 in an uncovered mode.

また、上記実施形態において、HMD100は、使用者の左右の眼に同じ画像を表わす画像光を導いて使用者に二次元画像を視認させるとしてもよいし、使用者の左右の眼に異なる画像を表わす画像光を導いて使用者に三次元画像を視認させるとしてもよい。   In the above-described embodiment, the HMD 100 may guide the image light representing the same image to the left and right eyes of the user to make the user visually recognize the two-dimensional image, or may display different images on the left and right eyes of the user. The image light to be represented may be guided to make the user visually recognize the three-dimensional image.

また、上記実施形態において、ハードウェアによって実現されていた構成の一部をソフトウェアに置き換えるようにしてもよく、逆に、ソフトウェアによって実現されていた構成の一部をハードウェアに置き換えるようにしてもよい。例えば、上記実施形態では、画像処理部160や音声処理部170は、CPU140がコンピュータープログラムを読み出して実行することにより実現されるとしているが、これらの機能部はハードウェア回路により実現されるとしてもよい。   In the above embodiment, a part of the configuration realized by hardware may be replaced by software, and conversely, a part of the configuration realized by software may be replaced by hardware. Good. For example, in the above-described embodiment, the image processing unit 160 and the sound processing unit 170 are realized by the CPU 140 reading and executing a computer program, but these functional units may be realized by a hardware circuit. Good.

また、本発明の機能の一部または全部がソフトウェアで実現される場合には、そのソフトウェア(コンピュータープログラム)は、コンピューター読み取り可能な記録媒体に格納された形で提供することができる。この発明において、「コンピューター読み取り可能な記録媒体」とは、フレキシブルディスクやCD−ROMのような携帯型の記録媒体に限らず、各種のRAMやROM等のコンピューター内の内部記憶装置や、ハードディスク等のコンピューターに固定されている外部記憶装置も含んでいる。   In addition, when part or all of the functions of the present invention are realized by software, the software (computer program) can be provided in a form stored in a computer-readable recording medium. In the present invention, the “computer-readable recording medium” is not limited to a portable recording medium such as a flexible disk or a CD-ROM, but an internal storage device in a computer such as various RAMs and ROMs, a hard disk, etc. It also includes an external storage device fixed to the computer.

また、上記実施形態では、図1および図2に示すように、制御部10と画像表示部20とが別々の構成として形成されているが、制御部10と画像表示部20との構成については、これに限られず、種々変形可能である。例えば、画像表示部20の内部に、制御部10に形成された構成の全てが形成されてもよいし、一部が形成されてもよい。また、上記実施形態における電源130が単独で形成されて、交換可能な構成であってもよいし、制御部10に形成された構成が重複して画像表示部20に形成されていてもよい。例えば、図2に示すCPU140が制御部10と画像表示部20との両方に形成されていてもよいし、制御部10に形成されたCPU140と画像表示部20に形成されたCPUとが行なう機能が別々に分けられている構成としてもよい。   Moreover, in the said embodiment, as shown in FIG. 1 and FIG. 2, the control part 10 and the image display part 20 are formed as a separate structure, However, about the structure of the control part 10 and the image display part 20, about. However, the present invention is not limited to this, and various modifications are possible. For example, all of the components formed in the control unit 10 may be formed inside the image display unit 20 or a part thereof may be formed. In addition, the power source 130 in the above embodiment may be formed independently and replaceable, or the configuration formed in the control unit 10 may be overlapped and formed in the image display unit 20. For example, the CPU 140 shown in FIG. 2 may be formed in both the control unit 10 and the image display unit 20, or a function performed by the CPU 140 formed in the control unit 10 and the CPU formed in the image display unit 20. May be configured separately.

本発明は、上記実施形態や変形例に限られるものではなく、その趣旨を逸脱しない範囲において種々の構成で実現することができる。例えば、発明の概要の欄に記載した各形態中の技術的特徴に対応する実施形態、変形例中の技術的特徴は、上述の課題の一部または全部を解決するために、あるいは、上述の効果の一部または全部を達成するために、適宜、差し替えや、組み合わせを行なうことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。   The present invention is not limited to the above-described embodiments and modifications, and can be realized with various configurations without departing from the spirit of the present invention. For example, the technical features in the embodiments and the modifications corresponding to the technical features in each form described in the summary section of the invention are to solve some or all of the above-described problems, or In order to achieve part or all of the effects, replacement or combination can be performed as appropriate. Further, if the technical feature is not described as essential in the present specification, it can be deleted as appropriate.

10…制御部
11…決定キー
12…点灯部
13…表示切替キー
14…トラックパッド
15…輝度切替キー
16…方向キー
17…メニューキー
18…電源スイッチ
20…画像表示部(画像表示部)
21…右保持部
22…右表示駆動部
23…左保持部
24…左表示駆動部
26…右光学像表示部
28…左光学像表示部
30…イヤホンプラグ
32…右イヤホン
34…左イヤホン
37…右眼撮像カメラ(眼撮像部、視線方向特定部)
38…左眼撮像カメラ(眼撮像部、視線方向特定部)
40…接続部
42…右コード
44…左コード
46…連結部材
48…本体コード
51,52…送信部
53,54…受信部
61…第1カメラ(外景撮像部)
62…第2カメラ(外景撮像部)
100…HMD(頭部装着型表示装置)
120…記憶部
130…電源
132…無線通信部
135…操作部
140…CPU
150…オペレーティングシステム
160…画像処理部
165…画像設定部(画像変更部)
166…方向特定部(視線方向特定部)
168…距離測定部
170…音声処理部
180…インターフェイス
190…表示制御部
201…右BL制御部
202…左BL制御部
211…右LCD制御部
212…左LCD制御部
221…右バックライト
222…左バックライト
241…右LCD
242…左LCD
251…右投写光学系
252…左投写光学系
261…右導光板
262…左導光板
AP…先端部
BD1,BD2,BD3…建物
ED…使用者の視線方向
EL…左光学像表示部の端部
ER…右光学像表示の端部
HSync…水平同期信号
VSync…垂直同期信号
PCLK…クロック信号
IL…照明光
IM1,IM2,IM3,IM4,IM5,IM6…対応画像
LE…左眼
RE…右眼
MN…月
MP…左右眼球中心
OA…外部機器
OB…被写体
PL…画像光
PN…画像表示最大領域(表示領域)
POR…注視点
SC…外景
TW…検出対象(特定対象物)
US…使用者
VR…視野
VR1,VR2,VR3,VR4,VR5,VR6…視野範囲
VRh…鉛直視野
VRw…水平視野
DESCRIPTION OF SYMBOLS 10 ... Control part 11 ... Decision key 12 ... Illumination part 13 ... Display switch key 14 ... Track pad 15 ... Luminance switch key 16 ... Direction key 17 ... Menu key 18 ... Power switch 20 ... Image display part (image display part)
DESCRIPTION OF SYMBOLS 21 ... Right holding part 22 ... Right display drive part 23 ... Left holding part 24 ... Left display drive part 26 ... Right optical image display part 28 ... Left optical image display part 30 ... Earphone plug 32 ... Right earphone 34 ... Left earphone 37 ... Right-eye imaging camera (eye imaging unit, line-of-sight direction identification unit)
38 ... Left-eye imaging camera (eye imaging unit, line-of-sight direction specifying unit)
DESCRIPTION OF SYMBOLS 40 ... Connection part 42 ... Right cord 44 ... Left code 46 ... Connecting member 48 ... Main body code 51, 52 ... Transmission part 53, 54 ... Reception part 61 ... 1st camera (outside scene imaging part)
62 ... Second camera (outside scene imaging unit)
100 ... HMD (head-mounted display device)
DESCRIPTION OF SYMBOLS 120 ... Memory | storage part 130 ... Power supply 132 ... Wireless communication part 135 ... Operation part 140 ... CPU
150: Operating system 160 ... Image processing unit 165 ... Image setting unit (image changing unit)
166... Direction specifying unit (gaze direction specifying unit)
168 ... Distance measuring unit 170 ... Audio processing unit 180 ... Interface 190 ... Display control unit 201 ... Right BL control unit 202 ... Left BL control unit 211 ... Right LCD control unit 212 ... Left LCD control unit 221 ... Right backlight 222 ... Left Backlight 241, right LCD
242 ... Left LCD
251 ... Right projection optical system 252 ... Left projection optical system 261 ... Right light guide plate 262 ... Left light guide plate AP ... Tip part BD1, BD2, BD3 ... Building ED ... User's line of sight direction EL ... End part of left optical image display part ER ... End of right optical image display HSync ... Horizontal synchronization signal VSync ... Vertical synchronization signal PCLK ... Clock signal IL ... Illumination light IM1, IM2, IM3, IM4, IM5, IM6 ... Corresponding image LE ... Left eye RE ... Right eye MN ... Month MP ... Left and right eyeball center OA ... External device OB ... Subject PL ... Image light PN ... Maximum image display area (display area)
POR ... Gaze point SC ... Outside view TW ... Detection target (specific object)
US ... User VR ... View VR1, VR2, VR3, VR4, VR5, VR6 ... View range VRh ... Vertical view VRw ... Horizontal view

Claims (14)

頭部装着型表示装置であって、
画像を表示領域に表示可能な画像表示部と、
使用者の視線方向を特定する視線方向特定部と、
特定された前記視線方向に応じて、前記表示領域に表示される表示画像を変更する画像変更部と、を備え
前記画像変更部は、前記表示画像が使用者に三次元画像として視認される画像の場合には、特定された前記視線方向を含む第3の視野範囲では前記表示画像を三次元画像として前記表示領域に表示させ、前記第3の視野範囲よりも大きい範囲であると共に前記第3の視野範囲を含まない第4の視野範囲に表示では前記表示画像を二次元画像として使用者に視認されるように前記表示領域に表示させる、頭部装着型表示装置。
A head-mounted display device,
An image display unit capable of displaying an image in a display area;
A line-of-sight direction identifying unit that identifies the line-of-sight direction of the user;
An image changing unit that changes a display image displayed in the display area according to the identified line-of-sight direction ,
In the case where the display image is an image that is visually recognized by a user as a three-dimensional image, the image changing unit displays the display image as a three-dimensional image in a third field of view including the specified line-of-sight direction. The display image is displayed as a two-dimensional image in a fourth visual field range that is displayed in a region and is larger than the third visual field range and does not include the third visual field range. A head-mounted display device that displays the image on the display area .
頭部装着型表示装置であって、
画像を表示領域に表示可能な画像表示部と、
使用者の視線方向を特定する視線方向特定部と、
特定された前記視線方向に応じて、前記表示領域に表示される表示画像を変更する画像変更部と、を備え
前記画像変更部は、前記表示画像が複数の色の情報を含む画像である場合には、特定された前記視線方向を含む第5の視野範囲では前記表示画像を複数の色の情報を含む画像として前記表示領域に表示させ、前記第5の視野範囲よりも大きい範囲であると共に前記第5の視野範囲を含まない第6の視野範囲では前記表示画像を単色の濃淡を用いて前記表示領域に表示させる、頭部装着型表示装置。
A head-mounted display device,
An image display unit capable of displaying an image in a display area;
A line-of-sight direction identifying unit that identifies the line-of-sight direction of the user;
An image changing unit that changes a display image displayed in the display area according to the identified line-of-sight direction ,
When the display image is an image including information of a plurality of colors, the image change unit includes the display image including information of a plurality of colors in the fifth visual field range including the specified line-of-sight direction. In the sixth viewing range that is larger than the fifth viewing range and does not include the fifth viewing range, the display image is displayed in the display region using a single color shading. A head-mounted display device for display.
請求項2に記載の頭部装着型表示装置であって、  The head-mounted display device according to claim 2,
前記画像変更部は、前記第6の視野範囲では、前記表示画像の輪郭のみを前記表示領域に表示させる、頭部装着型表示装置。  The head-mounted display device, wherein the image changing unit displays only an outline of the display image in the display area in the sixth visual field range.
請求項1から請求項までのいずれか一項に記載の頭部装着型表示装置であって、
前記画像変更部は、特定された前記視線方向を含む第7の視野範囲よりも大きい範囲であると共に前記第7の視野範囲を含まない第8の視野範囲では、前記表示画像を前記第7の視野範囲に表示される画像よりも簡略化した簡易画像として前記表示領域に表示させる、頭部装着型表示装置。
The head-mounted display device according to any one of claims 1 to 3 ,
The image changing unit is configured to display the display image in the seventh visual field range that is larger than the seventh visual field range including the specified line-of-sight direction and in the eighth visual field range not including the seventh visual field range. A head-mounted display device that displays in the display area as a simplified image that is simpler than an image displayed in the visual field range.
請求項1から請求項4までのいずれか一項に記載の頭部装着型表示装置であって、
前記画像変更部は、特定された前記視線方向に応じて変化する使用者の視覚特性に対応させて前記表示画像を変更する、頭部装着型表示装置。
The head-mounted display device according to any one of claims 1 to 4 ,
The head-mounted display device, wherein the image changing unit changes the display image in accordance with a visual characteristic of a user that changes according to the identified line-of-sight direction.
請求項1から請求項5までのいずれか一項に記載の頭部装着型表示装置であって、
前記画像変更部は、前記表示領域の一部に前記表示画像を表示する場合に、前記表示画像の位置と前記視線方向とに応じて、前記表示画像を変更する、頭部装着型表示装置。
The head-mounted display device according to any one of claims 1 to 5 ,
The head-mounted display device that changes the display image in accordance with the position of the display image and the line-of-sight direction when the display image is displayed in a part of the display area.
請求項1から請求項までのいずれか一項に記載の頭部装着型表示装置であって、
前記画像表示部は、外景を透過可能であり、
前記頭部装着型表示装置は、さらに、
前記外景を撮像する外景撮像部を備え、
前記画像変更部は、撮像された前記外景の画像の中から特定対象物を検出し、検出した特定対象物の位置に対応付けて前記表示画像の位置を設定する、頭部装着型表示装置。
The head-mounted display device according to any one of claims 1 to 6 ,
The image display unit can transmit an outside scene,
The head-mounted display device further includes:
An outside scene imaging unit for imaging the outside scene;
The head-mounted display device, wherein the image change unit detects a specific object from the captured image of the outside scene and sets the position of the display image in association with the detected position of the specific object.
請求項に記載の頭部装着型表示装置であって、
前記視線方向特定部は、前記画像表示部の向きを検出する表示部方向検出部を有し、検出された前記画像表示部の向きに基づいて前記視線方向を特定する、頭部装着型表示装置。
The head-mounted display device according to claim 7 ,
The gaze direction specifying unit includes a display unit direction detecting unit that detects the direction of the image display unit, and specifies the gaze direction based on the detected direction of the image display unit. .
請求項に記載の頭部装着型表示装置であって、
前記視線方向特定部は、使用者の眼を撮像する眼撮像部を有し、撮像された使用者の眼の画像に基づいて、前記視線方向を特定する、頭部装着型表示装置。
The head-mounted display device according to claim 7 ,
The eye-gaze direction specifying unit includes an eye imaging unit that images a user's eye, and specifies the eye direction based on the captured image of the user's eye.
請求項1から請求項までのいずれか一項に記載の頭部装着型表示装置であって、
前記画像変更部は、前記表示画像が文字画像を含む場合には、特定された前記視線方向を含む第1の視野範囲では前記文字画像を前記表示画像として前記表示領域に表示させ、前記第1の視野範囲よりも大きい範囲であると共に前記第1の視野範囲を含まない第2の視野範囲では前記文字画像を前記表示画像として前記表示領域に表示させない、頭部装着型表示装置。
The head-mounted display device according to any one of claims 1 to 9 ,
When the display image includes a character image, the image changing unit displays the character image as the display image in the display area in the first visual field range including the specified line-of-sight direction, A head-mounted display device that does not display the character image as the display image in the display area in a second visual field range that is larger than the visual field range and does not include the first visual field range.
画像を表示領域に表示可能な画像表示部を有する、頭部装着型表示装置の制御方法であって、
使用者の視線方向を特定する工程と、
特定された前記視線方向に応じて、前記表示領域に表示される表示画像を変更する工程と、を備え
前記表示画像を変更する工程は、前記表示画像が使用者に三次元画像として視認される画像の場合には、特定された前記視線方向を含む第3の視野範囲では前記表示画像を三次元画像として前記表示領域に表示させ、前記第3の視野範囲よりも大きい範囲であると共に前記第3の視野範囲を含まない第4の視野範囲に表示では前記表示画像を二次元画像として使用者に視認されるように前記表示領域に表示させる、制御方法。
A control method for a head-mounted display device having an image display unit capable of displaying an image in a display area,
Identifying the user's gaze direction;
Changing the display image displayed in the display area according to the identified line-of-sight direction ,
In the step of changing the display image, in the case where the display image is an image that is visually recognized by a user as a three-dimensional image, the display image is converted into a three-dimensional image in the third visual field range including the specified line-of-sight direction. The display image is displayed as a two-dimensional image in the fourth visual field range that is larger than the third visual field range and does not include the third visual field range. A control method for displaying in the display area .
画像を表示領域に表示可能な画像表示部を有する、頭部装着型表示装置の制御方法であって、
使用者の視線方向を特定する工程と、
特定された前記視線方向に応じて、前記表示領域に表示される表示画像を変更する工程と、を備え、
前記表示画像を変更する工程は、前記表示画像が複数の色の情報を含む画像である場合には、特定された前記視線方向を含む第5の視野範囲では前記表示画像を複数の色の情報を含む画像として前記表示領域に表示させ、前記第5の視野範囲よりも大きい範囲であると共に前記第5の視野範囲を含まない第6の視野範囲では前記表示画像を単色の濃淡を用いて前記表示領域に表示させる、制御方法。
A control method for a head-mounted display device having an image display unit capable of displaying an image in a display area,
Identifying the user's gaze direction;
Changing the display image displayed in the display area according to the identified line-of-sight direction,
In the step of changing the display image, when the display image is an image including information of a plurality of colors, the display image is converted to information of a plurality of colors in the fifth visual field range including the specified line-of-sight direction. In the sixth viewing range that is larger than the fifth viewing range and does not include the fifth viewing range, the display image is displayed using a single color shading. A control method that displays in the display area .
頭部装着型表示装置のためのコンピュータープログラムであって、
画像を表示領域に表示可能な画像表示機能と、
使用者の視線方向を特定する視線方向特定機能と、
特定された前記視線方向に応じて、前記表示領域に表示される表示画像を変更する画像変更機能と、を頭部装着型表示装置に実現させ
前記画像変更機能は、前記表示画像が使用者に三次元画像として視認される画像の場合には、特定された前記視線方向を含む第3の視野範囲では前記表示画像を三次元画像として前記表示領域に表示させ、前記第3の視野範囲よりも大きい範囲であると共に前記第3の視野範囲を含まない第4の視野範囲に表示では前記表示画像を二次元画像として使用者に視認されるように前記表示領域に表示させる、コンピュータープログラム。
A computer program for a head-mounted display device,
An image display function capable of displaying an image in the display area;
A gaze direction identifying function for identifying the gaze direction of the user;
An image change function for changing a display image displayed in the display area according to the identified line-of-sight direction is realized in a head-mounted display device ,
In the case where the display image is an image that is visually recognized by a user as a three-dimensional image, the image change function is configured to display the display image as a three-dimensional image in a third visual field range including the specified line-of-sight direction. The display image is displayed as a two-dimensional image in a fourth visual field range that is displayed in a region and is larger than the third visual field range and does not include the third visual field range. A computer program for causing the computer to display in the display area .
頭部装着型表示装置のためのコンピュータープログラムであって、
画像を表示領域に表示可能な画像表示機能と、
使用者の視線方向を特定する視線方向特定機能と、
特定された前記視線方向に応じて、前記表示領域に表示される表示画像を変更する画像変更機能と、を頭部装着型表示装置に実現させ
前記画像変更機能は、前記表示画像が複数の色の情報を含む画像である場合には、特定された前記視線方向を含む第5の視野範囲では前記表示画像を複数の色の情報を含む画像として前記表示領域に表示させ、前記第5の視野範囲よりも大きい範囲であると共に前記第5の視野範囲を含まない第6の視野範囲では前記表示画像を単色の濃淡を用いて前記表示領域に表示させる、コンピュータープログラム。
A computer program for a head-mounted display device,
An image display function capable of displaying an image in the display area;
A gaze direction identifying function for identifying the gaze direction of the user;
An image change function for changing a display image displayed in the display area according to the identified line-of-sight direction is realized in a head-mounted display device ,
When the display image is an image including information of a plurality of colors, the image change function includes an image including information of a plurality of colors in the fifth visual field range including the specified line-of-sight direction. In the sixth viewing range that is larger than the fifth viewing range and does not include the fifth viewing range, the display image is displayed in the display region using a single color shading. A computer program to be displayed .
JP2015052816A 2015-03-17 2015-03-17 Head-mounted display device, head-mounted display device control method, and computer program Active JP6488786B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2015052816A JP6488786B2 (en) 2015-03-17 2015-03-17 Head-mounted display device, head-mounted display device control method, and computer program
CN201610146097.6A CN105988219B (en) 2015-03-17 2016-03-15 Head-mounted display device and method for controlling head-mounted display device
CN202011123958.1A CN112130329B (en) 2015-03-17 2016-03-15 Head-mounted display device and method for controlling head-mounted display device
US15/070,469 US9977241B2 (en) 2015-03-17 2016-03-15 Head-mounted display device, control method for head-mounted display device, and computer program
US15/964,843 US10175484B2 (en) 2015-03-17 2018-04-27 Head-mounted display device, control method for head-mounted display device, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015052816A JP6488786B2 (en) 2015-03-17 2015-03-17 Head-mounted display device, head-mounted display device control method, and computer program

Publications (2)

Publication Number Publication Date
JP2016173693A JP2016173693A (en) 2016-09-29
JP6488786B2 true JP6488786B2 (en) 2019-03-27

Family

ID=57008885

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015052816A Active JP6488786B2 (en) 2015-03-17 2015-03-17 Head-mounted display device, head-mounted display device control method, and computer program

Country Status (1)

Country Link
JP (1) JP6488786B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017117175A (en) * 2015-12-24 2017-06-29 セイコーエプソン株式会社 Head-wearable display device, control method of head-wearable display device, and computer program

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6485310B2 (en) * 2015-09-30 2019-03-20 アイシン・エィ・ダブリュ株式会社 Information providing system, information providing method, and computer program
JP2017182247A (en) 2016-03-29 2017-10-05 ソニー株式会社 Information processing device, information processing method, and program
AU2017362344B2 (en) * 2016-11-16 2023-09-28 Magic Leap, Inc. Multi-resolution display assembly for head-mounted display systems
JP6606312B2 (en) * 2017-11-20 2019-11-13 楽天株式会社 Information processing apparatus, information processing method, and information processing program
JP2021096490A (en) * 2018-03-28 2021-06-24 ソニーグループ株式会社 Information processing device, information processing method, and program
JP2018192272A (en) * 2018-07-05 2018-12-06 株式会社カプコン Game program and game device
US20200082576A1 (en) * 2018-09-11 2020-03-12 Apple Inc. Method, Device, and System for Delivering Recommendations
US11314327B2 (en) * 2020-04-22 2022-04-26 Htc Corporation Head mounted display and control method thereof

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005043218A1 (en) * 2003-10-30 2005-05-12 Brother Kogyo Kabushiki Kaisha Image display device
JP2005300730A (en) * 2004-04-08 2005-10-27 Nikon Corp Head mounted display
JP6056178B2 (en) * 2012-04-11 2017-01-11 ソニー株式会社 Information processing apparatus, display control method, and program
JP6040715B2 (en) * 2012-11-06 2016-12-07 ソニー株式会社 Image display apparatus, image display method, and computer program
JP6398157B2 (en) * 2013-08-19 2018-10-03 セイコーエプソン株式会社 Head-mounted display device and method for controlling head-mounted display device
JP6292478B2 (en) * 2014-06-17 2018-03-14 コニカミノルタ株式会社 Information display system having transmissive HMD and display control program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017117175A (en) * 2015-12-24 2017-06-29 セイコーエプソン株式会社 Head-wearable display device, control method of head-wearable display device, and computer program

Also Published As

Publication number Publication date
JP2016173693A (en) 2016-09-29

Similar Documents

Publication Publication Date Title
JP6488786B2 (en) Head-mounted display device, head-mounted display device control method, and computer program
CN105988219B (en) Head-mounted display device and method for controlling head-mounted display device
JP6337433B2 (en) Head-mounted display device and method for controlling head-mounted display device
JP6217244B2 (en) Image processing apparatus, head-mounted display apparatus having the same, image processing method, and computer program
JP6277673B2 (en) Head-mounted display device and method for controlling head-mounted display device
JP6459380B2 (en) Head-mounted display device, head-mounted display device control method, and computer program
JP6094305B2 (en) Head-mounted display device and method for controlling head-mounted display device
JP6600945B2 (en) Head-mounted display device, head-mounted display device control method, and computer program
JP6318596B2 (en) Information processing apparatus and information processing apparatus control method
US10416460B2 (en) Head mounted display device, control method for head mounted display device, and computer program
JP6303274B2 (en) Head-mounted display device and method for controlling head-mounted display device
JP2016004340A (en) Information distribution system, head-mounted type display device, control method of head-mounted type display device and computer program
JP2016024208A (en) Display device, method for controlling display device, and program
JP6135162B2 (en) Head-mounted display device, head-mounted display device control method, and image display system
JP6620417B2 (en) Display device, control method therefor, and computer program
JP6252002B2 (en) Head-mounted display device and method for controlling head-mounted display device
JP6550734B2 (en) Head-mounted display device, head-mounted display device control method, and computer program
JP2015087523A (en) Head-mounted display device, method for controlling head-mounted display device, and image display system
JP6582374B2 (en) Display device, control method therefor, and computer program
JP6273677B2 (en) Head-mounted display device and method for controlling head-mounted display device
JP6304415B2 (en) Head-mounted display device and method for controlling head-mounted display device
JP6733174B2 (en) Head-mounted display device, head-mounted display device control method, and computer program
JP6375662B2 (en) Head-mounted display device
JP6669183B2 (en) Head mounted display and control method of head mounted display

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180309

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181017

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190211

R150 Certificate of patent or registration of utility model

Ref document number: 6488786

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150