Nothing Special   »   [go: up one dir, main page]

JP2019053714A - Head mounted display device and control method for head mounted display device - Google Patents

Head mounted display device and control method for head mounted display device Download PDF

Info

Publication number
JP2019053714A
JP2019053714A JP2018095200A JP2018095200A JP2019053714A JP 2019053714 A JP2019053714 A JP 2019053714A JP 2018095200 A JP2018095200 A JP 2018095200A JP 2018095200 A JP2018095200 A JP 2018095200A JP 2019053714 A JP2019053714 A JP 2019053714A
Authority
JP
Japan
Prior art keywords
display
indicator
unit
image
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018095200A
Other languages
Japanese (ja)
Inventor
賢 富澤
Ken Tomizawa
賢 富澤
博晃 馬場
Hiroaki Baba
博晃 馬場
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to CN201811050494.9A priority Critical patent/CN109491496A/en
Priority to US16/127,534 priority patent/US10635182B2/en
Publication of JP2019053714A publication Critical patent/JP2019053714A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

To provide a user interface with high usability enabling a state of a display device to be recognized in an operation using an indication body.SOLUTION: An HMD 100 includes: an image display unit 20 that is mounted on a head of a user and has a display region VR configured to display an image while an outside scene is visible; a first camera 61; a detecting unit 154 configured to detect a movement of the user's fingers based on an image captured by the first camera 61 and to receive an operation based on the detected movement of the fingers; and a display control unit 155 configured to determine whether or not the detecting unit 154 is ready to detect the operation based on the movement of the fingers, and to display the determination result in the display region VR.SELECTED DRAWING: Figure 5

Description

本発明は、頭部装着型表示装置、及び頭部装着型表示装置の制御方法に関する。   The present invention relates to a head-mounted display device and a method for controlling the head-mounted display device.

従来、頭部装着型表示装置は、例えば、ポインティングデバイスを用いて文字や図形等を入力したり、画面に対するタッチ操作によりアイコンやウインドウを選択したりと多様な操作が可能になってきている。このため、使用者の操作を補助する補助的な情報を表示する表示装置が知られている(例えば、特許文献1参照)。特許文献1に開示の端末は、アプリケーションを利用するための補助的な情報を示す操作ガイド画像を、表示中の画像に重畳して表示する。   2. Description of the Related Art Conventionally, head-mounted display devices are capable of various operations such as inputting characters and figures using a pointing device, and selecting icons and windows by touching the screen. For this reason, a display device that displays auxiliary information that assists the user's operation is known (see, for example, Patent Document 1). The terminal disclosed in Patent Document 1 displays an operation guide image indicating auxiliary information for using an application in a superimposed manner on an image being displayed.

特開2017−16370号公報JP 2017-16370 A

指示体を用いた操作の場合、指示体の動きや形状、位置等を検出部により検出して、入力された操作を判定する。このため、例えば、検出部が指示体の検出を行っていない場合や、表示装置の状態がビジーである場合、検出部が操作を検出可能な範囲の外側で操作が行われた場合には、指示体による操作を行っても、表示装置に操作が入力されない場合がある。このため、指示体を用いた操作では、頭部装着型表示装置の状態を把握可能な使い勝手のよいユーザーインターフェイスが求められている。
本発明は、指示体を用いた操作において、頭部装着型表示装置の状態を把握可能な使い勝手のよいユーザーインターフェイスを提供することを目的とする。
In the case of an operation using a pointer, the detection unit detects the movement, shape, position, and the like of the pointer to determine the input operation. Therefore, for example, when the detection unit does not detect the indicator, when the state of the display device is busy, or when the operation is performed outside the range in which the detection unit can detect the operation, Even if an operation is performed using an indicator, the operation may not be input to the display device. For this reason, in an operation using an indicator, a user-friendly user interface that can grasp the state of the head-mounted display device is required.
An object of the present invention is to provide an easy-to-use user interface capable of grasping the state of a head-mounted display device in an operation using an indicator.

上記課題を解決するため、本発明は、使用者の頭部に装着され、外景を視認可能に画像を表示する表示領域を有する表示部と、撮像部と、前記撮像部の撮像画像をもとに指示体の動きを検出し、検出した前記指示体の動きに基づく操作を受け付ける検出部と、前記検出部が前記指示体の動きに基づく操作を検出可能な状態であるか否かを判定し、判定結果を前記表示領域に表示する表示制御部と、を備える。
この構成によれば、検出部が指示体の動きに基づく操作を検出可能な状態であるか否かを示す判定結果が表示領域に表示される。このため、指示体を用いた操作において、頭部装着型表示装置が操作を検出可能な状態であるか否かを把握することができ、使い勝手のよいユーザーインターフェイスを提供することができる。
In order to solve the above problems, the present invention is based on a display unit that is mounted on a user's head and has a display area that displays an image so that an outside scene can be viewed, an imaging unit, and a captured image of the imaging unit. Detecting a movement of the indicator and receiving a manipulation based on the detected movement of the pointer; and determining whether the detection section is in a state in which an operation based on the movement of the pointer can be detected. And a display control unit that displays the determination result in the display area.
According to this configuration, the determination result indicating whether or not the detection unit can detect an operation based on the movement of the indicator is displayed in the display area. For this reason, in the operation using the indicator, it is possible to grasp whether or not the head-mounted display device is in a state where the operation can be detected, and a user interface that is easy to use can be provided.

また、本発明は、前記表示制御部は、前記判定結果として、前記検出部が前記操作を検出可能な状態であることを示す図形、文字、アイコン、又は前記検出部が検出した前記指示体の範囲を示す範囲画像を前記表示領域に表示する。
この構成によれば、判定結果として、図形、文字、アイコン、範囲画像が表示されるため、操作を検出可能な状態であるか否かを外部に通知することができる。
Further, according to the present invention, the display control unit may include, as the determination result, a figure, a character, an icon indicating that the detection unit can detect the operation, or the indicator detected by the detection unit. A range image indicating the range is displayed in the display area.
According to this configuration, since a figure, a character, an icon, and a range image are displayed as the determination result, it is possible to notify the outside whether or not the operation can be detected.

また、本発明は、前記表示制御部は、前記検出部が前記指示体を検出した場合に、前記範囲画像を前記表示領域に表示し、前記検出部が前記操作を検出可能な状態であるか否かによって、前記表示領域に表示させた前記図形、前記文字、又は前記アイコンの表示態様を変更する。
この構成によれば、指示体が検出された場合に範囲画像が表示され、検出部が操作を検出可能な状態であるか否かによって、図形、前記文字、又はアイコンの表示態様が変更される。このため、検出部が指示体を検出したことを外部に通知することができ、検出部が操作を検出可能な状態であるか否かを外部に通知することができる。
Further, according to the present invention, when the display unit detects the indicator, the display control unit displays the range image in the display area, and the detection unit is in a state in which the operation can be detected. The display mode of the figure, the character, or the icon displayed in the display area is changed depending on whether or not.
According to this configuration, the range image is displayed when the indicator is detected, and the display mode of the graphic, the character, or the icon is changed depending on whether or not the detection unit can detect the operation. . For this reason, it is possible to notify the outside that the detection unit has detected the indicator, and it is possible to notify the outside whether or not the detection unit is in a state in which an operation can be detected.

また、本発明は、前記表示制御部は、前記検出部が前記操作を検出可能な状態である場合に、前記図形又は前記アイコンとして、前記検出部が検出する前記指示体の動きを示す図形又はアイコンを表示する。
この構成によれば、検出部が検出する前記指示体の動きを示す図形又はアイコンが表示されるため、使用者に指示体を用いた操作を認識させることができる。
Further, in the present invention, the display control unit is configured such that when the detection unit is in a state in which the operation can be detected, the graphic or the icon indicates the movement of the indicator detected by the detection unit. Display icon.
According to this structure, since the figure or icon which shows the motion of the said indicator which a detection part detects is displayed, a user can be made to recognize operation using the indicator.

また、本発明は、前記検出部が受け付けた前記操作に応じて制御対象を制御する処理制御部を備え、前記表示制御部は、前記検出部が検出する予め設定された前記指示体の動きを示す前記図形又は前記アイコンを、前記制御対象の動作状態に応じて変更する。
この構成によれば、使用者に、制御対象の動作状態に対応した指示体の動きを行わせることができ、制御対象を指示体の動きにより動作させることができる。このため、指示体を用いた操作の利便性を高めることができる。
In addition, the present invention includes a processing control unit that controls a control target in accordance with the operation received by the detection unit, and the display control unit displays a preset movement of the indicator detected by the detection unit. The figure or the icon to be shown is changed according to the operation state of the control target.
According to this configuration, the user can cause the indicator to move according to the operation state of the controlled object, and the controlled object can be operated by the movement of the indicator. For this reason, the convenience of operation using a pointer can be improved.

また、本発明は、前記検出部は、検出した前記指示体の動きが、予め設定された前記指示体の動きに対応するか否を判定し、前記処理制御部は、予め設定された前記指示体の動きに対応した前記指示体の動きを前記検出部が検出した場合に、前記検出部が検出した前記指示体の動きに対応付けられた処理を前記制御対象に実行させる。
この構成によれば、予め設定された指示体の動きを行うことで、この指示体の動きに対応付けられた処理を制御対象に実行させることができる。
In the present invention, the detection unit determines whether the detected movement of the indicator corresponds to a preset movement of the indicator, and the processing control unit determines whether the instruction is preset. When the detection unit detects the movement of the indicator corresponding to the movement of the body, the control target is caused to execute processing associated with the movement of the indicator detected by the detection unit.
According to this configuration, it is possible to cause the control target to execute processing associated with the movement of the indicator by performing the movement of the indicator set in advance.

また、本発明は、前記表示制御部は、前記検出部により前記指示体が検出された場合に、前記範囲画像を前記指示体に重畳して表示する。
この構成によれば、範囲画像を指示体に重畳して表示することができる。このため、頭部装着型表示装置が指示体として認識している物体を外部に通知することができる。
In the present invention, the display control unit displays the range image superimposed on the indicator when the indicator is detected by the detector.
According to this configuration, the range image can be displayed superimposed on the indicator. For this reason, the object recognized as the indicator by the head-mounted display device can be notified to the outside.

また、本発明は、前記表示制御部は、前記表示領域に前記図形、前記文字又は前記アイコンを表示させてから、予め設定された第1設定時間を経過しても、前記検出部が前記操作を受け付けていない場合に、前記指示体による操作をガイドする操作ガイドを前記表示領域に表示する。
この構成によれば、操作ガイドを表示して、指示体による操作を使用者にガイドすることができる。
Further, according to the present invention, even if a first preset time elapses after the display control unit displays the graphic, the character, or the icon in the display area, the detection unit performs the operation. Is not received, an operation guide for guiding the operation by the indicator is displayed in the display area.
According to this configuration, an operation guide can be displayed to guide the user to perform operations using the indicator.

また、本発明は、前記表示制御部は、前記操作ガイドを前記表示領域に表示するまでの残り時間を前記表示領域に表示する。
この構成によれば、操作がわからない使用者に、操作ガイドが表示される時間を通知することができる。
Further, according to the present invention, the display control unit displays a remaining time until the operation guide is displayed in the display area in the display area.
According to this configuration, a user who does not know the operation can be notified of the time for which the operation guide is displayed.

また、本発明は、前記表示制御部は、前記操作ガイドを前記表示領域に表示してから予め設定された第2設定時間を経過した場合、又は、前記検出部が、前記指示体の動きに基づく操作を検出した場合に、前記操作ガイドの表示を消去する。
この構成によれば、操作ガイドを表示させる必要がないと判断される場合に、操作ガイドの表示を消去することができ、表示領域の視認性を向上させることできる。
In the present invention, it is preferable that the display control unit detects a movement of the indicator when the preset second set time has elapsed after the operation guide is displayed in the display area. When an operation based on the operation guide is detected, the display of the operation guide is deleted.
According to this configuration, when it is determined that there is no need to display the operation guide, the display of the operation guide can be erased, and the visibility of the display area can be improved.

また、本発明は、前記処理制御部は、前記検出部が受け付けた操作により前記制御対象としてのデバイスを制御する、又は前記制御対象としてのアプリケーションプログラムを実行して前記検出部が受け付けた操作に対応した前記アプリケーションプログラムの機能を実行する。
この構成によれば、指示体の操作によりデバイスを制御し、制御対象としてのアプリケーションプログラムに機能を選択して実行させることができる。
Further, according to the present invention, the processing control unit controls the device as the control target by the operation accepted by the detection unit, or executes the application program as the control target and performs the operation accepted by the detection unit. The function of the corresponding application program is executed.
According to this configuration, the device can be controlled by operating the indicator, and a function can be selected and executed by an application program as a control target.

上記課題を解決するため、本発明は、使用者の頭部に装着され、外景を視認可能に画像を表示領域に表示する頭部装着型表示装置の制御方法であって、撮像部の撮像画像をもとに指示体の動きを検出するステップと、検出した前記指示体の動きに基づく操作を受け付けるステップと、前記操作を受け付けるステップが、前記指示体の動きに基づく操作を検出可能な状態であるか否かを判定し、判定結果を前記表示領域に表示するステップと、を有する。
この構成によれば、検出部が指示体の動きに基づく操作を検出可能な状態であるか否かの判定結果が表示領域に表示される。このため、指示体を用いた操作において、頭部装着型表示装置の状態を把握可能な使い勝手のよいユーザーインターフェイスを提供することができる。
In order to solve the above-described problem, the present invention is a method for controlling a head-mounted display device that is mounted on a user's head and displays an image in a display area so that an outside scene can be visually recognized. The step of detecting the movement of the indicator based on the above, the step of accepting an operation based on the detected movement of the indicator, and the step of accepting the operation are in a state where the operation based on the movement of the indicator can be detected. Determining whether or not there is, and displaying the determination result in the display area.
According to this configuration, the determination result as to whether or not the detection unit can detect an operation based on the movement of the indicator is displayed in the display area. Therefore, it is possible to provide an easy-to-use user interface that can grasp the state of the head-mounted display device in the operation using the indicator.

上記課題を解決するため、表示装置は、画像を外景に重畳して表示し、又は前記画像を前記外景の周辺に表示する表示部と、指示体を検出する検出部と、前記検出部により検出される前記指示体の動き、形状及び位置の少なくともいずれかに基づく操作を受け付ける制御部と、を備え、前記制御部は、前記指示体による入力操作が可能な状態であるか否かを判定し、判定結果を表示する。
この構成によれば、指示体による入力操作が可能な状態であるか否かを判定し、判定結果が表示される。このため、表示装置の使用者に、表示装置の状態を把握させることができ、指示体を用いた操作の使い勝手を向上させることができる。
In order to solve the above problem, the display device displays an image superimposed on an outside scene, or displays the image around the outside scene, a detection unit that detects a pointer, and a detection unit that detects the display unit. A control unit that receives an operation based on at least one of the movement, shape, and position of the indicator, and the control unit determines whether or not an input operation by the indicator is possible. Display the judgment result.
According to this configuration, it is determined whether or not the input operation by the indicator is possible, and the determination result is displayed. For this reason, the user of a display apparatus can grasp | ascertain the state of a display apparatus and the usability of operation using a pointer can be improved.

また、表示装置において、前記制御部は、前記表示部の表示領域において設定された位置に、前記操作を受け付け可能なことを示す画像、図形、文字又はアイコンを前記表示部によって表示させる。
この構成によれば、操作を受け付け可能なことを示す画像、図形、文字又はアイコンが表示される。このため、使用者に、表示装置が操作を受け付け可能な状態にあることを直感的に認識させることができる。
In the display device, the control unit causes the display unit to display an image, a graphic, a character, or an icon indicating that the operation can be received at a position set in the display area of the display unit.
According to this configuration, an image, graphic, character, or icon indicating that an operation can be accepted is displayed. Therefore, the user can intuitively recognize that the display device is in a state where it can accept an operation.

また、表示装置において、前記制御部は、前記操作に応じて制御対象を制御可能に構成され、前記操作を受け付け可能なことを示す画像、図形、文字又はアイコンを、前記操作に応じて制御した前記制御対象の状態に応じて変化させる。
この構成によれば、操作を受け付け可能なことを示す画像、図形、文字又はアイコンが、制御対象の状態に応じて変化する。このため、使用者に、制御対象の状態を直感的に認識させることができる。
Further, in the display device, the control unit is configured to be able to control a control target according to the operation, and controls an image, a figure, a character, or an icon indicating that the operation can be accepted according to the operation. It changes according to the state of the controlled object.
According to this configuration, the image, figure, character, or icon indicating that the operation can be accepted changes depending on the state of the control target. For this reason, the user can intuitively recognize the state of the control target.

また、表示装置において、前記検出部は、前記表示部が表示する前記画像とともに視認可能な前記外景を含む範囲を検出し、前記制御部は、前記検出部により前記範囲内に前記指示体が検出された場合に、前記表示部によって、前記操作を受け付け可能なことを示す表示を行わせる。
この構成によれば、検出部が、表示部が表示する画像とともに視認可能な外景を含む範囲を対象として指示体の検出を行うため、使用者は、視認可能な外景を含む範囲内に指示体の位置を移動させることで、表示装置を、操作を受け付け可能な状態とすることができる。また、範囲内に指示体が検出された場合には、操作を受け付け可能なことを示す表示が表示されるので、表示装置の状態の把握が可能となる。
In the display device, the detection unit detects a range including the outside scene that is visible together with the image displayed by the display unit, and the control unit detects the indicator within the range by the detection unit. When it is done, the display unit displays a message indicating that the operation can be accepted.
According to this configuration, since the detection unit detects the indicator for the range including the viewable outside scene together with the image displayed on the display unit, the user can set the indicator within the range including the viewable outside scene. By moving the position, the display device can be in a state in which an operation can be accepted. Further, when an indicator is detected within the range, a display indicating that the operation can be accepted is displayed, so that the state of the display device can be grasped.

また、表示装置において、前記検出部は、前記表示部が表示する前記画像とともに視認可能な前記外景を含む範囲を撮像する撮像部を備え、前記制御部は、前記撮像部の撮像画像から前記指示体を検出することにより前記操作を受け付け可能であり、前記撮像部の撮像画像から前記指示体を検出した場合に、前記表示部によって、前記操作を受け付け可能なことを示す表示を行わせる。
この構成によれば、検出部が、表示部が表示する画像とともに視認可能な外景を含む範囲を撮像して指示体を検出する撮像部を備える。このため、使用者は、視認可能な外景を含む範囲内に指示体の位置を移動させることで、表示装置を、操作を受け付け可能な状態とすることができる。また、範囲内に指示体が検出された場合には、操作を受け付け可能なことを示す表示が表示されるので、表示装置の状態の把握が可能となる。
In the display device, the detection unit includes an imaging unit that captures a range including the outside scene that is visible together with the image displayed by the display unit, and the control unit receives the instruction from the captured image of the imaging unit. The operation can be received by detecting a body, and when the indicator is detected from a captured image of the imaging unit, the display unit displays that the operation can be received.
According to this configuration, the detection unit includes the imaging unit that images the range including the outside scene that can be visually recognized together with the image displayed by the display unit and detects the indicator. For this reason, the user can make the display device a state in which an operation can be accepted by moving the position of the indicator within a range including a visually recognizable outside scene. Further, when an indicator is detected within the range, a display indicating that the operation can be accepted is displayed, so that the state of the display device can be grasped.

また、表示装置において、前記表示部は、外光を透過することにより前記外景を視認させる透過型の表示領域を有し、前記検出部は、前記表示部を透過して視認可能な前記外景を含む範囲で前記指示体を検出する。
この構成によれば、検出部が、表示部を透過して視認可能な外景を含む範囲で指示体を検出するため、使用者は、視認可能な外景を含む範囲内に指示体の位置を移動させることで、表示装置を、操作を受け付け可能な状態とすることができる。
Further, in the display device, the display unit has a transmissive display region that allows the outside scene to be visually recognized by transmitting outside light, and the detection unit displays the outside scene that is visible through the display unit. The indicator is detected within the range.
According to this configuration, the detection unit detects the indicator within a range including the outside scene that is visible through the display unit, and thus the user moves the position of the indicator within the range including the outside scene that is visible. By doing so, the display device can be set in a state in which an operation can be accepted.

また、表示装置において、前記制御部は、前記検出部により前記指示体が検出された場合に、前記検出部により検出された前記指示体に重畳する画像を表示させる。
この構成によれば、検出部が検出した指示体に重畳する画像が表示されるので、検出した指示体の位置を使用者に通知することができる。従って、使用者は、指示体以外の物体が指示体として検出された場合には、表示装置に指示体の検出を再度行わせることで、誤った操作が検出されないようにすることができる。
In the display device, the control unit displays an image superimposed on the indicator detected by the detection unit when the indicator is detected by the detection unit.
According to this configuration, since the image superimposed on the indicator detected by the detection unit is displayed, it is possible to notify the user of the position of the detected indicator. Accordingly, when an object other than the indicator is detected as the indicator, the user can prevent the erroneous operation from being detected by causing the display device to detect the indicator again.

また、表示装置において、前記制御部は、前記検出部により前記指示体が検出されて前記操作を受け付け可能な状態にある場合と、前記検出部により前記指示体が検出されない場合、及び前記操作を受け付け可能な状態にない場合とで、前記操作を受け付け可能なことを示す表示の表示態様を変更する。
この構成によれば、指示体が検出されたか否か、操作を受け付け可能な状態にあるか否かによって操作を受け付け可能なことを示す表示の表示態様が変更される。このため、表示装置の状態の把握が容易になる。
Further, in the display device, the control unit performs the operation when the indicator is detected by the detection unit and the operation is acceptable, when the indicator is not detected by the detection unit, and when the operation is performed. The display mode of the display indicating that the operation can be accepted is changed depending on whether the operation is not acceptable.
According to this configuration, the display mode of the display indicating that the operation can be accepted is changed depending on whether the indicator is detected and whether the operation is acceptable. For this reason, it becomes easy to grasp the state of the display device.

また、表示装置において、前記制御部は、前記検出部により検出される前記指示体の動き、形状及び位置の少なくともいずれかに基づいてジェスチャーを前記入力操作として検出し、前記表示部によって表示させた前記操作を受け付け可能なことを示す画像、図形、文字又はアイコンのいずれかであって、検出した前記入力操作に対応付けられた画像、図形、文字又はアイコンのいずれかの表示態様を変化させる。
この構成によれば、指示体を用いたジェスチャーにより表示装置を操作することができる。また、表示装置により検出されたジェスチャーに対応付けられた画像、図形、文字又はアイコンのいずれかの表示態様が変化するので、検出されたジェスチャーを使用者に通知することができる。
In the display device, the control unit detects a gesture as the input operation based on at least one of the movement, shape, and position of the indicator detected by the detection unit, and displays the gesture by the display unit. Any one of an image, a figure, a character, or an icon indicating that the operation can be accepted, and the display mode of any of the image, the figure, the character, or the icon associated with the detected input operation is changed.
According to this configuration, the display device can be operated by a gesture using an indicator. In addition, since the display mode of any of the images, graphics, characters, or icons associated with the gesture detected by the display device changes, the detected gesture can be notified to the user.

また、表示装置において、前記制御部は、前記操作を受け付け可能なことを示す表示を開始してから、予め設定された第1設定時間以内に、前記指示体による操作が検出されない場合に、前記操作を誘導する画像を前記表示部により表示させる。
この構成によれば、操作を誘導する画像により指示体の操作を誘導することができる。
Further, in the display device, the control unit starts the display indicating that the operation can be accepted, and when the operation by the indicator is not detected within a preset first set time, An image for guiding the operation is displayed on the display unit.
According to this configuration, the operation of the indicator can be guided by the image that guides the operation.

また、表示装置において、前記制御部は、前記操作を誘導する画像を表示してから予め設定された第2設定時間を経過した場合、又は、前記指示体による操作が検出された場合に、前記操作を誘導する画像の表示を終了する。
この構成によれば、操作を誘導する画像の表示が不要であると判定される場合に、操作を誘導する画像の表示を終了させて、外景の視認性の低下を防止することができる。
Further, in the display device, when the second setting time set in advance has elapsed after displaying the image for guiding the operation, or when the operation by the indicator is detected, The display of the image for guiding the operation is terminated.
According to this configuration, when it is determined that the display of the image for guiding the operation is unnecessary, the display of the image for guiding the operation can be terminated to prevent the visibility of the outside scene from being deteriorated.

また、表示装置において、前記制御部は、前記操作に応じて制御対象としてのデバイスを制御する、又はアプリケーションプログラムを実行して前記操作に応じた処理を実行する。
この構成によれば、指示体の操作により、制御対象としてのデバイスを制御し、又はアプリケーションプログラムを実効させて操作に対応した処理を実行させることができる。
In the display device, the control unit controls a device as a control target according to the operation, or executes an application program to execute processing according to the operation.
According to this configuration, it is possible to control a device as a control target by operating a pointer or to execute a process corresponding to the operation by executing an application program.

表示装置の制御方法は、画像を外景に重畳して表示し、又は前記画像を前記外景の周辺に表示する表示部を備える表示装置の制御方法であって、指示体を検出し、検出した前記指示体の動き、形状及び位置の少なくともいずれかに基づく操作を受け付け、前記指示体による入力操作が可能な状態であるか否かを判定し、判定結果を表示する。
この構成によれば、指示体による入力操作が可能な状態であるか否かを判定し、判定結果が表示される。このため、表示装置の使用者に、表示装置の状態を把握させることができ、指示体を用いた操作の使い勝手を向上させることができる。
The display device control method is a display device control method including a display unit that displays an image superimposed on an outside scene, or displays the image around the outside scene. An operation based on at least one of the movement, shape, and position of the indicator is accepted, it is determined whether or not the input operation by the indicator is possible, and the determination result is displayed.
According to this configuration, it is determined whether or not the input operation by the indicator is possible, and the determination result is displayed. For this reason, the user of a display apparatus can grasp | ascertain the state of a display apparatus and the usability of operation using a pointer can be improved.

HMDの外観図。FIG. HMDの光学系の構成を示す要部平面図。The principal part top view which shows the structure of the optical system of HMD. 画像表示部の構成を示す斜視図。The perspective view which shows the structure of an image display part. HMDのブロック図。The block diagram of HMD. 制御装置の機能ブロック図。The functional block diagram of a control apparatus. 使用者の視野範囲を示す図。The figure which shows a user's visual field range. 制御部の動作を示すフローチャート。The flowchart which shows operation | movement of a control part. 表示領域の表示状態を示す図。The figure which shows the display state of a display area. 表示領域の表示状態を示す図。The figure which shows the display state of a display area. 表示領域の表示状態を示す図。The figure which shows the display state of a display area. 表示領域の他の表示状態を示す図。The figure which shows the other display state of a display area. 制御部の他の動作を示すフローチャート。The flowchart which shows the other operation | movement of a control part.

[第1実施形態]
以下、図面を参照して本発明の実施形態について説明する。
図1は、本発明を適用したHMD(Head Mounted Display:頭部装着型表示装置)100の外観構成を示す説明図である。HMD100は、制御装置10と画像表示部20とを備える表示装置である。画像表示部20は、本発明の「表示部」に相当する。
[First Embodiment]
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is an explanatory diagram showing an external configuration of an HMD (Head Mounted Display) 100 to which the present invention is applied. The HMD 100 is a display device that includes the control device 10 and the image display unit 20. The image display unit 20 corresponds to the “display unit” of the present invention.

制御装置10は、使用者の操作を受け付ける操作部を備え、使用者がHMD100を操作するコントローラーとして機能する。制御装置10は、使用者の操作を受け付けて、受け付けた操作に応じて画像表示部20を制御する。画像表示部20は、使用者の頭部に装着され、使用者に虚像を視認させる。使用者とは、画像表示部20を頭部に装着した者をいう。   The control device 10 includes an operation unit that receives a user's operation, and functions as a controller for the user to operate the HMD 100. The control device 10 receives a user operation and controls the image display unit 20 according to the received operation. The image display unit 20 is attached to the user's head and makes the user visually recognize a virtual image. The user means a person who wears the image display unit 20 on the head.

制御装置10は、図1に示すように平たい箱形のケース10A(筐体又は本体ともいえる)を備える。ケース10Aには、操作ボタン11、LEDインジケーター12、トラックパッド14、上下キー15、切替スイッチ16及び電源スイッチ18の各部を備える。操作ボタン11、上下キー15、切替スイッチ16及び電源スイッチ18を総称して操作子13(図4)という。使用者は、操作子13やトラックパッド14を操作することによりHMD100を操作できる。   The control device 10 includes a flat box-shaped case 10A (also referred to as a housing or a main body) as shown in FIG. The case 10 </ b> A includes the operation button 11, LED indicator 12, track pad 14, up / down key 15, changeover switch 16, and power switch 18. The operation button 11, the up / down key 15, the changeover switch 16, and the power switch 18 are collectively referred to as an operator 13 (FIG. 4). The user can operate the HMD 100 by operating the operator 13 and the track pad 14.

操作ボタン11は、メニューキー、ホームキー、戻るキー等を含み、特に、これらのキーやスイッチのうち押圧操作により変位するものを含む。LEDインジケーター12は、HMD100の動作状態に対応して点灯し、又は点滅する。   The operation button 11 includes a menu key, a home key, a return key, and the like, and particularly includes a key or a switch that is displaced by a pressing operation. The LED indicator 12 lights up or blinks in accordance with the operating state of the HMD 100.

トラックパッド14は、接触操作を検出する操作面を有し、操作面に対する操作に応じて操作信号を出力する。トラックパッド14の操作面における操作の検出方式は、静電式、圧力検出式、光学式等、種々の検出方式を採用できる。   The track pad 14 has an operation surface for detecting a contact operation, and outputs an operation signal according to an operation on the operation surface. Various detection methods, such as an electrostatic method, a pressure detection method, and an optical method, can be adopted as the detection method of the operation on the operation surface of the track pad 14.

上下キー15は、右イヤホン32及び左イヤホン34から出力される音量の増減の指示入力や、画像表示部20の表示の明るさの増減の指示入力に利用される。切替スイッチ16は、上下キー15の操作に対応する入力を切り替えるスイッチである。電源スイッチ18は、HMD100の電源のオン/オフを切り替えるスイッチであり、例えばスライドスイッチにより構成される。   The up / down key 15 is used to input an instruction to increase / decrease the volume output from the right earphone 32 and the left earphone 34 and to input an instruction to increase / decrease the display brightness of the image display unit 20. The changeover switch 16 is a switch for changing an input corresponding to the operation of the up / down key 15. The power switch 18 is a switch for switching on / off the power of the HMD 100, and is configured by, for example, a slide switch.

画像表示部20は、使用者の頭部に装着される装着体であり、本実施形態では眼鏡形状を有する。画像表示部20は、右保持部21と、左保持部23と、前部フレーム27とを有する本体に、右表示ユニット22、左表示ユニット24、右導光板26及び左導光板28を備える。   The image display unit 20 is a wearing body that is worn on the user's head, and has a glasses shape in the present embodiment. The image display unit 20 includes a right display unit 22, a left display unit 24, a right light guide plate 26, and a left light guide plate 28 in a main body having a right holding unit 21, a left holding unit 23, and a front frame 27.

右保持部21及び左保持部23は、それぞれ、前部フレーム27の両端部から後方に延び、眼鏡のテンプル(つる)のように、使用者の頭部に画像表示部20を保持する。ここで、前部フレーム27の両端部のうち、画像表示部20の装着状態において使用者の右側に位置する端部を端部ERとし、使用者の左側に位置する端部を端部ELとする。右保持部21は、前部フレーム27の端部ERから、画像表示部20の装着状態において使用者の右側頭部に対応する位置まで延伸して設けられる。左保持部23は、端部ELから、画像表示部20の装着状態において使用者の左側頭部に対応する位置まで延伸して設けられる。   Each of the right holding unit 21 and the left holding unit 23 extends rearward from both ends of the front frame 27, and holds the image display unit 20 on the user's head like a temple of glasses. Here, of both ends of the front frame 27, an end located on the right side of the user in the mounted state of the image display unit 20 is defined as an end ER, and an end located on the left side of the user is defined as an end EL. To do. The right holding unit 21 extends from the end ER of the front frame 27 to a position corresponding to the right side of the user when the image display unit 20 is mounted. The left holding unit 23 is provided to extend from the end EL to a position corresponding to the left side of the user when the image display unit 20 is mounted.

右導光板26及び左導光板28は、前部フレーム27に設けられる。右導光板26は、画像表示部20の装着状態において使用者の右眼の眼前に位置し、右眼に画像を視認させる。左導光板28は、画像表示部20の装着状態において使用者の左眼の眼前に位置し、左眼に画像を視認させる。   The right light guide plate 26 and the left light guide plate 28 are provided on the front frame 27. The right light guide plate 26 is positioned in front of the right eye of the user when the image display unit 20 is mounted, and causes the right eye to visually recognize the image. The left light guide plate 28 is positioned in front of the left eye of the user when the image display unit 20 is mounted, and causes the left eye to visually recognize the image.

前部フレーム27は、右導光板26の一端と左導光板28の一端とを互いに連結した形状を有し、この連結位置は、使用者が画像表示部20を装着する装着状態で、使用者の眉間に対応する。前部フレーム27は、右導光板26と左導光板28との連結位置において、画像表示部20の装着状態で使用者の鼻に当接する鼻当て部を設けてもよい。この場合、鼻当て部と、右保持部21及び左保持部23とにより画像表示部20を使用者の頭部に保持できる。また、右保持部21及び左保持部23に、画像表示部20の装着状態において使用者の後頭部に接するベルト(図示略)を連結してもよく、この場合、ベルトによって画像表示部20を使用者の頭部に保持できる。   The front frame 27 has a shape in which one end of the right light guide plate 26 and one end of the left light guide plate 28 are connected to each other, and this connection position is in a wearing state in which the user wears the image display unit 20. Corresponding to the eyebrows. The front frame 27 may be provided with a nose pad portion that comes into contact with the user's nose when the image display unit 20 is mounted at a connection position between the right light guide plate 26 and the left light guide plate 28. In this case, the image display unit 20 can be held on the user's head by the nose pad, the right holding unit 21 and the left holding unit 23. Further, a belt (not shown) that contacts the back of the user when the image display unit 20 is mounted may be connected to the right holding unit 21 and the left holding unit 23. In this case, the image display unit 20 is used by the belt. Can be held on the person's head.

右表示ユニット22は、右導光板26による画像の表示を実現する。右表示ユニット22は、右保持部21に設けられ、装着状態において使用者の右側頭部の近傍に位置する。左表示ユニット24は、左導光板28による画像の表示を実現する。左表示ユニット24は、左保持部23に設けられ、装着状態において使用者の左側頭部の近傍に位置する。   The right display unit 22 realizes image display by the right light guide plate 26. The right display unit 22 is provided in the right holding unit 21 and is located in the vicinity of the right side of the user in the mounted state. The left display unit 24 realizes image display by the left light guide plate 28. The left display unit 24 is provided in the left holding part 23 and is located in the vicinity of the left side of the user in the wearing state.

右導光板26及び左導光板28は、光透過性の樹脂等によって形成される光学部であり、例えばプリズムによって構成される。右導光板26及び左導光板28は、右表示ユニット22及び左表示ユニット24が出力する画像光を使用者の眼に導く。   The right light guide plate 26 and the left light guide plate 28 are optical units formed of a light-transmitting resin or the like, and are configured by prisms, for example. The right light guide plate 26 and the left light guide plate 28 guide the image light output from the right display unit 22 and the left display unit 24 to the eyes of the user.

右導光板26及び左導光板28の表面には、調光板(図示略)を設けてもよい。調光板は、光の波長域により透過率が異なる薄板上の光学素子であり、いわゆる波長フィルターとして機能する。調光板は、例えば、使用者の眼の側と反対の側である前部フレーム27の表側を覆うように配置される。この調光板の光学特性を適宜選択することにより、可視光、赤外光及び紫外光等の任意の波長域の光の透過率を調整することができ、外部から右導光板26及び左導光板28に入射し、右導光板26及び左導光板28を透過する外光の光量を調整できる。   A light control plate (not shown) may be provided on the surfaces of the right light guide plate 26 and the left light guide plate 28. The light control plate is an optical element on a thin plate having different transmittance depending on the wavelength region of light, and functions as a so-called wavelength filter. For example, the light control plate is disposed so as to cover the front side of the front frame 27 which is the side opposite to the eye side of the user. By appropriately selecting the optical characteristics of the light control plate, the transmittance of light in an arbitrary wavelength region such as visible light, infrared light, and ultraviolet light can be adjusted. The amount of external light incident on the light plate 28 and transmitted through the right light guide plate 26 and the left light guide plate 28 can be adjusted.

画像表示部20は、外光を透過することにより外景を視認可能に画像を表示する透過型の表示装置である。画像表示部20は、右表示ユニット22及び左表示ユニット24がそれぞれ生成する画像光を、右導光板26及び左導光板28に導く。右導光板26及び左導光板28に導かれた画像光は使用者の右眼と左眼に入射され、使用者に虚像を視認させる。これにより、画像表示部20は画像を表示する。画像表示部20を頭部に装着した使用者の視野範囲FVにおいて、画像表示部20が画像を表示可能な領域を表示領域VRという(図6、8〜10、12)。   The image display unit 20 is a transmissive display device that displays an image so that an outside scene can be visually recognized by transmitting external light. The image display unit 20 guides the image light generated by the right display unit 22 and the left display unit 24 to the right light guide plate 26 and the left light guide plate 28, respectively. The image light guided to the right light guide plate 26 and the left light guide plate 28 enters the user's right eye and left eye, and makes the user visually recognize a virtual image. Thereby, the image display unit 20 displays an image. An area in which the image display unit 20 can display an image in the visual field range FV of the user wearing the image display unit 20 on the head is referred to as a display area VR (FIGS. 6, 8 to 10 and 12).

使用者の前方から、右導光板26及び左導光板28を透過して外光が使用者の眼に入射する場合、使用者の眼には、虚像を構成する画像光及び外光が入射されることとなり、虚像の視認性が外光の強さに影響される。このため、例えば前部フレーム27に調光板を装着し、調光板の光学特性を適宜選択又は調整することによって、虚像の視認のしやすさを調整できる。典型的な例では、HMD100を装着した使用者が少なくとも外の景色を視認できる程度の光透過性を有する調光板を用いることができる。また、調光板を用いると、右導光板26及び左導光板28を保護し、右導光板26及び左導光板28の損傷や汚れの付着等を抑制する効果が期待できる。調光板は、前部フレーム27、又は、右導光板26及び左導光板28のそれぞれに対して着脱可能に構成してもよく、複数種類の調光板を交換して装着可能としてもよい。また、調光板を設けない構成の画像表示部20としてもよい。   When the external light enters the user's eyes through the right light guide plate 26 and the left light guide plate 28 from the front of the user, the image light and the external light constituting the virtual image are incident on the user's eyes. Therefore, the visibility of the virtual image is affected by the intensity of external light. For this reason, for example, by attaching a light control plate to the front frame 27 and appropriately selecting or adjusting the optical characteristics of the light control plate, the ease of visual recognition of the virtual image can be adjusted. In a typical example, it is possible to use a light control plate having a light transmittance that allows a user wearing the HMD 100 to visually recognize at least the outside scenery. In addition, when the dimming plate is used, it is possible to protect the right light guide plate 26 and the left light guide plate 28 and to suppress the damage to the right light guide plate 26 and the left light guide plate 28, the adhesion of dirt, and the like. The light control plate may be configured to be detachable from the front frame 27 or each of the right light guide plate 26 and the left light guide plate 28, or a plurality of types of light control plates may be replaced and mounted. . Moreover, it is good also as the image display part 20 of a structure which does not provide a light control board.

画像表示部20の前部フレーム27には、第1カメラ61及び第2カメラ62が配設される。第1カメラ61及び第2カメラ62の構成及び配置は、使用者が画像表示部20を装着した状態で視認する外景を撮像するように決められる。外景とは、画像表示部20を頭部に装着した使用者の視線方向の外部の景色をいう。例えば、第1カメラ61及び第2カメラ62は、前部フレーム27の前面において、右導光板26及び左導光板28を透過する外光を遮らない位置に設けられる。図1に示す例では、第1カメラ61は、前部フレーム27の端部ER側に配置され、指示体として使用者の身体の一部や身体に取り付けられた物体(以下、被検出物体という)を検出する検出部として機能する。また、第2カメラ62は、右導光板26及び左導光板28との境界部分、すなわち、使用者の左右の目の中間位置に配置され、使用者の視線方向であるHMD100の前方を撮像する。第2カメラ62の配置は、図1に示す例に限定されず、例えば、画像表示部20の内側を向いて、使用者の眼の側を撮像するように配置してもよいし、HMD100の後方を撮像するように配置してもよい。また、第2カメラ62を、前部フレーム27の端部EL側に配置し、第1カメラ61及び第2カメラ62によりステレオカメラを構成してもよい。
第1カメラ61は、本発明の「撮像部」に相当する。また、第2カメラ62は、本発明の「制御対象」に相当する。
A first camera 61 and a second camera 62 are disposed on the front frame 27 of the image display unit 20. The configuration and arrangement of the first camera 61 and the second camera 62 are determined so as to capture an outside scene visually recognized by the user wearing the image display unit 20. The outside scene refers to an outside scene in the direction of the line of sight of the user wearing the image display unit 20 on the head. For example, the first camera 61 and the second camera 62 are provided on the front surface of the front frame 27 at positions that do not block external light that passes through the right light guide plate 26 and the left light guide plate 28. In the example shown in FIG. 1, the first camera 61 is disposed on the end ER side of the front frame 27 and is a part of the user's body or an object attached to the body as an indicator (hereinafter referred to as a detected object). ) To detect. The second camera 62 is disposed at the boundary between the right light guide plate 26 and the left light guide plate 28, that is, at the middle position of the left and right eyes of the user, and images the front of the HMD 100 that is the user's line-of-sight direction. . The arrangement of the second camera 62 is not limited to the example illustrated in FIG. 1. For example, the second camera 62 may be arranged so as to face the inside of the image display unit 20 and image the user's eyes. You may arrange | position so that the back may be imaged. Alternatively, the second camera 62 may be disposed on the end EL side of the front frame 27 and the first camera 61 and the second camera 62 may constitute a stereo camera.
The first camera 61 corresponds to the “imaging unit” of the present invention. The second camera 62 corresponds to a “control target” of the present invention.

第1カメラ61及び第2カメラ62は、CCDやCMOS等の撮像素子及び撮像レンズ等を備えるデジタルカメラである。本実施形態では、第1カメラ61及び第2カメラ62は単眼カメラであるが、ステレオカメラで構成してもよい。第1カメラ61及び第2カメラ62は、HMD100の表側方向、換言すれば、HMD100を装着した状態における使用者の視界方向の少なくとも一部の外景を撮像する。別の表現では、第1カメラ61及び第2カメラ62は、使用者の視界と重なる範囲又は方向を撮像し、使用者が注視する方向を撮像する。第1カメラ61及び第2カメラ62の画角の方向及び広さは適宜設定可能である。本実施形態では、後述するように、第1カメラ61及び第2カメラ62の画角が、使用者が右導光板26及び左導光板28を通して視認する外界を含む。より好ましくは、第1カメラ61及び第2カメラ62の画角は、右導光板26及び左導光板28を透過して視認可能な使用者の視界の全体を撮像できるように設定される。   The first camera 61 and the second camera 62 are digital cameras that include an imaging element such as a CCD or CMOS, an imaging lens, and the like. In the present embodiment, the first camera 61 and the second camera 62 are monocular cameras, but may be configured with a stereo camera. The first camera 61 and the second camera 62 image at least a part of the outside scene in the front side direction of the HMD 100, in other words, in the user's viewing direction when the HMD 100 is worn. In another expression, the first camera 61 and the second camera 62 capture a range or direction that overlaps the user's field of view, and capture a direction in which the user gazes. The direction and width of the angle of view of the first camera 61 and the second camera 62 can be set as appropriate. In the present embodiment, as will be described later, the angle of view of the first camera 61 and the second camera 62 includes the outside world that the user visually recognizes through the right light guide plate 26 and the left light guide plate 28. More preferably, the angle of view of the first camera 61 and the second camera 62 is set so that the entire field of view of the user that can be seen through the right light guide plate 26 and the left light guide plate 28 can be imaged.

第1カメラ61及び第2カメラ62は、制御部150が備える撮像制御部153(図5)の制御に従って撮像を実行する。
メインプロセッサー140は、電源スイッチ18がオンされ、電源部130の電源供給を受けて起動すると、電源部130に第1カメラ61への電源供給を開始させ、第1カメラ61の電源をオンさせる。また、メインプロセッサー140は、第1カメラ61の撮像画像データから予め設定された指示体の操作が検出された場合、又は操作子13による操作を受け付けた場合に、第2カメラ62への電源供給を開始させ、第2カメラ62の電源をオンさせる。
The first camera 61 and the second camera 62 execute imaging according to the control of the imaging control unit 153 (FIG. 5) provided in the control unit 150.
When the power switch 18 is turned on and the main processor 140 is activated upon receiving power supply from the power supply unit 130, the main processor 140 causes the power supply unit 130 to start supplying power to the first camera 61 and turns on the first camera 61. The main processor 140 supplies power to the second camera 62 when an operation of a preset indicator is detected from the captured image data of the first camera 61 or when an operation by the operation element 13 is received. And the power of the second camera 62 is turned on.

HMD100は、予め設定された測定方向に位置する測定対象物までの距離を検出する距離センサー(図示略)を備えてもよい。距離センサーは、例えば、前部フレーム27において右導光板26と左導光板28との連結部分に配置できる。この場合、画像表示部20の装着状態において、距離センサーの位置は、水平方向では使用者の両眼のほぼ中間であり、鉛直方向では使用者の両眼より上である。距離センサーの測定方向は、例えば、前部フレーム27の表側方向とすることができ、言い換えれば第1カメラ61の撮像方向と重複する方向である。距離センサーは、例えば、LEDやレーザーダイオード等の光源と、光源が発する光が測定対象物に反射する反射光を受光する受光部とを有する構成とすることができる。距離センサーは、制御部150の制御に従い、三角測距処理や時間差に基づく測距処理を実行すればよい。また、距離センサーは、超音波を発する音源と、測定対象物で反射する超音波を受信する検出部とを備える構成としてもよい。この場合、距離センサーは、制御部150の制御に従い、超音波の反射までの時間差に基づき測距処理を実行すればよい。   The HMD 100 may include a distance sensor (not shown) that detects a distance to a measurement object positioned in a preset measurement direction. The distance sensor can be disposed, for example, at a connection portion between the right light guide plate 26 and the left light guide plate 28 in the front frame 27. In this case, when the image display unit 20 is mounted, the position of the distance sensor is substantially in the middle between the user's eyes in the horizontal direction and above the user's eyes in the vertical direction. The measurement direction of the distance sensor can be, for example, the front side direction of the front frame 27, in other words, the direction overlapping the imaging direction of the first camera 61. The distance sensor can be configured to include, for example, a light source such as an LED or a laser diode, and a light receiving unit that receives reflected light that is reflected from the light to be measured. The distance sensor may perform a triangulation process or a distance measurement process based on a time difference in accordance with the control of the control unit 150. The distance sensor may be configured to include a sound source that emits ultrasonic waves and a detection unit that receives ultrasonic waves reflected by the measurement object. In this case, the distance sensor may perform the distance measurement process based on the time difference until the reflection of the ultrasonic wave according to the control of the control unit 150.

図2は、画像表示部20が備える光学系の構成を示す要部平面図である。図2には説明のため使用者の左眼LE及び右眼REを図示する。
図2に示すように、右表示ユニット22及び左表示ユニット24は、左右対称に構成される。右表示ユニット22は、使用者の右眼REに画像を視認させる構成として、画像光を発するOLED(Organic Light Emitting Diode)ユニット221と、OLEDユニット221が発する画像光Lを導くレンズ群等を備えた右光学系251とを備える。画像光Lは、右光学系251により右導光板26に導かれる。
FIG. 2 is a principal plan view showing the configuration of the optical system provided in the image display unit 20. FIG. 2 shows the user's left eye LE and right eye RE for explanation.
As shown in FIG. 2, the right display unit 22 and the left display unit 24 are configured symmetrically. The right display unit 22 includes an OLED (Organic Light Emitting Diode) unit 221 that emits image light and a lens group that guides the image light L emitted from the OLED unit 221 as a configuration that allows the user's right eye RE to visually recognize an image. Right optical system 251. The image light L is guided to the right light guide plate 26 by the right optical system 251.

OLEDユニット221は、OLEDパネル223と、OLEDパネル223を駆動するOLED駆動回路225とを有する。OLEDパネル223は、有機エレクトロルミネッセンスにより発光してR(赤)、G(緑)、B(青)の色光をそれぞれ発する発光素子を、マトリクス状に配置して構成される自発光型の表示パネルである。OLEDパネル223は、R、G、Bの素子を1個ずつ含む単位を1画素として、複数の画素を備え、マトリクス状に配置される画素により画像を形成する。OLED駆動回路225は、制御部150(図5)の制御に従って、OLEDパネル223が備える発光素子の選択及び発光素子への通電を実行して、OLEDパネル223の発光素子を発光させる。OLED駆動回路225は、OLEDパネル223の裏面すなわち発光面の裏側に、ボンディング等により固定される。OLED駆動回路225は、例えばOLEDパネル223を駆動する半導体デバイスで構成され、OLEDパネル223の裏面に固定される基板(図示略)に実装されてもよい。この基板には温度センサー217が実装される。
なお、OLEDパネル223は、白色に発光する発光素子をマトリクス状に配置し、R、G、Bの各色に対応するカラーフィルターを重ねて配置する構成であってもよい。また、R、G、Bの色光をそれぞれ放射する発光素子に加え、W(白)の光を発する発光素子を備えるWRGB構成のOLEDパネル223を用いてもよい。
The OLED unit 221 includes an OLED panel 223 and an OLED drive circuit 225 that drives the OLED panel 223. The OLED panel 223 is a self-luminous display panel configured by arranging, in a matrix, light emitting elements that emit light of R (red), G (green), and B (blue) by emitting light by organic electroluminescence. It is. The OLED panel 223 includes a plurality of pixels, each of which includes one R, G, and B element, and forms an image with pixels arranged in a matrix. The OLED drive circuit 225 selects a light emitting element included in the OLED panel 223 and energizes the light emitting element under the control of the control unit 150 (FIG. 5), and causes the light emitting element of the OLED panel 223 to emit light. The OLED drive circuit 225 is fixed to the back surface of the OLED panel 223, that is, the back surface of the light emitting surface by bonding or the like. The OLED drive circuit 225 may be formed of a semiconductor device that drives the OLED panel 223, for example, and may be mounted on a substrate (not shown) fixed to the back surface of the OLED panel 223. A temperature sensor 217 is mounted on this substrate.
Note that the OLED panel 223 may have a configuration in which light emitting elements that emit white light are arranged in a matrix, and color filters corresponding to R, G, and B colors are stacked. Further, an OLED panel 223 having a WRGB configuration provided with a light emitting element that emits W (white) light in addition to the light emitting elements that respectively emit R, G, and B color light may be used.

右光学系251は、OLEDパネル223から射出された画像光Lを並行状態の光束にするコリメートレンズを有する。コリメートレンズにより並行状態の光束にされた画像光Lは、右導光板26に入射する。右導光板26の内部において光を導く光路には、画像光Lを反射する複数の反射面が形成される。画像光Lは、右導光板26の内部で複数回の反射を経て右眼RE側に導かれる。右導光板26には、右眼REの眼前に位置するハーフミラー261(反射面)が形成される。画像光Lは、ハーフミラー261で反射して右眼REに向けて右導光板26から射出され、この画像光Lが右眼REの網膜に像を結び、使用者に画像を視認させる。   The right optical system 251 includes a collimator lens that converts the image light L emitted from the OLED panel 223 into a parallel light flux. The image light L converted into a parallel light beam by the collimator lens enters the right light guide plate 26. A plurality of reflecting surfaces that reflect the image light L are formed in an optical path that guides light inside the right light guide plate 26. The image light L is guided to the right eye RE side through a plurality of reflections inside the right light guide plate 26. A half mirror 261 (reflection surface) located in front of the right eye RE is formed on the right light guide plate 26. The image light L is reflected by the half mirror 261 and emitted from the right light guide plate 26 toward the right eye RE. The image light L forms an image on the retina of the right eye RE, and allows the user to visually recognize the image.

また、左表示ユニット24は、使用者の左眼LEに画像を視認させる構成として、画像光を発するOLEDユニット241と、OLEDユニット241が発する画像光Lを導くレンズ群等を備えた左光学系252とを備える。画像光Lは、左光学系252により左導光板28に導かれる。   In addition, the left display unit 24 has a left optical system including an OLED unit 241 that emits image light and a lens group that guides the image light L emitted from the OLED unit 241 as a configuration that allows the user's left eye LE to visually recognize an image. 252. The image light L is guided to the left light guide plate 28 by the left optical system 252.

OLEDユニット241は、OLEDパネル243と、OLEDパネル243を駆動するOLED駆動回路245とを有する。OLEDパネル243は、OLEDパネル223と同様に構成される自発光型の表示パネルである。OLED駆動回路245は、制御部150(図5)の制御に従って、OLEDパネル243が備える発光素子の選択及び発光素子への通電を実行して、OLEDパネル243の発光素子を発光させる。OLED駆動回路245は、OLEDパネル243の裏面すなわち発光面の裏側に、ボンディング等により固定される。OLED駆動回路245は、例えばOLEDパネル243を駆動する半導体デバイスで構成され、OLEDパネル243の裏面に固定される基板(図示略)に実装されてもよい。この基板には、温度センサー239が実装される。   The OLED unit 241 includes an OLED panel 243 and an OLED drive circuit 245 that drives the OLED panel 243. The OLED panel 243 is a self-luminous display panel configured similarly to the OLED panel 223. The OLED driving circuit 245 causes the light emitting elements of the OLED panel 243 to emit light by selecting a light emitting element included in the OLED panel 243 and energizing the light emitting element according to the control of the control unit 150 (FIG. 5). The OLED drive circuit 245 is fixed to the back surface of the OLED panel 243, that is, the back surface of the light emitting surface by bonding or the like. The OLED drive circuit 245 may be configured by a semiconductor device that drives the OLED panel 243, for example, and may be mounted on a substrate (not shown) fixed to the back surface of the OLED panel 243. A temperature sensor 239 is mounted on this substrate.

左光学系252は、OLEDパネル243から射出された画像光Lを並行状態の光束にするコリメートレンズを有する。コリメートレンズにより並行状態の光束にされた画像光Lは、左導光板28に入射する。左導光板28は、画像光Lを反射する複数の反射面が形成された光学素子であり、例えばプリズムである。画像光Lは、左導光板28の内部で複数回の反射を経て左眼LE側に導かれる。左導光板28には、左眼LEの眼前に位置するハーフミラー281(反射面)が形成される。画像光Lは、ハーフミラー281で反射して左眼LEに向けて左導光板28から射出され、この画像光Lが左眼LEの網膜に像を結び、使用者に画像を視認させる。   The left optical system 252 includes a collimating lens that converts the image light L emitted from the OLED panel 243 into a light beam in a parallel state. The image light L converted into a parallel light beam by the collimator lens enters the left light guide plate 28. The left light guide plate 28 is an optical element formed with a plurality of reflecting surfaces that reflect the image light L, and is, for example, a prism. The image light L is guided to the left eye LE side through a plurality of reflections inside the left light guide plate 28. The left light guide plate 28 is formed with a half mirror 281 (reflection surface) located in front of the left eye LE. The image light L is reflected by the half mirror 281 and emitted from the left light guide plate 28 toward the left eye LE. The image light L forms an image on the retina of the left eye LE, and allows the user to visually recognize the image.

この構成によれば、HMD100は、シースルー型の表示装置として機能する。すなわち、使用者の右眼REには、ハーフミラー261で反射した画像光Lと、右導光板26を透過した外光OLとが入射する。また、左眼LEには、ハーフミラー281で反射した画像光Lと、ハーフミラー281を透過した外光OLとが入射する。このように、HMD100は、内部で処理した画像の画像光Lと外光OLとを重ねて使用者の眼に入射させる。使用者にとっては、右導光板26及び左導光板28を透かして外景が見え、この外景に重ねて、又は外景の周辺に画像光Lによる画像が視認可能に表示される。ハーフミラー261、281は、右表示ユニット22及び左表示ユニット24がそれぞれ出力する画像光を反射して画像を取り出す画像取り出し部であり、表示部ということができる。   According to this configuration, the HMD 100 functions as a see-through display device. That is, the image light L reflected by the half mirror 261 and the external light OL transmitted through the right light guide plate 26 are incident on the user's right eye RE. Further, the image light L reflected by the half mirror 281 and the external light OL transmitted through the half mirror 281 are incident on the left eye LE. As described above, the HMD 100 causes the image light L of the image processed inside and the external light OL to overlap and enter the user's eyes. For the user, the outside scene can be seen through the right light guide plate 26 and the left light guide plate 28, and an image of the image light L is displayed so as to be visible over the outside scene or around the outside scene. The half mirrors 261 and 281 are image extraction units that extract image by reflecting image light output from the right display unit 22 and the left display unit 24, respectively, and can be called display units.

なお、左光学系252と左導光板28とを総称して「左導光部」とも呼び、右光学系251と右導光板26とを総称して「右導光部」と呼ぶ。右導光部及び左導光部の構成は上記の例に限定されず、画像光を用いて使用者の眼前に虚像を形成する限りにおいて任意の方式を用いることができ、例えば、回折格子を用いても良いし、半透過反射膜を用いても良い。   The left optical system 252 and the left light guide plate 28 are collectively referred to as a “left light guide”, and the right optical system 251 and the right light guide plate 26 are collectively referred to as a “right light guide”. The configuration of the right light guide and the left light guide is not limited to the above example, and any method can be used as long as a virtual image is formed in front of the user's eyes using image light. It may be used, or a semi-transmissive reflective film may be used.

図1に戻り、制御装置10及び画像表示部20は、接続ケーブル40により接続される。接続ケーブル40は、ケース10Aの下部に設けられるコネクター(図示略)に着脱可能に接続され、左保持部23の先端から、画像表示部20の内部に設けられる各種回路に接続する。接続ケーブル40は、デジタルデータを伝送するメタルケーブル又は光ファイバーケーブルを有し、アナログ信号を伝送するメタルケーブルを有していてもよい。接続ケーブル40の途中には、コネクター46が設けられる。コネクター46は、ステレオミニプラグを接続するジャックであり、コネクター46及び制御装置10は、例えばアナログ音声信号を伝送するラインで接続される。図1に示す構成例では、ステレオヘッドホンを構成する右イヤホン32と左イヤホン34、及びマイク63を有するヘッドセット30が、コネクター46に接続される。
制御装置10と画像表示部20とを無線接続してもよい。例えば、Bluetooth(登録商標)、無線LAN(Wi−Fi(登録商標)を含む)等の規格に準拠した無線通信により、制御装置10と画像表示部20とが制御信号やデータを相互に送受信する構成としてもよい。
Returning to FIG. 1, the control device 10 and the image display unit 20 are connected by a connection cable 40. The connection cable 40 is detachably connected to a connector (not shown) provided at the lower part of the case 10 </ b> A, and is connected to various circuits provided in the image display unit 20 from the tip of the left holding unit 23. The connection cable 40 includes a metal cable that transmits digital data or an optical fiber cable, and may include a metal cable that transmits an analog signal. A connector 46 is provided in the middle of the connection cable 40. The connector 46 is a jack for connecting a stereo mini plug, and the connector 46 and the control device 10 are connected by a line for transmitting an analog audio signal, for example. In the configuration example shown in FIG. 1, a headset 30 having a right earphone 32 and a left earphone 34 and a microphone 63 constituting a stereo headphone is connected to a connector 46.
The control device 10 and the image display unit 20 may be wirelessly connected. For example, the control device 10 and the image display unit 20 mutually transmit and receive control signals and data by wireless communication complying with standards such as Bluetooth (registered trademark) and wireless LAN (including Wi-Fi (registered trademark)). It is good also as a structure.

マイク63は、例えば図1に示すように、マイク63の集音部が使用者の視線方向を向くように配置され、音声を集音して、音声信号を音声インターフェイス180(図4)に出力する。マイク63は、例えばモノラルマイクであってもステレオマイクであってもよく、指向性を有するマイクであってもよいし、無指向性のマイクであってもよい。   For example, as shown in FIG. 1, the microphone 63 is arranged so that the sound collection unit of the microphone 63 faces the user's line of sight, collects sound, and outputs a sound signal to the sound interface 180 (FIG. 4). To do. For example, the microphone 63 may be a monaural microphone or a stereo microphone, may be a directional microphone, or may be an omnidirectional microphone.

図3は、画像表示部20の構成を示す斜視図であり、画像表示部20を使用者の頭部側から見た要部構成を示す。この図3は、画像表示部20の使用者の頭部に接する側、言い換えれば使用者の右眼RE及び左眼LEに見える側である。別の言い方をすれば、右導光板26及び左導光板28の裏側が見えている。
図3では、使用者の右眼REに画像光を照射するハーフミラー261、及び左眼LEに画像光を照射するハーフミラー281が、略四角形の領域として見える。また、ハーフミラー261、281を含む右導光板26及び左導光板28の全体が、上述したように外光を透過する。このため、使用者には、右導光板26及び左導光板28の全体を透過して外景が視認され、ハーフミラー261、281の位置に矩形の表示画像が視認される。
FIG. 3 is a perspective view showing a configuration of the image display unit 20 and shows a main configuration of the image display unit 20 as viewed from the user's head side. FIG. 3 shows the side of the image display unit 20 that contacts the user's head, in other words, the side that can be seen by the user's right eye RE and left eye LE. In other words, the back sides of the right light guide plate 26 and the left light guide plate 28 are visible.
In FIG. 3, the half mirror 261 that irradiates the user's right eye RE with the image light and the half mirror 281 that irradiates the left eye LE with the image light appear as substantially rectangular areas. Further, the entire right light guide plate 26 and left light guide plate 28 including the half mirrors 261 and 281 transmit external light as described above. For this reason, the user sees the outside scene through the entire right light guide plate 26 and the left light guide plate 28, and sees a rectangular display image at the positions of the half mirrors 261 and 281.

第1カメラ61は、画像表示部20において右側の端部に配置され、使用者の両眼が向く方向、すなわち使用者にとっての前方を撮像する。第2カメラ62は、右導光板26及び左導光板28との境界部分に配置され、使用者にとっての前方を撮像する。第1カメラ61及び第2カメラ62の光軸は、右眼RE及び左眼LEの視線方向を含む方向とされる。使用者がHMD100を装着した状態で視認できる外景は、無限遠とは限らない。例えば、使用者が両眼で、使用者の前方に位置する対象物を注視する場合、使用者から対象物までの距離は、30cm〜10m程度であることが多く、1m〜4m程度であることがより多い。そこで、HMD100について、通常使用時における使用者から対象物までの距離の上限、及び下限の目安を定めてもよい。この目安は調査や実験により求めてもよいし、使用者が設定してもよい。第1カメラ61及び第2カメラ62の光軸及び画角は、通常使用時における対象物までの距離が、設定された上限の目安に相当する場合、及び下限の目安に相当する場合に、この対象物が画角に含まれるように設定されることが好ましい。   The first camera 61 is disposed at the right end of the image display unit 20 and images the direction in which the user's eyes are facing, that is, the front for the user. The 2nd camera 62 is arrange | positioned in the boundary part with the right light-guide plate 26 and the left light-guide plate 28, and images the front for a user. The optical axes of the first camera 61 and the second camera 62 are directions including the line-of-sight directions of the right eye RE and the left eye LE. The outside scene that the user can visually recognize in a state where the HMD 100 is worn is not always at infinity. For example, when a user looks at an object located in front of the user with both eyes, the distance from the user to the object is often about 30 cm to 10 m, and is about 1 m to 4 m. There are more. Therefore, for the HMD 100, an upper limit and a lower limit of the distance from the user to the object during normal use may be determined. This standard may be obtained by investigation or experiment, or may be set by the user. The optical axes and angles of view of the first camera 61 and the second camera 62 are determined when the distance to the object during normal use corresponds to the set upper limit guide and the lower limit guide. It is preferable that the object is set to be included in the angle of view.

一般に、人間の視野角は水平方向におよそ200度、垂直方向におよそ125度とされ、そのうち情報受容能力に優れる有効視野は水平方向に30度、垂直方向に20度程度である。さらに、人間が注視する注視点が迅速に安定して見える安定注視野は、水平方向に60〜90度、垂直方向に45度〜70度程度とされている。注視点が使用者の前方に位置する対象物であるとき、使用者の視野において、右眼RE及び左眼LEのそれぞれの視線を中心として水平方向に30度、垂直方向に20度程度が有効視野である。また、水平方向に60〜90度、垂直方向に45度〜70度程度が安定注視野であり、水平方向に約200度、垂直方向に約125度が視野角となる。さらに、使用者が右導光板26及び左導光板28を透過して視認する実際の視野を、実視野(FOV:Field Of View)と呼ぶことができる。図1及び図2に示す本実施形態の構成で、実視野は、右導光板26及び左導光板28を透過して使用者が視認する実際の視野に相当する。実視野は、視野角及び安定注視野より狭いが、有効視野より広い。   In general, the viewing angle of a human is about 200 degrees in the horizontal direction and about 125 degrees in the vertical direction. Among them, the effective field of view with excellent information receiving ability is about 30 degrees in the horizontal direction and about 20 degrees in the vertical direction. Furthermore, the stable gaze field in which the gaze point that the human gazes at appears to be quickly and stably is about 60 to 90 degrees in the horizontal direction and about 45 to 70 degrees in the vertical direction. When the gazing point is an object located in front of the user, in the user's field of view, about 30 degrees in the horizontal direction and about 20 degrees in the vertical direction are effective around the line of sight of each of the right eye RE and the left eye LE. It is a field of view. Further, the stable viewing field is about 60 to 90 degrees in the horizontal direction and about 45 to 70 degrees in the vertical direction, and the viewing angle is about 200 degrees in the horizontal direction and about 125 degrees in the vertical direction. Furthermore, the actual visual field that the user sees through the right light guide plate 26 and the left light guide plate 28 can be referred to as a real field of view (FOV: Field Of View). In the configuration of the present embodiment shown in FIGS. 1 and 2, the actual visual field corresponds to an actual visual field that is transmitted through the right light guide plate 26 and the left light guide plate 28 and visually recognized by the user. The real field of view is narrower than the viewing angle and stable field of view, but wider than the effective field of view.

第1カメラ61及び第2カメラ62は、画像表示部20が表示する画像と共に視認可能な外景を含む範囲を撮像する。第1カメラ61及び第2カメラ62の画角は、使用者の視野よりも広い範囲を撮像可能であることが好ましく、具体的には、画角が、少なくとも使用者の有効視野よりも広いことが好ましい。また、画角が、使用者の実視野よりも広いことがより好ましい。さらに好ましくは、画角が、使用者の安定注視野よりも広く、最も好ましくは、画角が使用者の両眼の視野角よりも広いことがより好ましい。   The first camera 61 and the second camera 62 image a range including an outside scene that can be viewed together with the image displayed by the image display unit 20. The angle of view of the first camera 61 and the second camera 62 is preferably capable of capturing a wider range than the user's field of view. Specifically, the angle of view is at least wider than the effective field of view of the user. Is preferred. Further, it is more preferable that the angle of view is wider than the actual field of view of the user. More preferably, the angle of view is wider than the stable viewing field of the user, and most preferably, the angle of view is wider than the viewing angle of both eyes of the user.

第1カメラ61及び第2カメラ62が、撮像レンズとして、いわゆる広角レンズを備え、広い画角を撮像できる構成としてもよい。広角レンズには、超広角レンズ、準広角レンズと呼ばれるレンズを含んでもよいし、単焦点レンズであってもズームレンズであってもよく、複数のレンズからなるレンズ群を第1カメラ61及び第2カメラ62が備える構成であってもよい。   The first camera 61 and the second camera 62 may include a so-called wide-angle lens as an imaging lens so that a wide angle of view can be captured. The wide-angle lens may include a lens called a super-wide-angle lens or a quasi-wide-angle lens, or may be a single focus lens or a zoom lens. The lens group composed of a plurality of lenses may be a first camera 61 and a first lens. The structure with which 2 cameras 62 are provided may be sufficient.

図4は、HMD100を構成する各部の構成を示すブロック図である。
制御装置10は、プログラムを実行してHMD100を制御するメインプロセッサー140を備える。メインプロセッサー140には、メモリー121や不揮発性記憶部123が接続される。また、メインプロセッサー140には、センサー類として、6軸センサー111、磁気センサー113が接続される。また、メインプロセッサー140には、GPS受信部115、通信部117、音声コーデック182、外部コネクター184、外部メモリーインターフェイス186、USBコネクター188、センサーハブ192及びFPGA194が接続される。これらは外部とのインターフェイスとして機能する。また、メインプロセッサー140には、LEDインジケーター12や、LED表示部17、バイブレーター19、操作部110、電源部130が接続される。
FIG. 4 is a block diagram illustrating a configuration of each unit included in the HMD 100.
The control device 10 includes a main processor 140 that executes a program and controls the HMD 100. A memory 121 and a non-volatile storage unit 123 are connected to the main processor 140. In addition, a 6-axis sensor 111 and a magnetic sensor 113 are connected to the main processor 140 as sensors. The main processor 140 is connected with a GPS receiver 115, a communication unit 117, an audio codec 182, an external connector 184, an external memory interface 186, a USB connector 188, a sensor hub 192, and an FPGA 194. These function as an interface with the outside. In addition, the LED indicator 12, the LED display unit 17, the vibrator 19, the operation unit 110, and the power supply unit 130 are connected to the main processor 140.

メインプロセッサー140は、制御装置10に内蔵されたコントローラー基板120に実装される。コントローラー基板120には、メインプロセッサー140に加えて、メモリー121、不揮発性記憶部123、6軸センサー111、磁気センサー113、GPS受信部115、通信部117、音声コーデック182等がさらに実装される。また、本実施形態は、外部コネクター184、外部メモリーインターフェイス186、USBコネクター188、センサーハブ192、FPGA194及びインターフェイス196がコントローラー基板120に実装される。   The main processor 140 is mounted on the controller board 120 built in the control device 10. In addition to the main processor 140, a memory 121, a nonvolatile storage unit 123, a six-axis sensor 111, a magnetic sensor 113, a GPS reception unit 115, a communication unit 117, an audio codec 182, and the like are further mounted on the controller board 120. In this embodiment, the external connector 184, the external memory interface 186, the USB connector 188, the sensor hub 192, the FPGA 194, and the interface 196 are mounted on the controller board 120.

メモリー121は、メインプロセッサー140が制御プログラムを実行する場合に、実行される制御プログラム、及び処理されるデータを一時的に記憶するワークエリアを構成する。不揮発性記憶部123は、フラッシュメモリーやeMMC(embedded Multi Media Card)で構成される。不揮発性記憶部123は、メインプロセッサー140が実行するプログラムや、メインプロセッサー140がプログラムを実行して処理する各種データを記憶する。   The memory 121 constitutes a work area that temporarily stores a control program to be executed and data to be processed when the main processor 140 executes the control program. The nonvolatile storage unit 123 is configured by a flash memory or an eMMC (embedded Multi Media Card). The nonvolatile storage unit 123 stores a program executed by the main processor 140 and various data processed by the main processor 140 executing the program.

図4には一つのメインプロセッサー140により制御装置10の機能を実現する構成を示すが、複数のプロセッサー又は半導体チップにより制御装置10の機能を実現するようにしてもよい。例えば、コントローラー基板120に、SoC(System-on-a-Chip)やMCU(Micro Control Unit)、FPGA(Field-Programmable Gate Array)等の副処理装置(co-processor)をさらに搭載してもよい。また、制御装置10は、メインプロセッサー140及び副処理装置の双方を協働させるか、あるいは双方のうちの一方を選択的に用いて各種の制御を行ってもよい。   Although FIG. 4 shows a configuration in which the function of the control device 10 is realized by one main processor 140, the function of the control device 10 may be realized by a plurality of processors or semiconductor chips. For example, a SoC (System-on-a-Chip), an MCU (Micro Control Unit), an FPGA (Field-Programmable Gate Array), or the like may be further mounted on the controller board 120. . The control device 10 may perform various controls by causing both the main processor 140 and the sub-processing device to cooperate or selectively using one of the two.

6軸センサー111は、3軸加速度センサー及び3軸ジャイロ(角速度)センサーを備えるモーションセンサー(慣性センサー)である。6軸センサー111は、上記のセンサーがモジュール化されたIMU(Inertial Measurement Unit)を採用してもよい。磁気センサー113は、例えば、3軸の地磁気センサーである。   The 6-axis sensor 111 is a motion sensor (inertial sensor) including a 3-axis acceleration sensor and a 3-axis gyro (angular velocity) sensor. The 6-axis sensor 111 may employ an IMU (Internal Measurement Unit) in which the above sensors are modularized. The magnetic sensor 113 is, for example, a triaxial geomagnetic sensor.

6軸センサー111及び磁気センサー113は、検出値を、予め指定されたサンプリング周期に従ってメインプロセッサー140に出力する。また、6軸センサー111及び磁気センサー113は、メインプロセッサー140の要求に応じて、メインプロセッサー140により指定されたタイミングで、検出値をメインプロセッサー140に出力する。   The 6-axis sensor 111 and the magnetic sensor 113 output the detection value to the main processor 140 according to a sampling period specified in advance. The 6-axis sensor 111 and the magnetic sensor 113 output detection values to the main processor 140 at a timing designated by the main processor 140 in response to a request from the main processor 140.

GPS受信部115は、図示しないGPSアンテナを備え、GPS衛星から送信されるGPS信号を受信する。GPS受信部115は、受信したGPS信号をメインプロセッサー140に出力する。また、GPS受信部115は、受信したGPS信号の信号強度を計測し、メインプロセッサー140に出力する。信号強度には、例えば、受信信号強度(RSSI:Received Signal Strength Indication)、電界強度、磁界強度、信号雑音比(SNR: Signal to Noise ratio)等の情報を用いることができる。   The GPS receiving unit 115 includes a GPS antenna (not shown) and receives a GPS signal transmitted from a GPS satellite. The GPS receiving unit 115 outputs the received GPS signal to the main processor 140. Further, the GPS receiving unit 115 measures the signal strength of the received GPS signal and outputs it to the main processor 140. Information such as received signal strength (RSSI: Received Signal Strength Indication), electric field strength, magnetic field strength, signal to noise ratio (SNR) can be used as the signal strength.

通信部117は、外部の機器との間で無線通信を実行する。通信部117は、アンテナ、RF回路、ベースバンド回路、通信制御回路等を備えて構成され、又はこれらが統合されたデバイスで構成される。通信部117は、例えば、Bluetooth、無線LAN(Wi−Fiを含む)等の規格に準拠した無線通信を行う。   The communication unit 117 performs wireless communication with an external device. The communication unit 117 includes an antenna, an RF circuit, a baseband circuit, a communication control circuit, and the like, or a device in which these are integrated. The communication unit 117 performs wireless communication complying with standards such as Bluetooth and wireless LAN (including Wi-Fi), for example.

音声インターフェイス180は、音声信号を入出力するインターフェイスである。本実施形態では、音声インターフェイス180は、接続ケーブル40に設けられたコネクター46(図1)を含む。コネクター46はヘッドセット30に接続される。音声インターフェイス180が出力する音声信号は右イヤホン32、及び左イヤホン34に入力され、これにより右イヤホン32及び左イヤホン34が音声を出力する。また、ヘッドセット30が備えるマイク63は、音声を集音して、音声信号を音声インターフェイス180に出力する。マイク63から音声インターフェイス180に入力される音声信号は、外部コネクター184に入力される。   The audio interface 180 is an interface for inputting and outputting audio signals. In the present embodiment, the audio interface 180 includes a connector 46 (FIG. 1) provided on the connection cable 40. The connector 46 is connected to the headset 30. The audio signal output from the audio interface 180 is input to the right earphone 32 and the left earphone 34, whereby the right earphone 32 and the left earphone 34 output audio. Further, the microphone 63 provided in the headset 30 collects sound and outputs a sound signal to the sound interface 180. An audio signal input from the microphone 63 to the audio interface 180 is input to the external connector 184.

音声コーデック182は、音声インターフェイス180に接続され、音声インターフェイス180を介して入出力される音声信号のエンコード及びデコードを行う。音声コーデック182はアナログ音声信号からデジタル音声データへの変換を行うA/Dコンバーター、及びその逆の変換を行うD/Aコンバーターを備えてもよい。例えば、本実施形態のHMD100は、音声を右イヤホン32及び左イヤホン34により出力し、マイク63で集音する。音声コーデック182は、メインプロセッサー140が出力するデジタル音声データをアナログ音声信号に変換して、音声インターフェイス180を介して出力する。また、音声コーデック182は、音声インターフェイス180に入力されるアナログ音声信号をデジタル音声データに変換してメインプロセッサー140に出力する。   The audio codec 182 is connected to the audio interface 180 and encodes and decodes an audio signal input / output via the audio interface 180. The audio codec 182 may include an A / D converter that converts analog audio signals to digital audio data, and a D / A converter that performs the reverse conversion. For example, the HMD 100 according to the present embodiment outputs sound by the right earphone 32 and the left earphone 34 and collects sound by the microphone 63. The audio codec 182 converts the digital audio data output from the main processor 140 into an analog audio signal and outputs the analog audio signal via the audio interface 180. The audio codec 182 converts an analog audio signal input to the audio interface 180 into digital audio data and outputs the digital audio data to the main processor 140.

外部コネクター184は、メインプロセッサー140と通信する外部の装置を接続するコネクターである。外部コネクター184は、例えば、外部の装置をメインプロセッサー140に接続して、メインプロセッサー140が実行するプログラムのデバッグや、HMD100の動作のログの収集を行う場合に、この外部の装置を接続するインターフェイスである。   The external connector 184 is a connector that connects an external device that communicates with the main processor 140. The external connector 184 is an interface for connecting an external device when, for example, an external device is connected to the main processor 140 to debug a program executed by the main processor 140 or collect a log of the operation of the HMD 100. It is.

外部メモリーインターフェイス186は、可搬型のメモリーデバイスを接続可能なインターフェイスであり、例えば、カード型記録媒体を装着してデータの読取が可能なメモリーカードスロットとインターフェイス回路とを含む。この場合のカード型記録媒体のサイズ、形状、規格は制限されず、適宜に変更可能である。   The external memory interface 186 is an interface to which a portable memory device can be connected. For example, the external memory interface 186 includes a memory card slot in which a card type recording medium is mounted and data can be read and an interface circuit. In this case, the size, shape and standard of the card type recording medium are not limited and can be changed as appropriate.

USB(Universal Serial Bus)コネクター188は、USB規格に準拠したコネクターとインターフェイス回路とを備える。USBコネクター188は、USBメモリーデバイス、スマートフォン、コンピューター等を接続できる。USBコネクター188のサイズや形状、適合するUSB規格のバージョンは適宜に選択、変更可能である。   The USB (Universal Serial Bus) connector 188 includes a connector conforming to the USB standard and an interface circuit. The USB connector 188 can connect a USB memory device, a smartphone, a computer, or the like. The size and shape of the USB connector 188 and the compatible USB standard version can be appropriately selected and changed.

センサーハブ192及びFPGA194は、インターフェイス(I/F)196を介して、画像表示部20に接続される。センサーハブ192は、画像表示部20が備える各種センサーの検出値を取得してメインプロセッサー140に出力する。また、FPGA194は、メインプロセッサー140と画像表示部20の各部との間で送受信するデータの処理、及びインターフェイス196を介した伝送を実行する。   The sensor hub 192 and the FPGA 194 are connected to the image display unit 20 via an interface (I / F) 196. The sensor hub 192 acquires detection values of various sensors included in the image display unit 20 and outputs them to the main processor 140. The FPGA 194 executes processing of data transmitted / received between the main processor 140 and each unit of the image display unit 20 and transmission via the interface 196.

LEDインジケーター12は、HMD100の動作状態に対応して点灯し、又は点滅する。LED表示部17は、メインプロセッサー140の制御に従って、LEDインジケーター12の点灯及び消灯を制御する。また、LED表示部17は、トラックパッド14の直下に配置されるLED(図示略)、及びこのLEDを点灯させる駆動回路を含む構成であってもよい。この場合、LED表示部17は、メインプロセッサー140の制御に従って、LEDを点灯、点滅、消灯させる。   The LED indicator 12 lights up or blinks in accordance with the operating state of the HMD 100. The LED display unit 17 controls lighting and extinguishing of the LED indicator 12 according to the control of the main processor 140. The LED display unit 17 may include an LED (not shown) disposed immediately below the track pad 14 and a drive circuit that lights the LED. In this case, the LED display unit 17 turns on, blinks, and turns off the LED according to the control of the main processor 140.

バイブレーター19は、モーター、偏心した回転子(いずれも図示略)を備え、その他の必要な構成を備えてもよい。バイブレーター19は、メインプロセッサー140の制御に従って上記モーターを回転させることにより振動を発生する。HMD100は、例えば、操作部110に対する操作を検出した場合や、HMD100の電源がオン又はオフされる場合、その他の場合に、所定の振動パターンでバイブレーター19により振動を発生する。   The vibrator 19 includes a motor and an eccentric rotor (both not shown), and may have other necessary configurations. The vibrator 19 generates vibration by rotating the motor according to the control of the main processor 140. The HMD 100 generates vibration by the vibrator 19 with a predetermined vibration pattern, for example, when an operation on the operation unit 110 is detected, when the power of the HMD 100 is turned on or off, and in other cases.

操作部110は、操作子13及びトラックパッド14を備える。操作子13には、操作ボタン11、上下キー15、切替スイッチ16及び電源スイッチ18が含まれる。操作部110は、操作子13やトラックパッド14が操作を受けた場合に、操作を受けた操作子13やトラックパッド14の識別情報と、受けた操作内容を示す情報とを含む操作信号を制御部150に出力する。   The operation unit 110 includes an operation element 13 and a track pad 14. The operation element 13 includes an operation button 11, an up / down key 15, a changeover switch 16, and a power switch 18. When the operation unit 13 or the track pad 14 is operated, the operation unit 110 controls an operation signal including identification information of the operated operation unit 13 or the track pad 14 and information indicating the received operation content. Output to the unit 150.

制御装置10は、電源部130を備え、電源部130から供給される電力により動作する。電源部130は、充電可能なバッテリー132、及びバッテリー132の残容量の検出及びバッテリー132への充電の制御を行う電源制御回路134を備える。電源制御回路134はメインプロセッサー140に接続され、バッテリー132の残容量の検出値、又は電圧の検出値をメインプロセッサー140に出力する。また、電源部130が供給する電力に基づき、制御装置10から画像表示部20に電力を供給してもよい。また、電源部130から制御装置10の各部及び画像表示部20への電力の供給状態を、メインプロセッサー140が制御可能な構成としてもよい。   The control device 10 includes a power supply unit 130 and operates with power supplied from the power supply unit 130. The power supply unit 130 includes a rechargeable battery 132 and a power supply control circuit 134 that detects the remaining capacity of the battery 132 and controls charging of the battery 132. The power control circuit 134 is connected to the main processor 140 and outputs a detected value of the remaining capacity of the battery 132 or a detected value of the voltage to the main processor 140. Further, the power may be supplied from the control device 10 to the image display unit 20 based on the power supplied from the power supply unit 130. The power supply state from the power supply unit 130 to each unit of the control device 10 and the image display unit 20 may be configured to be controllable by the main processor 140.

画像表示部20の右表示ユニット22及び左表示ユニット24は、それぞれ、制御装置10に接続される。図1に示すように、HMD100では左保持部23に接続ケーブル40が接続され、この接続ケーブル40に繋がる配線が画像表示部20内部に敷設され、右表示ユニット22と左表示ユニット24のそれぞれが制御装置10に接続される。   The right display unit 22 and the left display unit 24 of the image display unit 20 are each connected to the control device 10. As shown in FIG. 1, in the HMD 100, a connection cable 40 is connected to the left holding unit 23, wiring connected to the connection cable 40 is laid inside the image display unit 20, and each of the right display unit 22 and the left display unit 24 is Connected to the control device 10.

右表示ユニット22は、表示ユニット基板210を有する。表示ユニット基板210には、インターフェイス196に接続されるインターフェイス(I/F)211、インターフェイス211を介して制御装置10から入力されるデータを受信する受信部(Rx)213、及びEEPROM215が実装される。
インターフェイス211は、受信部213、EEPROM215、温度センサー217、第1カメラ61、第2カメラ62、照度センサー65及びLEDインジケーター67を、制御装置10に接続する。
The right display unit 22 includes a display unit substrate 210. On the display unit substrate 210, an interface (I / F) 211 connected to the interface 196, a receiving unit (Rx) 213 that receives data input from the control device 10 via the interface 211, and an EEPROM 215 are mounted. .
The interface 211 connects the receiving unit 213, the EEPROM 215, the temperature sensor 217, the first camera 61, the second camera 62, the illuminance sensor 65, and the LED indicator 67 to the control device 10.

EEPROM(Electrically Erasable Programmable Read−Only Memory)215は、各種のデータをメインプロセッサー140が読み取り可能に記憶する。EEPROM215は、例えば、画像表示部20が備えるOLEDユニット221、241の発光特性や表示特性に関するデータ、右表示ユニット22又は左表示ユニット24が備えるセンサーの特性に関するデータなどを記憶する。具体的には、OLEDユニット221、241のガンマ補正に係るパラメーター、温度センサー217、239の検出値を補償するデータ等を記憶する。これらのデータは、HMD100の工場出荷時の検査によって生成され、EEPROM215に書き込まれ、出荷後はメインプロセッサー140がEEPROM215のデータを利用して処理を行える。   An EEPROM (Electrically Erasable Programmable Read-Only Memory) 215 stores various data so that the main processor 140 can read the data. The EEPROM 215 stores, for example, data relating to light emission characteristics and display characteristics of the OLED units 221 and 241 provided in the image display unit 20, data relating to characteristics of sensors provided in the right display unit 22 or the left display unit 24, and the like. Specifically, parameters relating to gamma correction of the OLED units 221, 241 and data for compensating the detection values of the temperature sensors 217, 239 are stored. These data are generated by the factory inspection of the HMD 100 and written in the EEPROM 215. After the shipment, the main processor 140 can perform processing using the data in the EEPROM 215.

第1カメラ61及び第2カメラ62は、インターフェイス211を介して入力される信号に従って撮像を実行し、撮像画像データ、又は撮像結果を示す信号を制御装置10に出力する。   The first camera 61 and the second camera 62 execute imaging according to a signal input via the interface 211, and output captured image data or a signal indicating the imaging result to the control device 10.

照度センサー65は、図1に示すように、前部フレーム27の端部ERに設けられ、画像表示部20を装着する使用者の前方からの外光を受光するよう配置される。照度センサー65は、受光量(受光強度)に対応する検出値を出力する。   As shown in FIG. 1, the illuminance sensor 65 is provided at the end ER of the front frame 27 and is arranged to receive external light from the front of the user wearing the image display unit 20. The illuminance sensor 65 outputs a detection value corresponding to the amount of received light (received light intensity).

LEDインジケーター67は、図1に示すように、前部フレーム27の端部ERにおいて第1カメラ61の近傍に配置される。LEDインジケーター67は、第1カメラ61又は第2カメラ62による撮像を実行中に点灯して、撮像中であることを報知する。   As shown in FIG. 1, the LED indicator 67 is disposed near the first camera 61 at the end ER of the front frame 27. The LED indicator 67 is lit during execution of imaging by the first camera 61 or the second camera 62 to notify that imaging is being performed.

温度センサー217は、温度を検出し、検出温度に対応する電圧値又は抵抗値を、検出値として出力する。温度センサー217は、OLEDパネル223(図2)の裏面側に実装される。温度センサー217は、例えばOLED駆動回路225と同一の基板に実装されてもよい。この構成により、温度センサー217は、主としてOLEDパネル223の温度を検出する。   The temperature sensor 217 detects the temperature and outputs a voltage value or a resistance value corresponding to the detected temperature as a detected value. The temperature sensor 217 is mounted on the back side of the OLED panel 223 (FIG. 2). For example, the temperature sensor 217 may be mounted on the same substrate as the OLED drive circuit 225. With this configuration, the temperature sensor 217 mainly detects the temperature of the OLED panel 223.

受信部213は、インターフェイス211を介してメインプロセッサー140が送信するデータを受信する。受信部213は、OLEDユニット221で表示する画像の画像データを受信した場合に、受信した画像データを、OLED駆動回路225(図2)に出力する。   The receiving unit 213 receives data transmitted from the main processor 140 via the interface 211. When receiving the image data of the image displayed on the OLED unit 221, the receiving unit 213 outputs the received image data to the OLED drive circuit 225 (FIG. 2).

左表示ユニット24は、表示ユニット基板230を有する。表示ユニット基板230には、インターフェイス196に接続されるインターフェイス(I/F)231、インターフェイス231を介して制御装置10から入力されるデータを受信する受信部(Rx)233が実装される。また、表示ユニット基板210には、6軸センサー235及び磁気センサー237が実装される。インターフェイス231は、受信部233、6軸センサー235、磁気センサー237、及び温度センサー239を制御装置10に接続する。   The left display unit 24 has a display unit substrate 230. On the display unit substrate 230, an interface (I / F) 231 connected to the interface 196 and a receiving unit (Rx) 233 that receives data input from the control device 10 via the interface 231 are mounted. In addition, a six-axis sensor 235 and a magnetic sensor 237 are mounted on the display unit substrate 210. The interface 231 connects the receiving unit 233, the 6-axis sensor 235, the magnetic sensor 237, and the temperature sensor 239 to the control device 10.

6軸センサー235は、3軸加速度センサー及び3軸ジャイロ(角速度)センサーを備えるモーションセンサー(慣性センサー)である。6軸センサー235は、上記のセンサーがモジュール化されたIMUを採用してもよい。磁気センサー237は、例えば、3軸の地磁気センサーである。   The 6-axis sensor 235 is a motion sensor (inertial sensor) including a 3-axis acceleration sensor and a 3-axis gyro (angular velocity) sensor. The 6-axis sensor 235 may employ an IMU in which the above sensors are modularized. The magnetic sensor 237 is, for example, a triaxial geomagnetic sensor.

温度センサー239は、温度を検出し、検出温度に対応する電圧値又は抵抗値を、検出値として出力する。温度センサー239は、OLEDパネル243(図2)の裏面側に実装される。温度センサー239は、例えばOLED駆動回路245と同一の基板に実装されてもよい。この構成により、温度センサー239は、主としてOLEDパネル243の温度を検出する。また、温度センサー239が、OLEDパネル243又はOLED駆動回路245に内蔵されてもよい。また、上記基板は半導体基板であってもよい。具体的には、OLEDパネル243が、Si−OLEDとして、OLED駆動回路245等とともに統合半導体チップ上の集積回路として実装される場合、この半導体チップに温度センサー239を実装してもよい。   The temperature sensor 239 detects the temperature and outputs a voltage value or a resistance value corresponding to the detected temperature as a detected value. The temperature sensor 239 is mounted on the back side of the OLED panel 243 (FIG. 2). The temperature sensor 239 may be mounted on the same substrate as the OLED drive circuit 245, for example. With this configuration, the temperature sensor 239 mainly detects the temperature of the OLED panel 243. Further, the temperature sensor 239 may be incorporated in the OLED panel 243 or the OLED drive circuit 245. The substrate may be a semiconductor substrate. Specifically, when the OLED panel 243 is mounted as an Si-OLED as an integrated circuit on an integrated semiconductor chip together with the OLED drive circuit 245 and the like, the temperature sensor 239 may be mounted on the semiconductor chip.

右表示ユニット22が備える第1カメラ61、第2カメラ62、照度センサー65、温度センサー217、及び左表示ユニット24が備える6軸センサー235、磁気センサー237、温度センサー239は、センサーハブ192に接続される。   The first camera 61, the second camera 62, the illuminance sensor 65, the temperature sensor 217, and the 6-axis sensor 235, the magnetic sensor 237, and the temperature sensor 239 included in the left display unit 24 are connected to the sensor hub 192. Is done.

センサーハブ192は、メインプロセッサー140の制御に従って各センサーのサンプリング周期の設定及び初期化を行う。センサーハブ192は、各センサーのサンプリング周期に合わせて、各センサーへの通電、制御データの送信、検出値の取得等を実行する。また、センサーハブ192は、予め設定されたタイミングで、右表示ユニット22及び左表示ユニット24が備える各センサーの検出値を、メインプロセッサー140に出力する。センサーハブ192は、各センサーの検出値を、メインプロセッサー140に対する出力のタイミングに合わせて一時的に保持する機能を備えてもよい。また、センサーハブ192は、各センサーの出力値の信号形式、又はデータ形式の相違に対応し、統一されたデータ形式のデータに変換して、メインプロセッサー140に出力する機能を備えてもよい。
また、センサーハブ192は、メインプロセッサー140の制御に従ってLEDインジケーター67への通電を開始及び停止させ、第1カメラ61が撮像を開始及び終了するタイミングに合わせて、LEDインジケーター67を点灯又は点滅させる。
The sensor hub 192 sets and initializes the sampling period of each sensor according to the control of the main processor 140. The sensor hub 192 executes energization to each sensor, transmission of control data, acquisition of a detection value, and the like in accordance with the sampling period of each sensor. The sensor hub 192 outputs detection values of the sensors included in the right display unit 22 and the left display unit 24 to the main processor 140 at a preset timing. The sensor hub 192 may have a function of temporarily holding the detection value of each sensor in accordance with the output timing to the main processor 140. In addition, the sensor hub 192 may have a function of converting the data of the output value of each sensor or the data format into data of a unified data format and outputting the data to the main processor 140.
The sensor hub 192 starts and stops energization of the LED indicator 67 according to the control of the main processor 140, and lights or blinks the LED indicator 67 in accordance with the timing when the first camera 61 starts and ends imaging.

図5は、制御装置10の制御系を構成する記憶部160、及び制御部150の機能ブロック図である。図5に示す記憶部160は、不揮発性記憶部123(図4)により構成される論理的な記憶部であり、EEPROM215やメモリー121を含んでもよい。また、制御部150、及び制御部150が有する各種の機能部は、メインプロセッサー140がプログラムを実行することによって、ソフトウェアとハードウェアとの協働により形成される。制御部150、及び制御部150を構成する各機能部は、例えば、メインプロセッサー140、メモリー121及び不揮発性記憶部123により構成される。   FIG. 5 is a functional block diagram of the storage unit 160 and the control unit 150 that constitute the control system of the control device 10. A storage unit 160 illustrated in FIG. 5 is a logical storage unit configured by the nonvolatile storage unit 123 (FIG. 4), and may include an EEPROM 215 and a memory 121. The control unit 150 and various functional units included in the control unit 150 are formed by cooperation of software and hardware by the main processor 140 executing a program. The control unit 150 and each functional unit constituting the control unit 150 include, for example, a main processor 140, a memory 121, and a nonvolatile storage unit 123.

記憶部160は、制御部150が実行する制御プログラムや、制御部150が処理する各種データを記憶する。具体的には、記憶部160は、制御プログラム161、設定データ162、コンテンツデータ163、パターン認識辞書164、撮像画像データ165等を記憶する。   The storage unit 160 stores a control program executed by the control unit 150 and various data processed by the control unit 150. Specifically, the storage unit 160 stores a control program 161, setting data 162, content data 163, a pattern recognition dictionary 164, captured image data 165, and the like.

制御プログラム161は、OS151上で実行される特定機能を持つアプリケーションプログラムである。アプリケーションプログラムには、例えば、ブラウザーソフトウェアや、業務用プログラム、文書作成ソフトウェアや表計算ソフトウェア等のオフィスプログラム等が含まれる。また、アプリケーションプログラムには、使用者の手の動きや、形状、位置をジェスチャーとして検出し、検出したジェスチャーに対応付けられた処理を実行するプログラムが含まれる。制御部150が、このアプリケーションプログラムを実行した場合の動作の詳細については後述する。   The control program 161 is an application program having a specific function that is executed on the OS 151. The application programs include, for example, browser software, business programs, office programs such as document creation software and spreadsheet software. In addition, the application program includes a program that detects the movement, shape, and position of the user's hand as a gesture and executes processing associated with the detected gesture. Details of the operation when the control unit 150 executes the application program will be described later.

設定データ162は、HMD100の動作を設定する各種の設定値を含む。また、制御部150がHMD100を制御する際にパラメーター、行列式、演算式、LUT(LookUp Table)等を用いる場合、これらを設定データ162に含めてもよい。   The setting data 162 includes various setting values that set the operation of the HMD 100. Further, when the control unit 150 uses the parameters, determinant, arithmetic expression, LUT (Look Up Table), etc. when controlling the HMD 100, these may be included in the setting data 162.

コンテンツデータ163は、制御部150の制御によって画像表示部20が表示する表示画像や映像を含むコンテンツのデータであり、画像データ又は映像データを含む。また、コンテンツデータ163として、音楽や音声のデータを含んでもよい。
また、コンテンツデータ163は、双方向型のコンテンツデータであってもよい。すなわち、画像表示部20によりコンテンツデータ163に含まれる画像データや映像データを表示し、表示した画像データや映像データに対する操作を操作部110で受け付け、受け付けた操作に対応した処理を制御部150で実行する。この場合、コンテンツデータ163は、操作を受け付ける場合に表示するメニュー画面の画像データ、メニュー画面に含まれる項目に対応する処理等を定めるデータ等を有していてもよい。
The content data 163 is content data including a display image and video displayed by the image display unit 20 under the control of the control unit 150, and includes image data or video data. Further, the content data 163 may include music and audio data.
Further, the content data 163 may be bidirectional content data. That is, the image display unit 20 displays the image data and video data included in the content data 163, the operation unit 110 receives an operation on the displayed image data and video data, and the control unit 150 performs a process corresponding to the received operation. Run. In this case, the content data 163 may include image data of a menu screen that is displayed when an operation is received, data that defines processing corresponding to items included in the menu screen, and the like.

パターン認識辞書164は、ジェスチャーを特定する情報と、制御部150が実行する処理とを対応付けて登録した辞書である。ジェスチャーは、手(本明細書では、手首から指の先までの部分を「手」という)の予め設定された動きや形状である。また、使用者の手により表示領域VRの予め設定された位置を指示する操作もジェスチャーに含めることができる。   The pattern recognition dictionary 164 is a dictionary in which information for specifying a gesture and processing executed by the control unit 150 are registered in association with each other. The gesture is a preset movement or shape of a hand (in this specification, a portion from the wrist to the tip of the finger is referred to as a “hand”). In addition, an operation of designating a preset position of the display area VR by the user's hand can be included in the gesture.

例えば、ジェスチャーが手を左から右に動かす動作であると仮定する。この場合、パターン認識辞書164には、ジェスチャーを特定する情報として、手の移動方向を示す情報が登録される。また、ジェスチャーが握った手を開く、すなわち手の形状を、掌を握った状態から手を展開した状態に変更する動作であると仮定する。この場合、パターン認識辞書164には、握った手の形状を示す情報と、開いた手の形状を示す情報と、これらの形状を示す情報の検出順序を示す情報とが登録される。また、ジェスチャーが表示領域VRの予め設定された位置を手によって指示する操作であると仮定した場合、パターン認識辞書164には、例えば、手によって指示される表示領域VRの位置又は範囲を示す情報が登録される。例えば、制御部150は、使用者の手が指示する位置が、表示領域VRの4隅に対応する位置又は範囲であると判定した場合、ジェスチャーが検出されたと判定する。   For example, assume that the gesture is an action of moving the hand from left to right. In this case, information indicating the moving direction of the hand is registered in the pattern recognition dictionary 164 as information for specifying a gesture. In addition, it is assumed that the gesture is an operation of opening the grasped hand, that is, changing the shape of the hand from the state of grasping the palm to the state of expanding the hand. In this case, information indicating the shape of the gripped hand, information indicating the shape of the open hand, and information indicating the detection order of the information indicating these shapes are registered in the pattern recognition dictionary 164. Further, when it is assumed that the gesture is an operation of pointing a preset position of the display area VR by hand, the pattern recognition dictionary 164 includes, for example, information indicating the position or range of the display area VR indicated by the hand. Is registered. For example, when it is determined that the position indicated by the user's hand is a position or range corresponding to the four corners of the display area VR, the control unit 150 determines that a gesture has been detected.

また、パターン認識辞書164に、ジェスチャーを特定する情報と対応付けて登録される処理には、制御対象としてのデバイスを制御する処理や、アプリケーションプログラムを実行して行う、例えば、検索や、動画再生等の処理が含まれる。   In addition, the process registered in the pattern recognition dictionary 164 in association with the information for specifying the gesture is performed by controlling a device as a control target or by executing an application program. Etc. are included.

パターン認識辞書164の登録情報は、更新可能である。例えば、ジェスチャーを特定する情報と、制御部150が実行する処理との対応付けを変更することも可能である。また、インターネット上のサーバー装置(図示略)からジェスチャーを特定する情報をダウンロードしてもよい。使用者は、操作部110を操作して、ダウンロードしたジェスチャーを特定する情報に、制御部150に実行させたい処理を対応付ける。制御部150は、操作部110で受け付けた操作に従って、ジェスチャーを特定する情報と、制御部150に実行させたい処理とを対応付けてパターン認識辞書164に登録する。   The registration information in the pattern recognition dictionary 164 can be updated. For example, it is possible to change the association between the information specifying the gesture and the process executed by the control unit 150. Further, information specifying a gesture may be downloaded from a server device (not shown) on the Internet. The user operates the operation unit 110 to associate processing desired to be executed by the control unit 150 with information specifying the downloaded gesture. In accordance with the operation received by the operation unit 110, the control unit 150 associates information for specifying a gesture with a process to be executed by the control unit 150 and registers the information in the pattern recognition dictionary 164.

撮像画像データ165は、第1カメラ61及び第2カメラ62の少なくとも一方により撮像された撮像画像データである。撮像画像データ165は、記憶部160に一時的に記憶されるデータであり、例えば、制御部150による処理が終了すると、記憶部160から消去される。第1カメラ61が撮像した撮像画像データは、本発明の「撮像画像」に相当する。   The captured image data 165 is captured image data captured by at least one of the first camera 61 and the second camera 62. The captured image data 165 is data temporarily stored in the storage unit 160. For example, when the processing by the control unit 150 ends, the captured image data 165 is deleted from the storage unit 160. The captured image data captured by the first camera 61 corresponds to the “captured image” of the present invention.

制御部150は、記憶部160が記憶するデータを利用して各種処理を実行し、HMD100を制御する。制御部150は、OS(Operating System)151、画像処理部152、撮像制御部153、検出部154、表示制御部155及び処理制御部156を機能ブロックとして備える。機能ブロックとは、メインプロセッサー140が制御プログラムを実行することで実現される機能をブロックとして便宜的に示したものであり、特定のアプリケーションプログラムやハードウェアを示すものではない。   The control unit 150 executes various processes using data stored in the storage unit 160 and controls the HMD 100. The control unit 150 includes an OS (Operating System) 151, an image processing unit 152, an imaging control unit 153, a detection unit 154, a display control unit 155, and a processing control unit 156 as functional blocks. The function block is a function that is realized by executing a control program by the main processor 140 for convenience, and does not indicate a specific application program or hardware.

OS151の機能は、記憶部160が記憶する制御プログラムの機能であり、その他の各部は、OS151上で実行されるアプリケーションプログラムの機能である。   The function of the OS 151 is a function of a control program stored in the storage unit 160, and the other units are functions of application programs executed on the OS 151.

画像処理部152は、例えば、記憶部160からコンテンツデータ163を読み出し、読み出したコンテンツデータ163から垂直同期信号VSyncや水平同期信号HSync等の同期信号を分離する。画像処理部152は、分離した垂直同期信号VSyncや水平同期信号HSyncの周期に応じて、PLL(Phase Locked Loop)回路等(図示略)を利用してクロック信号PCLKを生成する。また、画像処理部152は、コンテンツデータ163に含まれる画像データに対して解像度変換、輝度、彩度の調整、2D/3D変換処理等の種々の画像処理を必要に応じて実行してもよい。
画像処理部152は、画像処理を施した画像データを、画像の表示単位である1フレームごとに記憶部160内のDRAMに展開する。画像データの1フレームが展開されるDRAMの領域を、以下ではフレーム領域という。画像処理部152は、フレーム領域から画像データを読み出し、読み出した画像データを表示画像データとして画像表示部20に出力する。
For example, the image processing unit 152 reads the content data 163 from the storage unit 160 and separates synchronization signals such as the vertical synchronization signal VSync and the horizontal synchronization signal HSync from the read content data 163. The image processing unit 152 generates a clock signal PCLK using a PLL (Phase Locked Loop) circuit or the like (not shown) according to the period of the separated vertical synchronization signal VSync and horizontal synchronization signal HSync. In addition, the image processing unit 152 may perform various image processing such as resolution conversion, brightness and saturation adjustment, and 2D / 3D conversion processing on the image data included in the content data 163 as necessary. .
The image processing unit 152 develops the image data subjected to the image processing in the DRAM in the storage unit 160 for each frame that is an image display unit. A DRAM area where one frame of image data is expanded is hereinafter referred to as a frame area. The image processing unit 152 reads the image data from the frame area and outputs the read image data to the image display unit 20 as display image data.

画像処理部152は、メインプロセッサー140がプログラムを実行して実現される構成のほか、メインプロセッサー140と別のハードウェア(例えば、DSP(Digital Signal Processor))で構成してもよい。   The image processing unit 152 may be configured by hardware (for example, a DSP (Digital Signal Processor)) different from the main processor 140 in addition to the configuration realized by the main processor 140 executing a program.

撮像制御部153は、第1カメラ61及び第2カメラ62を制御して撮像を実行させ、撮像画像データを生成する。撮像制御部153は、生成した撮像画像データを記憶部160に一時的に記憶させる。また、第1カメラ61及び第2カメラ62が撮像画像データを生成する回路を含むカメラユニットとして構成される場合、撮像制御部153は撮像画像データを第1カメラ61及び第2カメラ62から取得し、記憶部160に一時的に記憶させる。   The imaging control unit 153 controls the first camera 61 and the second camera 62 to execute imaging, and generates captured image data. The imaging control unit 153 temporarily stores the generated captured image data in the storage unit 160. When the first camera 61 and the second camera 62 are configured as a camera unit including a circuit that generates captured image data, the imaging control unit 153 acquires the captured image data from the first camera 61 and the second camera 62. , Temporarily stored in the storage unit 160.

検出部154は、第1カメラ61により撮像された撮像画像データをもとに指示体の動きを検出し、検出した指示体の動きに基づく操作を受け付ける。
検出部154が受け付ける操作は、予め設定された指示体の動きに基づく操作である。指示体の動きには、例えば、指示体を上下方向や、左右方向に移動させる操作や、回転させる操作等が含まれる。検出部154は、第1カメラ61の撮像画像データをもとに指示体の動きを検出して、検出した指示体の動きが予め設定された指示体の動きに対応するか否かを判定する。検出部154は、検出した指示体の動きが、予め設定された指示体の動きに対応する場合に、指示体の動きに基づく操作を受け付ける。検出部154は、操作を受け付けると、予め設定された指示体の動きに対応付けられた処理を実行する。
The detection unit 154 detects the movement of the indicator based on the captured image data captured by the first camera 61, and accepts an operation based on the detected movement of the indicator.
The operation accepted by the detection unit 154 is an operation based on a preset movement of the indicator. The movement of the indicator includes, for example, an operation for moving the indicator in the vertical direction and the horizontal direction, an operation for rotating the indicator, and the like. The detection unit 154 detects the movement of the indicator based on the captured image data of the first camera 61, and determines whether or not the detected movement of the indicator corresponds to a preset movement of the indicator. . The detection unit 154 accepts an operation based on the movement of the indicator when the detected movement of the indicator corresponds to a preset movement of the indicator. When receiving the operation, the detection unit 154 executes a process associated with a preset movement of the indicator.

まず、検出部154は、記憶部160から第1カメラ61の撮像画像データを読み出し、読み出した撮像画像データに撮像された指示体を検出する。また、検出部154は、第1カメラ61が連続して撮像した撮像画像データから指示体を検出して、指示体の動き、形状及び位置の少なくともいずれかを検出する。検出部154は、検出した指示体の動き、形状及び位置の少なくともいずれかに基づく操作を受け付ける。   First, the detection unit 154 reads the captured image data of the first camera 61 from the storage unit 160, and detects the indicator imaged in the read captured image data. In addition, the detection unit 154 detects an indicator from captured image data continuously captured by the first camera 61, and detects at least one of the movement, shape, and position of the indicator. The detection unit 154 receives an operation based on at least one of the detected movement, shape, and position of the indicator.

本実施形態では、指示体が使用者の手である場合について説明するが、指示体は使用者の手に限定されない。例えば、使用者の指や腕といった身体の一部や、使用者が手に持った指示体、身体に取り付けられた被検出物体を用いてもよい。また、使用者の指に装着された指輪や、使用者の腕に装着された時計やバンド等を指示体として用いることも可能である。指示棒や時計、バンド等を指示体として用いる場合、指示体の画像データを記憶部160に予め記憶させておき、パターンマッチング等の方法により指示体を検出する。   In the present embodiment, a case where the indicator is a user's hand will be described, but the indicator is not limited to the user's hand. For example, a part of the body such as the user's finger or arm, an indicator held by the user's hand, or a detected object attached to the body may be used. It is also possible to use a ring attached to the user's finger, a watch or a band attached to the user's arm as the indicator. When using a pointer, a clock, a band, or the like as the indicator, the image data of the indicator is stored in advance in the storage unit 160, and the indicator is detected by a method such as pattern matching.

検出部154は、撮像画像データにおいて使用者の手が撮像された領域(以下、手領域という)を検出する。検出部154は、例えば、肌色抽出処理により、撮像画像データの領域から肌色領域を抽出し、しきい値処理により、抽出した肌色領域の画素値をしきい値と比較して手領域を検出する。また、検出部154は、エッジ検出処理により、求めた手領域の輪郭を抽出し、輪郭の凹凸による特徴点マッチングや曲率判定を用いて手の形状や位置を検出してもよい。検出部154は、撮像画像データにおいて、手領域を検出した場合、表示制御部155に、オブジェクト300の表示を指示する。オブジェクト300については、図6を参照しながら説明する。   The detection unit 154 detects an area in which the user's hand is imaged (hereinafter referred to as a hand area) in the captured image data. For example, the detection unit 154 extracts the skin color area from the captured image data area by skin color extraction processing, and detects the hand area by comparing the pixel value of the extracted skin color area with the threshold value by threshold processing. . The detection unit 154 may extract the contour of the obtained hand region by edge detection processing, and detect the shape and position of the hand using feature point matching or curvature determination based on the contour unevenness. The detection unit 154 instructs the display control unit 155 to display the object 300 when detecting a hand region in the captured image data. The object 300 will be described with reference to FIG.

また、検出部154は、第1カメラ61により連続して撮像された撮像画像データの各々、又は所定枚数ごとの撮像画像データから手領域を検出して、手領域の動きや形状、位置を検出する。検出部154は、手領域の動きや形状、位置を検出すると、検出した手領域の動きや形状、位置に基づいてパターン認識辞書164を参照し、検出した手領域の動きに対応したジェスチャーを特定する。検出部154は、手領域の動きや形状、位置に対応したジェスチャーを特定することで、指示体の動き、形状及び位置の少なくともいずれかに基づく操作を受け付ける。検出部154は、ジェスチャーを特定して操作を受け付けると、特定したジェスチャーに対応付けられた処理をパターン認識辞書164から取得する。検出部154は、取得したジェスチャーに対応付けられた処理を処理制御部156に実行させる。   In addition, the detection unit 154 detects the hand region from each of the captured image data continuously captured by the first camera 61 or the captured image data for every predetermined number of times, and detects the movement, shape, and position of the hand region. To do. When detecting the movement, shape, and position of the hand area, the detection unit 154 refers to the pattern recognition dictionary 164 based on the detected movement, shape, and position of the hand area, and identifies a gesture corresponding to the detected movement of the hand area. To do. The detection unit 154 receives an operation based on at least one of the movement, shape, and position of the indicator by specifying a gesture corresponding to the movement, shape, and position of the hand region. When the detection unit 154 specifies a gesture and receives an operation, the detection unit 154 acquires a process associated with the specified gesture from the pattern recognition dictionary 164. The detection unit 154 causes the process control unit 156 to execute a process associated with the acquired gesture.

表示制御部155は、右表示ユニット22及び左表示ユニット24を制御する制御信号を生成し、生成した制御信号により、右表示ユニット22及び左表示ユニット24のそれぞれによる画像光の生成及び射出を制御する。具体的には、表示制御部155は、OLED駆動回路225、245を制御して、OLEDパネル223、243による画像の表示を実行させる。表示制御部155は、画像処理部152が出力する信号に基づきOLED駆動回路225、245がOLEDパネル223、243に描画するタイミングの制御、OLEDパネル223、243の輝度の制御等を行う。   The display control unit 155 generates control signals for controlling the right display unit 22 and the left display unit 24, and controls generation and emission of image light by the right display unit 22 and the left display unit 24, respectively, based on the generated control signals. To do. Specifically, the display control unit 155 controls the OLED drive circuits 225 and 245 to cause the OLED panels 223 and 243 to display an image. The display control unit 155 controls the timing at which the OLED drive circuits 225 and 245 draw on the OLED panels 223 and 243 based on the signal output from the image processing unit 152, controls the brightness of the OLED panels 223 and 243, and the like.

また、表示制御部155は、検出部154が操作を受け付け可能な状態にあるか否かを判定して、判定結果を表示する。具体的には、表示制御部155は、検出部154により指示体が検出された場合に、HMD100がジェスチャーによる操作を受け付け可能な状態にあるか否かを判定する。表示制御部155は、受け付け可能であると判定した場合に、画像表示部20を制御して操作を受け付け可能なことを示す表示を表示領域VRに表示させる。   Further, the display control unit 155 determines whether or not the detection unit 154 is ready to accept an operation, and displays the determination result. Specifically, the display control unit 155 determines whether or not the HMD 100 is in a state in which an operation by a gesture can be accepted when the indicator is detected by the detection unit 154. If the display control unit 155 determines that the operation can be received, the display control unit 155 controls the image display unit 20 to display a display indicating that the operation can be received in the display area VR.

図6は、画像表示部20を頭部に装着した使用者の視野範囲FVを示す図である。
表示制御部155は、検出部154により指示体が検出された場合に、予め設定された画像や文字、図形、記号、マーク、アイコン等のオブジェクト300を表示領域VRに表示させる。また、表示制御部155は、検出部154により指示体が検出され、検出部154が指示体の操作を受け付け可能な状態にある場合に、表示させた画像や文字、図形、記号、マーク、アイコン等のオブジェクト300の表示態様を変化させる。例えば、表示制御部155は、指示体が検出され、画像処理等の処理負荷の大きい他の処理を実行中ではない場合に、指示体の操作を受け付け可能な状態にあると判定する。
FIG. 6 is a diagram showing a visual field range FV of a user wearing the image display unit 20 on the head.
When the indicator is detected by the detection unit 154, the display control unit 155 displays a preset object 300 such as an image, a character, a figure, a symbol, a mark, or an icon in the display region VR. Further, the display control unit 155 displays the displayed image, character, figure, symbol, mark, or icon when the indicator is detected by the detection unit 154 and the detection unit 154 is in a state where the operation of the indicator can be received. The display mode of the object 300 is changed. For example, the display control unit 155 determines that the operation of the indicator is acceptable when the indicator is detected and other processing with a large processing load such as image processing is not being executed.

図6は、オブジェクト300として、第1オブジェクト310と、第2オブジェクト320とを表示させた場合を示す。本実施形態では、第1オブジェクト310として手領域の範囲を示す範囲画像311を表示させ、第2オブジェクト320として指示体の形状を模した画像(以下、アイコンと表記する)321を表示させた場合を示す。範囲画像311は、本発明の「指示体に重畳する画像」に相当する。   FIG. 6 shows a case where the first object 310 and the second object 320 are displayed as the object 300. In the present embodiment, a range image 311 indicating the range of the hand region is displayed as the first object 310, and an image simulating the shape of the indicator (hereinafter referred to as an icon) 321 is displayed as the second object 320. Indicates. The range image 311 corresponds to the “image superimposed on the indicator” of the present invention.

第1オブジェクト310としての範囲画像311は、撮像画像データから検出された使用者の手の範囲を示す画像である。範囲画像311は、撮像画像データから手領域が検出された場合に、表示制御部155により表示領域VRに表示される。撮像画像データから手領域が検出されなくなると、表示制御部155は、範囲画像311を表示領域VRから消去する。
表示制御部155は、検出部154により検出された手領域の周囲を囲むように範囲画像311を表示させてもよいし、手領域の一部に重なるように範囲画像311を表示させてもよい。また、範囲画像311の形状は、矩形であってもよいし、円形や多角形であってもよく、また、身体の形状に対応した形状であってもよい。
使用者は、表示領域VRに範囲画像311が表示されることで、HMD100が指示体として検出した物体が手であるか否かを判断することができる。従って、HMD100が誤った物体を手と認識して検出した場合に、HMD100に指示体の検出を再度行わせて、誤った操作が実行されないようにすることができる。
The range image 311 as the first object 310 is an image indicating the range of the user's hand detected from the captured image data. The range image 311 is displayed on the display region VR by the display control unit 155 when a hand region is detected from the captured image data. When the hand region is no longer detected from the captured image data, the display control unit 155 deletes the range image 311 from the display region VR.
The display control unit 155 may display the range image 311 so as to surround the periphery of the hand region detected by the detection unit 154, or may display the range image 311 so as to overlap a part of the hand region. . The shape of the range image 311 may be a rectangle, a circle or a polygon, or a shape corresponding to the shape of the body.
The user can determine whether or not the object detected by the HMD 100 as the indicator is a hand by displaying the range image 311 in the display area VR. Therefore, when the HMD 100 recognizes and detects an erroneous object as a hand, the HMD 100 can detect the indicator again so that the erroneous operation is not executed.

第2オブジェクト320であるアイコン321は、HMD100の状態を示すアイコンであり、手領域が検出されたこと、及び、HMD100がジェスチャーによる操作を受け付け可能な状態にあることを示す。本実施形態では、指示体としての手の形状を模したアイコン321を第2オブジェクト320として表示させた場合を示すが、例えば、指示体が指示棒である場合には、指示棒の形状を示すアイコンを第2オブジェクト320として表示させてもよい。また、本実施形態は、第2オブジェクト320としてアイコン321を表示させる場合について説明するが、第2オブジェクト320はアイコンに限定されず、画像や文字、図形、記号、マークであってもよい。   An icon 321 that is the second object 320 is an icon that indicates the state of the HMD 100, and indicates that a hand region has been detected and that the HMD 100 is in a state in which an operation by a gesture can be accepted. In this embodiment, a case where an icon 321 simulating the shape of a hand as an indicator is displayed as the second object 320 is shown. For example, when the indicator is an indicator, the shape of the indicator is indicated. An icon may be displayed as the second object 320. In the present embodiment, the case where the icon 321 is displayed as the second object 320 will be described. However, the second object 320 is not limited to an icon, and may be an image, a character, a figure, a symbol, or a mark.

表示制御部155は、第2オブジェクト320の表示態様を変更する。第2オブジェクト320は、例えば、アプリケーションプログラムの起動と共に表示領域VRに表示される。表示制御部155は、手領域が検出され、制御部150が操作を受け付け可能な状態にある場合の第2オブジェクト320の視認性が、他の場合の第2オブジェクト320の視認性よりも高くなるように、第2オブジェクト320の表示態様を変更する。他の場合には、撮像画像データから手領域が検出されない場合や、手領域が検出されたが制御部150が操作を受け付け可能な状態にない場合が含まれる。   The display control unit 155 changes the display mode of the second object 320. For example, the second object 320 is displayed in the display area VR when the application program is activated. In the display control unit 155, the visibility of the second object 320 when the hand region is detected and the control unit 150 is ready to accept an operation is higher than the visibility of the second object 320 in other cases. As described above, the display mode of the second object 320 is changed. Other cases include a case where a hand region is not detected from the captured image data, and a case where a hand region is detected but the control unit 150 is not in a state where it can accept an operation.

例えば、表示制御部155は、第2オブジェクト320の透過率を変更することで、第2オブジェクト320の表示態様を変更することができる。表示制御部155は、手領域が検出され、制御部150が操作を受け付け可能な状態にある場合、第2オブジェクト320の透過率を、他の場合の第2オブジェクト320の透過率より低く設定する。第2オブジェクト320の透過率が低く設定されると、第2オブジェクト320が表示領域VRの外景に対して目立つ表示となる。また、第2オブジェクト320の透過率を高く設定することで、表示領域VRの外景に対して第2オブジェクト320が目立たなくなる。
また、表示制御部155は、第2オブジェクト320の表示色を変更することで、第2オブジェクト320の表示態様を変更することができる。表示制御部155は、手領域が検出され、制御部150が操作を受け付け可能な状態にある場合の第2オブジェクト320の表示色を、他の場合の第2オブジェクト320の表示色より目立つ色に変更する。例えば、表示制御部155は、手領域が検出され、制御部150が操作を受け付け可能な状態にある場合に、第2オブジェクト320を白色で表示し、他の場合には、第2オブジェクト320を黒色で表示する。また、表示制御部155は、手領域が検出され、制御部150が操作を受け付け可能な状態にある場合には、第2オブジェクト320の表示を点灯させ、他の場合には、第2オブジェクト320の表示を消灯させてもよい。
For example, the display control unit 155 can change the display mode of the second object 320 by changing the transmittance of the second object 320. The display control unit 155 sets the transmittance of the second object 320 to be lower than the transmittance of the second object 320 in other cases when the hand region is detected and the control unit 150 is in a state where the operation can be accepted. . When the transmittance of the second object 320 is set low, the second object 320 is displayed conspicuously with respect to the outside scene of the display area VR. Further, by setting the transmittance of the second object 320 high, the second object 320 becomes inconspicuous with respect to the outside scene of the display area VR.
Further, the display control unit 155 can change the display mode of the second object 320 by changing the display color of the second object 320. The display control unit 155 makes the display color of the second object 320 when the hand region is detected and the control unit 150 is ready to accept an operation to be more conspicuous than the display color of the second object 320 in other cases. change. For example, the display control unit 155 displays the second object 320 in white when a hand region is detected and the control unit 150 is ready to accept an operation, and in other cases, the second object 320 is displayed. Display in black. The display control unit 155 turns on the display of the second object 320 when the hand region is detected and the control unit 150 is ready to accept an operation, and otherwise displays the second object 320. May be turned off.

図6には、オブジェクト300として、第1オブジェクト310と第2オブジェクト320とを表示させた場合を示すが、いずれか一方だけを表示させてもよいし、例えば、LEDインジケーター12、67の表示等の他の表示と組み合わせて表示してもよい。例えば、表示領域VRに第1オブジェクト310を表示させ、LEDインジケーター12を点灯させてもよい。また、図6には、オブジェクト300として第1オブジェクト310及び第2オブジェクト320を表示させた場合を示すが、例えば、「手が検出されました」等のテキストを表示領域VRに表示させてもよい。また、オブジェクト300として、手が検出されたことを示す記号やマークを表示させてもよい。   Although FIG. 6 shows a case where the first object 310 and the second object 320 are displayed as the object 300, only one of them may be displayed, for example, display of the LED indicators 12, 67, etc. You may display in combination with other displays. For example, the first object 310 may be displayed in the display area VR, and the LED indicator 12 may be turned on. FIG. 6 shows the case where the first object 310 and the second object 320 are displayed as the object 300. For example, text such as “a hand has been detected” may be displayed in the display area VR. Good. Further, as the object 300, a symbol or mark indicating that a hand has been detected may be displayed.

処理制御部156は、検出部154の制御に従って、制御対象としてのデバイスの動作を制御する。また、処理制御部156は、検出部154の制御に従ってアプリケーションプログラムを実行して処理を行う。処理制御部156が制御するデバイスには、例えば、第2カメラ62や、マイク63、6軸センサー111、235、磁気センサー113、237、温度センサー217、239、照度センサー65、LEDインジケーター12、67等が含まれる。また、アプリケーションプログラムを実行して行う処理には、例えば、動画像や音楽等のコンテンツデータ163を再生する処理が含まれる。また、アプリケーションプログラムを実行して行う処理には、アプリケーションプログラムとしてのブラウザーソフトウェアを起動させる処理や、ブラウザーソフトウェアの検索欄に入力されたキーワードに基づいて検索を実行する処理が含まれる。   The process control unit 156 controls the operation of the device as the control target according to the control of the detection unit 154. In addition, the process control unit 156 performs processing by executing an application program according to the control of the detection unit 154. Examples of devices controlled by the processing control unit 156 include the second camera 62, the microphone 63, the six-axis sensors 111 and 235, the magnetic sensors 113 and 237, the temperature sensors 217 and 239, the illuminance sensor 65, and the LED indicators 12 and 67. Etc. are included. Further, the processing performed by executing the application program includes, for example, processing for reproducing the content data 163 such as a moving image or music. The processing performed by executing the application program includes processing for starting browser software as an application program and processing for executing a search based on a keyword input in a search field of the browser software.

図7は、制御部150の動作を示すフローチャートである。
制御部150の動作について図7のフローチャートを参照しながら説明する。制御部150は、まず、アプリケーションプログラムを起動させる操作を受け付けたか否かを判定する(ステップS1)。制御部150は、ステップS1において、HMD100をジェスチャーによって制御するアプリケーションプログラムを起動させる操作(以下、簡単に操作という)を受け付けたか否かを判定する。制御部150は、操作を受け付けていない場合(ステップS1/NO)、操作を受け付けるまで処理の開始を待機し、実行可能な他の処理があればこの他の処理を実行する。
FIG. 7 is a flowchart showing the operation of the control unit 150.
The operation of the control unit 150 will be described with reference to the flowchart of FIG. First, the control unit 150 determines whether an operation for starting an application program has been received (step S1). In step S <b> 1, the control unit 150 determines whether an operation for starting an application program that controls the HMD 100 with a gesture (hereinafter simply referred to as an operation) has been received. If no operation is received (step S1 / NO), control unit 150 waits for the start of the process until an operation is received, and executes another process if there is another process that can be executed.

制御部150は、操作を受け付けた場合(ステップS1/YES)、アプリケーションプログラムを実行して、表示領域VRに第2オブジェクト320及び第3オブジェクト330を表示させる(ステップS2)。   When the operation is received (step S1 / YES), the control unit 150 executes the application program to display the second object 320 and the third object 330 in the display area VR (step S2).

図8は、表示領域VRの表示状態を示す図である。特に、図8は、表示領域VRに、オブジェクト300として、第2オブジェクト320と、第3オブジェクト330とを表示した状態を示す図である。
図8には、第2オブジェクト320及び第3オブジェクト330を、表示領域VRの右上に表示した場合を示すが、第2オブジェクト320及び第3オブジェクト330を表示領域VRの左上、右下、左下等の他の位置に表示してもよい。また、第2オブジェクト320及び第3オブジェクト330は、好ましくは表示領域VRの設定された位置に表示させるとよい。第2オブジェクト320及び第3オブジェクト330を常に一定の位置に表示させることで、使用者が、表示領域VRに表示された第2オブジェクト320及び第3オブジェクト330を探す手間を軽減させることができる。
FIG. 8 is a diagram illustrating a display state of the display area VR. In particular, FIG. 8 is a diagram showing a state in which the second object 320 and the third object 330 are displayed as the object 300 in the display area VR.
FIG. 8 shows a case where the second object 320 and the third object 330 are displayed on the upper right side of the display area VR. The second object 320 and the third object 330 are displayed on the upper left, lower right, lower left, etc. of the display area VR. It may be displayed at other positions. The second object 320 and the third object 330 are preferably displayed at a set position in the display area VR. By always displaying the second object 320 and the third object 330 at a fixed position, it is possible to reduce the trouble for the user to search for the second object 320 and the third object 330 displayed in the display area VR.

第3オブジェクト330は、制御部150が検出する検出対象のジェスチャーを示す画像であり、制御対象のデバイスの状態に応じて表示状態が変化する画像である。
制御部150は、第3オブジェクト330として、ジェスチャーとしての指示体の移動方向を示す矢印画像331、333と、制御対象及び制御動作を示す文字332、334とを表示領域VR内に表示させる。制御対象及び制御動作を示す文字332は、矢印画像331内に表示される。同様に、制御対象及び制御動作を示す文字334は、矢印画像333内に表示される。矢印画像331は、使用者側から見て表示領域VRの右方向を示す矢印の画像である。また、矢印画像333は、使用者側から見て表示領域VRの左方向を示す矢印の画像である。
The third object 330 is an image indicating a gesture to be detected that is detected by the control unit 150, and is an image whose display state changes according to the state of the device to be controlled.
The control unit 150 displays, as the third object 330, arrow images 331 and 333 indicating the moving direction of the indicator as a gesture, and characters 332 and 334 indicating the control target and the control action in the display area VR. Characters 332 indicating the control target and the control action are displayed in the arrow image 331. Similarly, a character 334 indicating a control target and a control operation is displayed in the arrow image 333. The arrow image 331 is an arrow image indicating the right direction of the display area VR as viewed from the user side. The arrow image 333 is an arrow image indicating the left direction of the display area VR as viewed from the user side.

制御対象を示す文字332、334は、制御部150が制御する対象のデバイス名であり、制御動作を示す文字332、334は、制御対象に対して行われる制御部150の制御動作を示す。本実施形態では、制御対象を示す文字332、334として「カメラ」の文字が表示される。表示領域VRの右方向を示す矢印画像331内には、制御動作を示す文字332として「ON」の文字が表示される。また、表示領域VRの左方向を示す矢印画像333内には、制御動作を示す文字332として「OFF」の文字が表示される。制御部150は、使用者側から見て、手を左から右に動かすジェスチャーが検出された場合、第2カメラ62の電源をオンにする。また、制御部150は、使用者側から見て、右から左に手を動かすジェスチャーが検出された場合、第2カメラ62の電源をオフにする。   Characters 332 and 334 indicating control targets are device names to be controlled by the control unit 150, and characters 332 and 334 indicating control operations indicate control operations of the control unit 150 performed on the control targets. In the present embodiment, the characters “camera” are displayed as the characters 332 and 334 indicating the control target. In the arrow image 331 indicating the right direction of the display area VR, a character “ON” is displayed as a character 332 indicating a control operation. In the arrow image 333 indicating the left direction of the display area VR, a character “OFF” is displayed as the character 332 indicating the control operation. The control unit 150 turns on the power of the second camera 62 when a gesture for moving the hand from the left to the right is detected as viewed from the user side. The control unit 150 turns off the power of the second camera 62 when a gesture for moving the hand from right to left is detected as viewed from the user side.

また、制御部150は、第3オブジェクト330の表示態様を、制御対象のデバイスの状態に応じて変化させる。制御部150は、第2カメラ62の電源がオフの場合、矢印画像331の透過率を、第2カメラ62の電源がオンの場合の矢印画像331の透過率よりも低い値に設定する。第2カメラ62の電源がオフの場合、矢印画像331の透過率が低いので、矢印画像331が表示領域VR内の外景に対して目立つ表示となり、矢印画像331の視認性が高まる。また、制御部150は、第2カメラ62の電源がオンの場合と、オフの場合とで、矢印画像331の表示色を変更してもよい。制御部150は、第2カメラ62の電源がオンのときには、矢印画像331を灰色等の目立たない表示色で表示させ、第2カメラ62の電源がオフのときには、矢印画像331を白等の目立つ表示色で表示させる。   Further, the control unit 150 changes the display mode of the third object 330 according to the state of the device to be controlled. The control unit 150 sets the transmittance of the arrow image 331 to a value lower than the transmittance of the arrow image 331 when the power of the second camera 62 is on when the power of the second camera 62 is off. When the power of the second camera 62 is off, the transmittance of the arrow image 331 is low, so that the arrow image 331 becomes a conspicuous display with respect to the outside scene in the display area VR, and the visibility of the arrow image 331 is enhanced. In addition, the control unit 150 may change the display color of the arrow image 331 depending on whether the power of the second camera 62 is on or off. The controller 150 displays the arrow image 331 in an inconspicuous display color such as gray when the power of the second camera 62 is on, and the arrow image 331 is conspicuous as white or the like when the power of the second camera 62 is off. Display in display color.

また、制御部150は、第2カメラ62の電源がオンの場合、矢印画像333の透過率を、第2カメラ62の電源がオフの場合の矢印画像333の透過率よりも低い値に設定する。第2カメラ62の電源がオンの場合、矢印画像333の透過率が低いので、矢印画像333が表示領域VR内の外景に対して目立つ表示となり、矢印画像333の視認性が高まる。また、制御部150は、第2カメラ62の電源をオンにした場合と、オンにした場合とで、矢印画像333の表示色を変更してもよい。制御部150は、第2カメラ62の電源がオフのときには、矢印画像333を灰色等の目立たない表示色で表示させ、第2カメラ62の電源がオンのときには、矢印画像333を白等の目立つ表示色で表示させる。   In addition, when the power of the second camera 62 is on, the control unit 150 sets the transmittance of the arrow image 333 to a value lower than the transmittance of the arrow image 333 when the power of the second camera 62 is off. . When the power of the second camera 62 is turned on, the transmittance of the arrow image 333 is low, so that the arrow image 333 becomes a conspicuous display with respect to the outside scene in the display area VR, and the visibility of the arrow image 333 is improved. The control unit 150 may change the display color of the arrow image 333 depending on whether the power of the second camera 62 is turned on or turned on. The control unit 150 displays the arrow image 333 in an inconspicuous display color such as gray when the power of the second camera 62 is off, and the arrow image 333 is conspicuous as white or the like when the power of the second camera 62 is on. Display in display color.

また、本実施形態では、第3オブジェクト330の例として、矢印画像331、333と、制御対象及び制御動作を示す文字332、334とを示したが、第3オブジェクト330は、画像に限定されず、図形や、記号、マーク、アイコンであってもよい。   In the present embodiment, arrow images 331 and 333 and characters 332 and 334 indicating control targets and control actions are shown as examples of the third object 330. However, the third object 330 is not limited to an image. , Graphics, symbols, marks, icons.

制御部150は、表示領域VRに第2オブジェクト320及び第3オブジェクト330を表示させると、記憶部160から処理対象の撮像画像データを読み出す。ここでは、手領域の検出が終了していない撮像画像データのうち、撮像された時間が最も古い撮像画像データが読み出される。制御部150は、読み出した撮像画像データに対して肌色抽出処理やしきい値処理を行い、手領域を検出する(ステップS3)。制御部150は、手領域が検出されなかった場合(ステップS3/NO)、記憶部160から次の処理対象の撮像画像データを読み出し、読み出した撮像画像データに対して肌色抽出処理やしきい値処理を行い、手領域を検出する(ステップS3)。制御部150は、第1カメラ61によって撮像された撮像画像データの全てを処理対象として手領域の検出を行ってもよいし、所定の間隔で処理対象の撮像画像データを選択して手領域の検出を行ってもよい。制御部150は、前回、処理対象として選択した撮像画像データの次に撮像された撮像画像データ、又は処理対象として選択した撮像画像データから所定枚数後に撮像された撮像画像データを次の処理対象の撮像画像データとして選択する。   When the second object 320 and the third object 330 are displayed in the display area VR, the control unit 150 reads captured image data to be processed from the storage unit 160. Here, among the captured image data for which the detection of the hand area has not been completed, the captured image data having the oldest captured time is read out. The control unit 150 performs skin color extraction processing and threshold processing on the read captured image data to detect a hand region (step S3). When the hand region is not detected (step S3 / NO), the control unit 150 reads captured image data to be processed next from the storage unit 160, and performs a skin color extraction process or a threshold on the read captured image data. Processing is performed to detect a hand region (step S3). The control unit 150 may detect the hand area using all of the captured image data captured by the first camera 61 as a processing target, or may select the captured image data to be processed at a predetermined interval to detect the hand area. Detection may be performed. The control unit 150 sets the captured image data captured next to the captured image data selected as the processing target last time or the captured image data captured after a predetermined number of images from the captured image data selected as the processing target as the next processing target. Select as captured image data.

また、制御部150は、撮像画像データから手領域が検出された場合(ステップS3/YES)、表示領域VRに表示された第2オブジェクト320の表示色を変更する(ステップS4)。これによって、手領域が検出される前よりも第2オブジェクト320の視認性を高めることができる。また、制御部150は、撮像画像データから検出した手領域に対応する表示領域VRに範囲画像311を表示させる(ステップS5)。   Further, when a hand region is detected from the captured image data (step S3 / YES), the control unit 150 changes the display color of the second object 320 displayed in the display region VR (step S4). As a result, the visibility of the second object 320 can be improved compared to before the hand region is detected. In addition, the control unit 150 displays the range image 311 in the display area VR corresponding to the hand area detected from the captured image data (step S5).

図9は、表示領域VRの表示状態を示す図である。特に、図9は、範囲画像311の一例を示す図である。
制御部150は、撮像画像データから手領域を検出すると、検出した手領域に基づいて範囲画像311を表示させる表示位置を決定する。例えば、制御部150は、検出した手領域の周囲を囲むように範囲画像311の表示位置を設定してもよいし、手領域の一部に重なるように範囲画像311の表示位置を設定してもよい。制御部150は、範囲画像311の表示位置を設定すると、設定した表示位置に対応した表示領域VRの位置に、第1オブジェクト310としての範囲画像311を表示させる(ステップS5)。
FIG. 9 is a diagram showing a display state of the display area VR. In particular, FIG. 9 is a diagram illustrating an example of the range image 311.
When detecting the hand region from the captured image data, the control unit 150 determines a display position for displaying the range image 311 based on the detected hand region. For example, the control unit 150 may set the display position of the range image 311 so as to surround the detected hand region, or set the display position of the range image 311 so as to overlap a part of the hand region. Also good. When the display position of the range image 311 is set, the control unit 150 displays the range image 311 as the first object 310 at the position of the display area VR corresponding to the set display position (step S5).

制御部150は、表示領域VRに範囲画像311を表示させると、第1カメラ61が連続して撮像した撮像画像データを解析してジェスチャーを検出する。表示領域VRに表示された第3オブジェクト330の画像が示すジェスチャーが検出対象となる。より詳細には、第2カメラ62の電源がオンされていない場合、使用者側から見て手を左から右の動かすジェスチャーが検出対象のジェスチャーになる。また、第2カメラ62の電源がオンされている場合、使用者側から見て手を右から左に動かすジェスチャーが検出対象のジェスチャーとなる。   When the range image 311 is displayed in the display area VR, the control unit 150 analyzes the captured image data continuously captured by the first camera 61 and detects a gesture. The gesture indicated by the image of the third object 330 displayed in the display area VR is a detection target. More specifically, when the power of the second camera 62 is not turned on, a gesture for moving the hand from the left to the right as viewed from the user side is the gesture to be detected. In addition, when the power of the second camera 62 is turned on, a gesture to move the hand from the right to the left as viewed from the user side is a gesture to be detected.

制御部150は、第1カメラ61により連続して撮像された撮像画像データの各々から手領域を検出して、検出した手領域に位置の変化があるか否かを判定する。制御部150は、手領域の位置に変化がある場合、手領域の位置の変化がパターン認識辞書164に登録されたジェスチャーに対応するか否かを判定する。制御部150は、手領域の位置の変化がパターン認識辞書164に登録されたジェスチャーに対応する場合、ジェスチャーを検出したと判定する(ステップS6)。制御部150は、ジェスチャーを検出した場合、検出したジェスチャーのパターンに対応した処理をパターン認識辞書164から取得する。制御部150は、ジェスチャーのパターンに対応した処理の情報を取得すると、取得した処理の情報が示す処理を実行する(ステップS7)。例えば、制御部150は、第2カメラ62の電源がオンされておらず、使用者側から見て手を左から右に動かすジェスチャーが検出された場合、第2カメラ62の電源をオンする。   The control unit 150 detects a hand region from each of the captured image data continuously captured by the first camera 61, and determines whether or not there is a change in position of the detected hand region. When there is a change in the position of the hand area, the control unit 150 determines whether the change in the position of the hand area corresponds to the gesture registered in the pattern recognition dictionary 164. When the change in the position of the hand region corresponds to the gesture registered in the pattern recognition dictionary 164, the control unit 150 determines that a gesture has been detected (step S6). When detecting a gesture, the control unit 150 acquires a process corresponding to the detected gesture pattern from the pattern recognition dictionary 164. When the control unit 150 acquires process information corresponding to the gesture pattern, the control unit 150 executes a process indicated by the acquired process information (step S7). For example, when the power of the second camera 62 is not turned on and a gesture for moving the hand from the left to the right as viewed from the user side is detected, the control unit 150 turns on the power of the second camera 62.

制御部150は、ジェスチャーに対応する処理を実行すると(ステップS7)、次に受け付け可能な操作に対応付けられたジェスチャーがあるか否かを判定する(ステップS8)。例えば、ステップS7において第2カメラ62の電源をオンさせた場合、第2カメラ62のシャッターを切る操作に対応付けられたジェスチャーが存在するか否かを判定する。制御部150は、第2カメラ62のシャッターを切る操作に対応付けられジェスチャーが存在する場合(ステップS8/YES)、ジェスチャーに対応付けられた第3オブジェクト330の画像を表示領域VRに表示させる(ステップS2)。また、制御部150は、操作に対応付けられたジェスチャーがないと判定した場合(ステップS8/NO)、この処理フローを終了させる。   When the process corresponding to the gesture is executed (step S7), the control unit 150 determines whether there is a gesture associated with the next acceptable operation (step S8). For example, when the power of the second camera 62 is turned on in step S7, it is determined whether or not there is a gesture associated with the operation of releasing the shutter of the second camera 62. When there is a gesture associated with the operation of releasing the shutter of the second camera 62 (step S8 / YES), the control unit 150 displays an image of the third object 330 associated with the gesture in the display area VR ( Step S2). When it is determined that there is no gesture associated with the operation (step S8 / NO), the control unit 150 ends this processing flow.

また、制御部150は、ステップS6において、ジェスチャーが検出されなかった場合(ステップS6/NO)、表示領域VRに範囲画像311を表示させてからの経過時間が第1設定時間を経過したか否かを判定する(ステップS9)。制御部150は、経過時間が第1設定時間を経過していない場合(ステップS9/NO)、ステップS6に戻って撮像画像データからジェスチャーを検出する(ステップS6)。また、制御部150は、また、制御部150は、経過時間が第1設定時間を経過した場合(ステップS9/YES)、操作ガイドを表示領域VRに表示させる(ステップS10)。   If no gesture is detected in step S6 (step S6 / NO), the controller 150 determines whether or not the elapsed time since the display of the range image 311 in the display area VR has exceeded the first set time. Is determined (step S9). When the elapsed time has not passed the first set time (step S9 / NO), the control unit 150 returns to step S6 and detects a gesture from the captured image data (step S6). In addition, the control unit 150 causes the operation guide to be displayed in the display area VR when the elapsed time has passed the first set time (step S9 / YES) (step S10).

図10は、表示領域VRに表示された操作ガイドを示す図である。
操作ガイドは、ジェスチャーを使用者に誘導する画像であり、制御部150が検出するジェスチャーの動きを表した画像である。操作ガイドに加え、指示体として使用者の手をイメージさせる画像や図形、記号、マーク、アイコンを表示領域VRに表示させ、表示させた画像や図形、記号、マーク、アイコンの表示位置を所定時間ごとに変更することでジェスチャーの動きを示してもよい。図10には、第2カメラ62の電源をオンするジェスチャーに対応した操作ガイドを示す。この操作ガイドでは、使用者の手を示すアイコン307を表示領域VRに表示させ、表示させたアイコン307の表示位置を、所定時間ごとに、使用者側から見て左から右に移動させる。また、操作ガイドは、事前に撮像された動画像であってもよい。
FIG. 10 is a diagram illustrating the operation guide displayed in the display area VR.
The operation guide is an image that guides the gesture to the user, and is an image that represents the movement of the gesture detected by the control unit 150. In addition to the operation guide, images, figures, symbols, marks, and icons that image the user's hand as indicators are displayed in the display area VR, and the display positions of the displayed images, figures, symbols, marks, and icons are displayed for a predetermined time. The movement of the gesture may be indicated by changing each time. FIG. 10 shows an operation guide corresponding to a gesture for turning on the power of the second camera 62. In this operation guide, an icon 307 indicating the user's hand is displayed in the display area VR, and the display position of the displayed icon 307 is moved from left to right as viewed from the user side at predetermined time intervals. The operation guide may be a moving image captured in advance.

制御部150は、表示領域VRに操作ガイドを表示させると、第1カメラ61の撮像画像データに基づいてジェスチャー検出を実行する(ステップS11)。制御部150は、ジェスチャーが検出されない場合(ステップS11/NO)、表示領域VRに操作ガイドを表示させてから、第2設定時間を経過したか否かを判定する(ステップS12)。制御部150は、第2設定時間を経過していない場合(ステップS12/NO)、ステップS11の判定に戻りジェスチャーの検出を継続する(ステップS9)。また、制御部150は、第2設定時間が経過した場合(ステップS12/YES)、操作ガイドの表示を終了させる(ステップS13)。その後、制御部150は、ステップS9の判定に戻り、操作ガイドの表示を終了させてから第1設定時間を経過したか否かを判定する(ステップS9)。制御部150は、第1設定時間を経過した場合(ステップS9/YES)、操作ガイドを再び表示させ(ステップS10)、第1設定時間を経過していない場合(ステップS9/NO)、ステップS6に戻り撮像画像データからジェスチャー検出を行う。   When the operation guide is displayed in the display area VR, the control unit 150 performs gesture detection based on the captured image data of the first camera 61 (step S11). When the gesture is not detected (step S11 / NO), the control unit 150 determines whether or not the second set time has elapsed after the operation guide is displayed in the display area VR (step S12). When the second set time has not elapsed (step S12 / NO), the control unit 150 returns to the determination of step S11 and continues to detect the gesture (step S9). Moreover, the control part 150 complete | finishes the display of an operation guide, when 2nd setting time passes (step S12 / YES) (step S13). Thereafter, the control unit 150 returns to the determination in step S9, and determines whether or not the first set time has elapsed since the display of the operation guide was terminated (step S9). When the first set time has elapsed (step S9 / YES), the control unit 150 displays the operation guide again (step S10), and when the first set time has not elapsed (step S9 / NO), step S6. Returning to, gesture detection is performed from the captured image data.

図11は、表示領域VRの他の表示例を示す図である。
上述したフローチャートでは、表示領域VRに範囲画像311を表示させてから、第1設定時間を経過した場合に、操作ガイドを表示させる例について説明した。他の動作として、第1設定時間の計時中に、操作ガイドの表示までの残り時間を示す表示(残時間表示という)309を表示させてもよい。残時間表示309を表示させることで、使用者に、操作ガイドを表示させるか否かを選択させることができる。
FIG. 11 is a diagram showing another display example of the display area VR.
In the above-described flowchart, the example in which the operation guide is displayed when the first set time has elapsed after the range image 311 is displayed in the display area VR has been described. As another operation, a display 309 indicating the remaining time until the display of the operation guide (referred to as remaining time display) 309 may be displayed during the measurement of the first set time. By displaying the remaining time display 309, the user can select whether or not to display the operation guide.

以上説明したように第1実施形態のHMD100は、画像表示部20、検出部として動作する第1カメラ61及び撮像制御部153と、制御部として動作する検出部154、表示制御部155及び処理制御部156とを備える。
画像表示部20は、画像を外景に重畳して表示し、又は前記画像を前記外景の周辺に表示する。第1カメラ61及び撮像制御部153は、指示体を検出する。検出部154は、検出される指示体の動き、形状及び位置の少なくともいずれかに基づく操作を受け付ける。表示制御部155は、指示体による入力操作が可能な状態であるか否かを判定し、判定結果を表示する。
従って、使用者に、HMD100の状態を把握させ、指示体を用いた操作の使い勝手を向上させることができる。
As described above, the HMD 100 according to the first embodiment includes the image display unit 20, the first camera 61 and the imaging control unit 153 that operate as the detection unit, the detection unit 154 that operates as the control unit, the display control unit 155, and the process control. Part 156.
The image display unit 20 displays the image superimposed on the outside scene, or displays the image around the outside scene. The first camera 61 and the imaging control unit 153 detect the indicator. The detection unit 154 receives an operation based on at least one of the detected movement, shape, and position of the indicator. The display control unit 155 determines whether or not an input operation using an indicator is possible, and displays the determination result.
Therefore, the user can grasp the state of the HMD 100 and improve the usability of the operation using the indicator.

また、表示制御部155は、画像表示部20の表示領域において設定された位置に、操作を受け付け可能なことを示す画像、図形、文字又はアイコンを画像表示部20によって表示させる。
従って、使用者に、HMD100が操作を受け付け可能な状態にあることを直感的に認識させることができる。
Further, the display control unit 155 causes the image display unit 20 to display an image, a figure, a character, or an icon indicating that an operation can be accepted at a position set in the display area of the image display unit 20.
Therefore, the user can intuitively recognize that the HMD 100 is in a state where the operation can be accepted.

また、表示制御部155は、操作に応じて制御対象を制御可能に構成され、操作を受け付け可能なことを示す画像、図形、文字又はアイコンを、操作に応じて制御した制御対象の状態に応じて変化させる。
従って、使用者に、制御対象の状態を直感的に認識させることができる。
In addition, the display control unit 155 is configured to be able to control a control target according to an operation, and displays an image, a figure, a character, or an icon indicating that the operation can be accepted according to the state of the control target controlled according to the operation. Change.
Therefore, the user can intuitively recognize the state of the control target.

また、第1カメラ61は、画像表示部20が表示する画像とともに視認可能な外景を含む範囲を検出する。表示制御部155は、第1カメラ61の撮像画像データにより範囲内に指示体が検出された場合に、画像表示部20によって、操作を受け付け可能なことを示す表示を行わせる。
従って、使用者は、視認可能な外景を含む範囲内に指示体の位置を移動させることで、HMD100を、操作を受け付け可能な状態とすることができる。また、範囲内に指示体が検出された場合には、操作を受け付け可能なことを示す表示が表示されるので、HMD100の状態の把握が可能となる。
Further, the first camera 61 detects a range including an outside scene that can be visually recognized together with the image displayed by the image display unit 20. The display control unit 155 causes the image display unit 20 to display that the operation can be accepted when an indicator is detected within the range from the captured image data of the first camera 61.
Therefore, the user can make the HMD 100 ready to receive an operation by moving the position of the indicator within a range including a visually recognizable outside scene. Further, when an indicator is detected within the range, a display indicating that the operation can be accepted is displayed, so that the state of the HMD 100 can be grasped.

また、画像表示部20は、外光を透過することにより外景を視認させる透過型の表示領域VRを有する。第1カメラ61は、画像表示部20を透過して視認可能な外景を含む範囲で指示体を検出する。従って、使用者は、視認可能な外景を含む範囲内に指示体の位置を移動させることで、HMD100を、操作を受け付け可能な状態とすることができる。   The image display unit 20 includes a transmissive display area VR that allows the outside scene to be visually recognized by transmitting outside light. The first camera 61 detects the indicator within a range including an outside scene that is visible through the image display unit 20. Therefore, the user can make the HMD 100 ready to receive an operation by moving the position of the indicator within a range including a visually recognizable outside scene.

また、表示制御部155は、第1カメラ61の撮像画像データに指示体が検出されて操作を受け付け可能な状態である場合と、第1カメラ61の撮像画像データに指示体が検出されず操作を受け付け可能な状態にない場合とで、操作を受け付け可能なことを示す表示の表示態様を変更する。
従って、HMD100が指示体を検出した状態にあるか否かを使用者に通知することできる。
The display control unit 155 operates when the indicator is detected in the captured image data of the first camera 61 and the operation can be accepted, and when the indicator is not detected in the captured image data of the first camera 61. The display mode of the display indicating that the operation can be accepted is changed in the case where the operation is not acceptable.
Therefore, it is possible to notify the user whether or not the HMD 100 has detected the indicator.

また、表示制御部155は、第1カメラ61の撮像画像データに検出される指示体の動き、形状及び位置の少なくともいずれかに基づいてジェスチャーを入力操作として検出する。表示制御部155は、検出した入力操作に対応付けられた画像、図形、文字又はアイコンのいずれかの表示態様を変化させる。従って、指示体を用いたジェスチャーによりHMD100を操作することができる。また、HMD100により検出されたジェスチャーに対応付けられた画像、図形、文字又はアイコンのいずれかの表示態様が変化するので、検出されたジェスチャーを使用者に通知することができる。   Further, the display control unit 155 detects a gesture as an input operation based on at least one of the movement, shape, and position of the indicator detected in the captured image data of the first camera 61. The display control unit 155 changes the display mode of any one of an image, a figure, a character, or an icon associated with the detected input operation. Therefore, the HMD 100 can be operated by a gesture using an indicator. Moreover, since the display mode of any of images, graphics, characters, or icons associated with the gesture detected by the HMD 100 changes, the detected gesture can be notified to the user.

また、表示制御部155は、検出部154により指示体が検出された場合に、範囲画像311を指示体に重畳して表示する。
従って、範囲画像311を指示体に重畳して表示することができる。このため、HMD100が指示体として認識している物体を通知することができる。
In addition, when the indicator is detected by the detector 154, the display controller 155 displays the range image 311 so as to be superimposed on the indicator.
Therefore, the range image 311 can be displayed superimposed on the indicator. For this reason, the object recognized by the HMD 100 as the indicator can be notified.

また、表示制御部155は、表示領域VRに画像、図形、文字又はアイコンを表示させてから、予め設定された第1設定時間を経過しても、検出部が操作を受け付けていない場合に、指示体による操作をガイドする操作ガイドを表示領域VRに表示する。
従って、操作ガイドを表示して、指示体による操作を使用者にガイドすることができる。
In addition, the display control unit 155 displays an image, a graphic, a character, or an icon in the display area VR, and when the detection unit does not accept an operation even after a preset first setting time has elapsed, An operation guide for guiding the operation by the indicator is displayed in the display area VR.
Therefore, an operation guide can be displayed to guide the user to perform operations using the indicator.

また、表示制御部155は、操作ガイドを表示領域に表示するまでの残り時間を表示領域VRに表示する。
従って、操作がわからない使用者に、操作ガイドが表示される時間を通知することができる。
The display control unit 155 displays the remaining time until the operation guide is displayed in the display area in the display area VR.
Therefore, it is possible to notify the user who does not know the operation of the time when the operation guide is displayed.

また、表示制御部155は、操作ガイドを表示領域VRに表示してから予め設定された第2設定時間を経過した場合、又は、検出部154が、指示体の動きに基づく操作を検出した場合に、操作ガイドの表示を消去する。
従って、操作ガイドを表示させる必要がないと判断される場合に、操作ガイドの表示を消去することができ、表示領域VRの視認性を向上させることできる。
Further, the display control unit 155 displays the operation guide in the display area VR, when a preset second set time has elapsed, or when the detection unit 154 detects an operation based on the movement of the indicator Then, clear the operation guide display.
Therefore, when it is determined that it is not necessary to display the operation guide, the display of the operation guide can be erased, and the visibility of the display area VR can be improved.

また、処理制御部156は、検出部154が受け付けた操作により制御対象としてのデバイスを制御する、又は制御対象としてのアプリケーションプログラムを実行して検出部154が受け付けた操作に対応したアプリケーションプログラムの機能を実行する。
従って、指示体の操作によりデバイスを制御し、制御対象としてのアプリケーションプログラムに機能を選択して実行させることができる。
In addition, the process control unit 156 controls a device as a control target by an operation received by the detection unit 154, or executes an application program as a control target, and functions of an application program corresponding to the operation received by the detection unit 154 Execute.
Therefore, the device can be controlled by operating the indicator, and the function can be selected and executed by the application program as the control target.

[第2実施形態]
以下、添付図面を参照して本発明の第2実施形態について説明する。
[Second Embodiment]
The second embodiment of the present invention will be described below with reference to the accompanying drawings.

表示制御部155は、検出部154が第1カメラ61の撮像画像データから指示体の画像を検出した場合に、表示領域VRにオブジェクト300を表示させる。本実施形態は、オブジェクト300として、第1オブジェクト310である範囲画像311を表示させる。   The display control unit 155 displays the object 300 in the display area VR when the detection unit 154 detects the image of the indicator from the captured image data of the first camera 61. In the present embodiment, a range image 311 that is the first object 310 is displayed as the object 300.

検出部154は、撮像画像データから指示体を検出すると、指示体が撮像された撮像画像データ上の範囲を示す座標データを表示制御部155に出力する。表示制御部155は、検出部154から入力された座標データに基づいて演算を行い、図6に示すように、指示体を囲む表示領域VRの座標データを求める。表示制御部155は、求めた座標データに対応する表示領域VRに範囲画像311を表示させる。   When detecting the indicator from the captured image data, the detecting unit 154 outputs coordinate data indicating a range on the captured image data in which the indicator is captured to the display control unit 155. The display control unit 155 performs calculation based on the coordinate data input from the detection unit 154, and obtains the coordinate data of the display area VR surrounding the indicator as shown in FIG. The display control unit 155 displays the range image 311 in the display area VR corresponding to the obtained coordinate data.

記憶部160が記憶する設定データ162には、キャリブレーションデータが含まれる。キャリブレーションデータは、第1カメラ61の撮像画像データと、画像表示部20の表示領域VRとを対応付けるデータである。より詳細には、撮像画像データ上の座標を、表示領域VR上の座標に変換するデータである。例えば、第1カメラ61によりマーカー等の実物体を撮像し、撮像した実物体に重なる位置に、画像表示部20により画像を表示させる場合、撮像画像データ上の座標を、表示領域VR上の座標に変換するデータであるキャリブレーションデータ145が必要となる。このため、HMD100に事前にキャリブレーションを実行させて、撮像画像データ上の座標を、表示領域VR上の座標に変換するためのキャリブレーションデータを生成しておく。   The setting data 162 stored in the storage unit 160 includes calibration data. The calibration data is data that associates the captured image data of the first camera 61 with the display area VR of the image display unit 20. More specifically, it is data for converting coordinates on the captured image data into coordinates on the display area VR. For example, when a real object such as a marker is imaged by the first camera 61 and the image is displayed by the image display unit 20 at a position overlapping the captured real object, the coordinates on the captured image data are the coordinates on the display area VR. Calibration data 145 that is data to be converted to is required. Therefore, calibration data for converting the coordinates on the captured image data into the coordinates on the display area VR is generated in advance by causing the HMD 100 to perform calibration.

また、表示制御部155は、検出部154が第1カメラ61の撮像画像データから指示体の画像を検出した場合に、第2オブジェクト320であるアイコン321や、第3オブジェクト330である矢印画像331、333及び文字332、334を第1オブジェクト310とともに表示してもよい。また、第2オブジェクト320や第3オブジェクト330の表示タイミングは、第2カメラ62をオン又はオフにする処理を実行するアプリケーションプログラムが起動したタイミングであってもよい。また、第2オブジェクト320や第3オブジェクト330の表示タイミングは、検出部154が操作を受け付け可能であると判定したタイミングであってもよい。   In addition, when the detection unit 154 detects the image of the indicator from the captured image data of the first camera 61, the display control unit 155 displays the icon 321 that is the second object 320 and the arrow image 331 that is the third object 330. 333 and characters 332 and 334 may be displayed together with the first object 310. In addition, the display timing of the second object 320 and the third object 330 may be a timing at which an application program for executing processing for turning on or off the second camera 62 is started. The display timing of the second object 320 or the third object 330 may be a timing at which the detection unit 154 determines that an operation can be accepted.

次に、表示制御部155は、検出部154が指示体を検出した場合に、検出部154がジェスチャーによる操作を受け付け可能な状態にあるか否かを判定し、判定結果を表示領域VRに表示する。例えば、表示制御部155は、画像処理等の処理負荷の大きい処理を実行中であって、HMD100がビジー状態である場合、検出部154がジェスチャーによる操作を受け付け可能ではないと判定する。   Next, when the detection unit 154 detects the indicator, the display control unit 155 determines whether the detection unit 154 is in a state where it can accept an operation by a gesture, and displays the determination result in the display area VR. To do. For example, the display control unit 155 determines that the detection unit 154 cannot accept an operation by a gesture when a process with a large processing load such as image processing is being executed and the HMD 100 is busy.

表示制御部155は、HMD100がビジー状態ではなく、検出部154がジェスチャーによる操作を受け付け可能な状態であると判定すると、操作を受け付け可能であることを示す表示を表示領域VRに表示する。また、表示制御部155は、HMD100がビジー状態であり、検出部154がジェスチャーによる操作を受け付け可能な状態にはないと判定すると、操作を受け付け可能ではないことを示す表示を表示領域VRに表示する。これらの表示には、例えば、画像や、図形、アイコンが用いられる。また、操作を受け付け可能な状態にあるか否かを示す文字や記号を表示してもよい。   When the display control unit 155 determines that the HMD 100 is not in a busy state and the detection unit 154 is in a state in which an operation by a gesture can be received, the display control unit 155 displays a display indicating that the operation can be received in the display region VR. Further, when the display control unit 155 determines that the HMD 100 is in a busy state and the detection unit 154 is not in a state in which an operation by a gesture can be received, a display indicating that the operation cannot be received is displayed in the display region VR. To do. For these displays, for example, images, figures, and icons are used. Moreover, you may display the character and symbol which show whether it is in the state which can accept operation.

本実施形態では、表示制御部155は、範囲画像311及びアイコン321の少なくともいずれか一方の表示態様を変更することで、検出部154が操作を受け付け可能な状態である場合と、操作を受け付け可能ではない場合とを表示する。
例えば、表示制御部155は、検出部154が操作を受け付け可能な状態である場合、範囲画像311やアイコン321を実線で表示し、検出部154が操作を受け付け可能な状態ではない場合、範囲画像311やアイコン321を破線で表示する。
また、表示制御部155は、検出部154が操作を受け付け可能な状態ではない場合、範囲画像311やアイコン321を点滅させ、検出部154が操作を受け付け可能な状態である場合、範囲画像311やアイコン321を点灯させる。
また、表示制御部155は、検出部154が操作を受け付け可能な状態である場合と、操作を受け付け可能な状態ではない場合とで、範囲画像311やアイコン321の表示色を変更してもよい。
In the present embodiment, the display control unit 155 changes the display mode of at least one of the range image 311 and the icon 321 so that the detection unit 154 can accept the operation and can accept the operation. When not.
For example, the display control unit 155 displays the range image 311 and the icon 321 with a solid line when the detection unit 154 is ready to accept an operation, and the range image when the detection unit 154 is not ready to accept an operation. 311 and the icon 321 are displayed with a broken line.
The display control unit 155 blinks the range image 311 and the icon 321 when the detection unit 154 is not in a state where the operation can be accepted, and displays the range image 311 when the detection unit 154 is in a state where the operation can be received. The icon 321 is turned on.
In addition, the display control unit 155 may change the display color of the range image 311 and the icon 321 depending on whether the detection unit 154 is in a state where the operation can be accepted or not. .

また、表示制御部155は、検出部154が操作を受け付け可能な状態である場合に、範囲画像311やアイコン321を表示させ、検出部154が操作を受け付け可能な状態ではない場合に、範囲画像311やアイコン321の表示を消去してもよい。この場合、表示制御部155は、透過率を変更して、範囲画像311やアイコン321の表示と、非表示とを切り替えてもよい。すなわち、表示制御部155は、範囲画像311やアイコン321を表示領域VRに表示させる場合、範囲画像311やアイコン321の透過率を低く設定する。また、表示制御部155は、範囲画像311やアイコン321を表示領域VRに表示させない場合、範囲画像311やアイコン321の透過率を高く設定する。透過率を低い値に変更することで、範囲画像311やアイコン321が画像表示部20を通じて視認される外景よりも目立つ表示となる。また、透過率を高い値に変更することで、範囲画像311やアイコン321が画像表示部20を通じて視認される外景よりも目立つ表示となる。   In addition, the display control unit 155 displays the range image 311 and the icon 321 when the detection unit 154 is in a state where the operation can be accepted, and displays the range image when the detection unit 154 is not in a state where the operation is acceptable. The display of 311 and the icon 321 may be deleted. In this case, the display control unit 155 may switch between displaying and not displaying the range image 311 and the icon 321 by changing the transmittance. That is, when displaying the range image 311 or the icon 321 in the display area VR, the display control unit 155 sets the transmittance of the range image 311 or the icon 321 low. Further, when the range image 311 and the icon 321 are not displayed in the display region VR, the display control unit 155 sets the transmittance of the range image 311 and the icon 321 high. By changing the transmittance to a low value, the range image 311 and the icon 321 are displayed more conspicuously than the outside scene visually recognized through the image display unit 20. Further, by changing the transmittance to a high value, the range image 311 and the icon 321 are displayed more conspicuously than the outside scene visually recognized through the image display unit 20.

また、第1オブジェクト310と、第2オブジェクト320とを異なるタイミングで表示領域VRに表示させてもよい。例えば、検出部154が、撮像画像データから使用者の手領域を検出した場合には、第1オブジェクト310としての範囲画像311を表示させる。また、撮像画像データから手領域が検出され、HMD100が操作を受け付け可能な状態となると、第2オブジェクト320を表示させてもよい。さらに、第2オブジェクト3320と共に第3オブジェクト330を表示させてもよい。   Further, the first object 310 and the second object 320 may be displayed in the display area VR at different timings. For example, when the detection unit 154 detects the hand area of the user from the captured image data, the range image 311 as the first object 310 is displayed. Alternatively, the second object 320 may be displayed when a hand region is detected from the captured image data and the HMD 100 is ready to accept an operation. Further, the third object 330 may be displayed together with the second object 3320.

また、表示制御部155は、制御対象としてのデバイスやアプリケーションプログラムの動作状態に対応して第3オブジェクト330の表示態様を変更する。第3オブジェクト330は、検出部154が検出する指示体の動きを示す画像や図形、アイコンである。すなわち、パターン認識辞書164に登録されたジェスチャーを示す画像や、図形、アイコンである。
例えば、制御対象が第2カメラ62であって、第2カメラ62の動作状態がオフ状態である場合、表示制御部155は、第2カメラ62をオンする操作が対応付けられたジェスチャーを示す第3オブジェクト330を点滅させたり、点灯させたりする。また、表示制御部155は、第2カメラ62をオンする操作を対応付けたジェスチャーを示す第3オブジェクト330の透過率を、第2カメラ62をオフする操作を対応付けたジェスチャーを示す第3オブジェクト330の透過率よりも低い値に設定してもよい。従って、第2カメラ62をオンする操作が対応付けられた第3オブジェクト330が、第2カメラ62をオフする操作が対応付けられた第3オブジェクト330よりも目立つ表示とすることができる。
Further, the display control unit 155 changes the display mode of the third object 330 in accordance with the operation state of the device or application program as the control target. The third object 330 is an image, figure, or icon indicating the movement of the indicator detected by the detection unit 154. That is, an image, a figure, or an icon indicating a gesture registered in the pattern recognition dictionary 164.
For example, when the control target is the second camera 62 and the operation state of the second camera 62 is off, the display control unit 155 indicates the gesture associated with the operation for turning on the second camera 62. The three objects 330 are blinked or lit. In addition, the display control unit 155 displays the transmittance of the third object 330 indicating the gesture associated with the operation for turning on the second camera 62, and the third object indicating the gesture associated with the operation for turning off the second camera 62. A value lower than the transmittance of 330 may be set. Therefore, the third object 330 associated with the operation of turning on the second camera 62 can be displayed more conspicuously than the third object 330 associated with the operation of turning off the second camera 62.

また、制御対象が動画再生のアプリケーションプログラムであり、動画を再生中である場合、表示制御部155は、動画の再生を停止させたり、早送りさせたり、早戻しさせたりする操作が対応付けられたジェスチャーを第3オブジェクト330として表示する。また、表示制御部155は、動画再生のアプリケーションプログラムが起動しているが、動画の再生が行われていない場合、動画を再生させる操作が対応付けられたジェスチャーを第3オブジェクト330として表示する。   In addition, when the control target is an application program for playing a movie and the movie is being played, the display control unit 155 is associated with operations for stopping, fast-forwarding, and fast-rewinding the movie. The gesture is displayed as the third object 330. In addition, the display control unit 155 displays a gesture associated with an operation for playing a moving image as the third object 330 when the moving image playing application program is activated but the moving image is not played.

図12は、制御部150の他の動作を示すフローチャートである。
電源スイッチ18がオンされると(ステップS21)、不揮発性記憶部123に格納された制御プログラム161がメモリー121にロードされる。制御部150は、起動して(ステップS22)、ロードされた制御プログラム161の実行を開始する。制御部150は、第1カメラ61に撮像を開始させる(ステップS23)。
FIG. 12 is a flowchart showing another operation of the control unit 150.
When the power switch 18 is turned on (step S21), the control program 161 stored in the nonvolatile storage unit 123 is loaded into the memory 121. The control unit 150 is activated (step S22) and starts executing the loaded control program 161. The control unit 150 causes the first camera 61 to start imaging (step S23).

また、制御部150は、第1カメラ61に撮像を開始させると、表示領域VRに、第2オブジェクト320及び第3オブジェクト330を表示させる(ステップS24)。第2オブジェクト320は、透過率が高く設定され、表示領域VRの外景に対して第2オブジェクト320が目立たない態様で表示される。制御部150は、第1カメラ61の撮像画像データから使用者の手領域を検出すると、第2オブジェクト320の透過率を低い値に変更する。これにより、第2オブジェクト320が、画像表示部20を通じて視認される外景よりも目立つ表示となり、第2オブジェクト320が使用者に視認される。   In addition, when the first camera 61 starts imaging, the control unit 150 displays the second object 320 and the third object 330 in the display area VR (step S24). The second object 320 is displayed in such a manner that the transmittance is set high and the second object 320 is not conspicuous with respect to the outside scene of the display area VR. When detecting the hand area of the user from the captured image data of the first camera 61, the control unit 150 changes the transmittance of the second object 320 to a low value. Accordingly, the second object 320 is displayed more conspicuously than the outside scene visually recognized through the image display unit 20, and the second object 320 is visually recognized by the user.

また、表示領域VRには、第3オブジェクト330として、図9に示すように、「カメラON」の文字332が表示された矢印画像331と、「カメラOFF」の文字334が表示された矢印画像333とが表示される。
手領域が検出される前の状態では、第2カメラ62がオンしていることはないので、「カメラON」の文字332が表示された矢印画像331の透過率が低く、「カメラOFF」の文字334が表示された矢印画像333の透過率が高く表示される。
これにより、「カメラON」の文字332が表示された矢印画像331が、画像表示部20を通じて視認される外景よりも目立つ表示となる。また、「カメラOFF」の文字334が表示された矢印画像333が、画像表示部20を通じて視認される外景よりも目立たない表示となる。従って、使用者には、「カメラON」の文字332が表示された矢印画像331だけ表示領域VRに表示され、「カメラOFF」の文字334が表示された矢印画像333は、表示されていないように認識される。
In the display area VR, as shown in FIG. 9, as the third object 330, an arrow image 331 in which a “camera ON” character 332 is displayed and an arrow image in which a “camera OFF” character 334 is displayed. 333 is displayed.
In a state before the hand area is detected, the second camera 62 is not turned on. Therefore, the transmittance of the arrow image 331 on which the character 332 “camera ON” is displayed is low, and “camera OFF” is displayed. The arrow image 333 on which the character 334 is displayed is displayed with high transmittance.
As a result, the arrow image 331 on which the characters “332” of “camera ON” are displayed is more conspicuous than the outside scene visually recognized through the image display unit 20. In addition, the arrow image 333 on which the characters “334” of “camera OFF” are displayed is less conspicuous than the outside scene visually recognized through the image display unit 20. Accordingly, the user does not seem to display the arrow image 333 in which only the arrow image 331 in which the character “332” of “camera ON” is displayed is displayed in the display area VR, and in which the character 334 of “camera OFF” is displayed. Recognized.

次に、制御部150は、第1カメラ61の撮像画像データを取得し、取得した撮像画像データに対して手領域の検出を行う(ステップS25)。制御部150は、撮像画像データから手領域を検出することできなかった場合(ステップS25/NO)、次の撮像画像データを取得して、取得した撮像画像データに対して手領域の検出を行う。   Next, the control unit 150 acquires captured image data of the first camera 61, and detects a hand area for the acquired captured image data (step S25). When the hand region cannot be detected from the captured image data (step S25 / NO), the control unit 150 acquires the next captured image data and detects the hand region with respect to the acquired captured image data. .

また、制御部150は、撮像画像データから手領域を検出すると(ステップS25/YES)、制御部150が操作を受け付け可能な状態にあるか否かを判定する(ステップS26)。例えば、制御部150は、他の処理を実行中であって、新たな命令を受け付け可能な状態にはない場合、操作を受け付け可能な状態にはないと判定する(ステップS26/NO)。この場合、制御部150は、ステップS25で手領域の検出を開始してからの経過時間がタイムアウト時間を経過したか否かを判定する(ステップS27)。   Further, when detecting a hand region from the captured image data (step S25 / YES), the control unit 150 determines whether or not the control unit 150 is in a state where it can accept an operation (step S26). For example, the control unit 150 determines that the operation cannot be accepted when another process is being executed and the new command is not acceptable (step S26 / NO). In this case, the control unit 150 determines whether or not the elapsed time from the start of detection of the hand region in step S25 has passed the timeout time (step S27).

制御部150は、タイムアウト時間を経過していない場合(ステップS27/NO)、予め設定された一定時間、待機する(ステップS28)。制御部150は、一定時間が経過すると、再度、ステップS26で制御部150が操作を受け付け可能な状態にあるか否かを判定する(ステップS26)。また、制御部150は、予め設定されたタイムアウト時間を経過した場合(ステップ26/YES)、エラー表示を画像表示部20により表示させる(ステップS29)。   When the time-out period has not elapsed (step S27 / NO), the control unit 150 waits for a predetermined time (step S28). When a predetermined time has elapsed, the control unit 150 determines again whether or not the control unit 150 is ready to accept an operation in step S26 (step S26). In addition, when the preset timeout time has elapsed (step 26 / YES), the control unit 150 displays an error display on the image display unit 20 (step S29).

また、制御部150は、制御部150が操作を受け付け可能な状態にある場合(ステップS26/YES)、第2オブジェクト320の表示態様を変更、又は第2オブジェクト320を表示領域VRに表示させる(ステップS30)。具体的には、制御部150は、第2オブジェクト320の透過率を低い値に変更して第2オブジェクト320の視認性を高め、画像表示部20を通じて視認する外景よりも第2オブジェクト320の表示が目立つようにする。また、ステップS24において第2オブジェクト320を表示させていない場合、制御部150は、ステップS30において第2オブジェクト320を表示させる。   In addition, when the control unit 150 is in a state where the operation can be accepted (step S26 / YES), the control unit 150 changes the display mode of the second object 320 or causes the second object 320 to be displayed in the display region VR ( Step S30). Specifically, the control unit 150 increases the visibility of the second object 320 by changing the transmittance of the second object 320 to a lower value, and displays the second object 320 than the outside scene visually recognized through the image display unit 20. Make it stand out. When the second object 320 is not displayed in step S24, the control unit 150 displays the second object 320 in step S30.

また、制御部150は、手領域が検出された撮像画像データの領域に対応した表示領域VRに範囲画像311を表示させる(ステップS31)。例えば、制御部150は、検出した手領域の周囲を囲むように範囲画像311を表示領域VRに表示させる。   In addition, the control unit 150 displays the range image 311 in the display area VR corresponding to the area of the captured image data in which the hand area is detected (step S31). For example, the control unit 150 displays the range image 311 on the display region VR so as to surround the detected hand region.

次に、制御部150は、ジェスチャーの検出を開始する(ステップS32)。制御部150は、表示領域VRに範囲画像311を表示させると、第1カメラ61により連続して撮像された撮像画像データの各々から手領域を検出して、使用者により入力されたジェスチャーを検出する。表示領域VRに表示された第3オブジェクト330の画像が、検出対象のジェスチャーとなる。詳細には、第2カメラ62の電源がオンされていない場合、使用者側から見て手を左から右に動かすジェスチャーが検出対象のジェスチャーになる。また、第2カメラ62の電源がオンされている場合、使用者側から見て手を右から左に動かすジェスチャーが検出対象のジェスチャーとなる。   Next, the control unit 150 starts detecting a gesture (step S32). When the range image 311 is displayed in the display area VR, the control unit 150 detects a hand area from each of the captured image data continuously captured by the first camera 61 and detects a gesture input by the user. To do. The image of the third object 330 displayed in the display area VR is a gesture to be detected. Specifically, when the power of the second camera 62 is not turned on, a gesture for moving the hand from the left to the right as viewed from the user side is the gesture to be detected. In addition, when the power of the second camera 62 is turned on, a gesture to move the hand from the right to the left as viewed from the user side is a gesture to be detected.

制御部150は、第1カメラ61が連続して撮像した撮像画像データの各々から手領域を検出して、手領域の動きを検出する(ステップS33)。制御部150は、撮像画像データの各々から検出した手領域の位置に変化がない場合、手領域に動きがないと判定し(ステップS33/NO)、手領域の動きの検出を継続する。
また、制御部150は、検出した手領域の位置に変化があり、手領域に動きがある場合(ステップS33/YES)、検出した手領域の動きに対応したジェスチャーがパターン認識辞書164に登録されているか否かを判定する(ステップS34)。
The control unit 150 detects the hand area from each of the captured image data continuously captured by the first camera 61, and detects the movement of the hand area (step S33). When there is no change in the position of the hand area detected from each of the captured image data, the control unit 150 determines that there is no movement in the hand area (step S33 / NO), and continues to detect the movement of the hand area.
In addition, when there is a change in the position of the detected hand region and there is a movement in the hand region (step S33 / YES), the control unit 150 registers a gesture corresponding to the detected movement of the hand region in the pattern recognition dictionary 164. It is determined whether or not (step S34).

制御部150は、検出した手領域の動きに対応したジェスチャーがパターン認識辞書164に登録されていない場合(ステップS34/NO)、ステップS33に戻り、手領域の動きの検出を再度行う。また、制御部150は、検出した手領域の動きに対応したジェスチャーがパターン認識辞書164に登録されている場合(ステップS34/YES)、登録されたジェスチャーに対応付けられた処理を実行する(ステップS35)。   When the gesture corresponding to the detected movement of the hand area is not registered in the pattern recognition dictionary 164 (step S34 / NO), the control unit 150 returns to step S33 and detects the movement of the hand area again. When the gesture corresponding to the detected movement of the hand region is registered in the pattern recognition dictionary 164 (step S34 / YES), the control unit 150 executes a process associated with the registered gesture (step S34). S35).

以上説明したように第2実施形態のHMD100は、画像表示部20、第1カメラ61、検出部154及び表示制御部155を備える。
画像表示部20は、使用者の頭部に装着され、外景を視認可能に画像を表示する表示領域VRを有する。
検出部154は、第1カメラ61の撮像画像データをもとに指示体の動きを検出し、検出した指示体の動きに基づく操作を受け付ける。
表示制御部155は、検出部154が検出した指示体の動きに基づく操作を検出可能な状態であるか否かを判定し、判定結果を表示領域VRに表示する。
従って、検出部154が指示体の動きに基づく操作を検出可能な状態であるか否かの判定結果が表示領域VRに表示される。このため、指示体を用いた操作において、HMD100置の状態を把握可能な使い勝手のよいユーザーインターフェイスを提供することができる。
As described above, the HMD 100 according to the second embodiment includes the image display unit 20, the first camera 61, the detection unit 154, and the display control unit 155.
The image display unit 20 is mounted on the user's head and has a display area VR that displays an image so that the outside scene can be visually recognized.
The detection unit 154 detects the movement of the indicator based on the captured image data of the first camera 61, and accepts an operation based on the detected movement of the indicator.
The display control unit 155 determines whether or not the operation based on the movement of the indicator detected by the detection unit 154 can be detected, and displays the determination result in the display region VR.
Therefore, the determination result as to whether or not the detection unit 154 can detect an operation based on the movement of the indicator is displayed in the display region VR. Therefore, it is possible to provide an easy-to-use user interface that can grasp the state of the HMD 100 in the operation using the indicator.

また、表示制御部155は、判定結果として、検出部154が操作を検出可能な状態であることを示す図形、文字、アイコン、又は検出部154が検出した指示体の範囲を示す範囲画像311を表示領域VRに表示する。
従って、判定結果として、図形、文字、アイコン、範囲画像が表示されるため、操作を検出可能な状態であるか否かを外部に通知することができる。
In addition, the display control unit 155 displays, as a determination result, a range image 311 indicating a range of a figure, a character, an icon, or an indicator detected by the detection unit 154 indicating that the detection unit 154 can detect an operation. Displayed in the display area VR.
Therefore, since a figure, a character, an icon, and a range image are displayed as the determination result, it is possible to notify the outside whether or not the operation is detectable.

また、表示制御部155は、検出部154が指示体を検出した場合に、範囲画像311を表示領域VRに表示し、検出部154が操作を検出可能な状態であるか否かによって、表示領域VRに表示させた図形、文字、又はアイコンの表示態様を変更する。図形、文字、又はアイコンには、第2オブジェクト320のアイコン321や、第3オブジェクト330の矢印画像331、333及び文字332、334が含まれる。
従って、検出部154が指示体を検出したことを外部に通知することができ、検出部154が操作を検出可能な状態であるか否かを外部に通知することができる。
Further, the display control unit 155 displays the range image 311 in the display region VR when the detection unit 154 detects the indicator, and the display region depends on whether or not the detection unit 154 can detect the operation. The display mode of the graphic, character, or icon displayed on the VR is changed. The graphic, character, or icon includes an icon 321 of the second object 320, arrow images 331 and 333, and characters 332 and 334 of the third object 330.
Therefore, it is possible to notify the outside that the detection unit 154 has detected the indicator, and it is possible to notify the outside whether or not the detection unit 154 is in a state in which an operation can be detected.

また、表示制御部155は、検出部154が操作を検出可能な状態である場合に、図形又はアイコンとして、検出部154が検出する指示体の動きを示す図形又はアイコンを表示する。
従って、検出部154が検出する指示体の動きを示す図形又はアイコンが表示されるため、指示体を用いた操作を使用者に認識させることができる。
In addition, when the detection unit 154 is in a state in which an operation can be detected, the display control unit 155 displays a graphic or icon indicating the movement of the indicator detected by the detection unit 154 as a graphic or an icon.
Accordingly, since the graphic or icon indicating the movement of the indicator detected by the detection unit 154 is displayed, the user can recognize the operation using the indicator.

また、HMD100は、検出部154が受け付けた操作に応じて制御対象を制御する処理制御部156を備える。表示制御部155は、検出部154が検出する予め設定された指示体の動きを示す図形又はアイコンを、制御対象の動作状態に応じて変更する。
従って、使用者に、制御対象の動作状態に対応した指示体の動きを行わせることができ、制御対象を指示体の動きにより動作させることができる。このため、指示体を用いた操作の利便性を高めることができる。
The HMD 100 also includes a process control unit 156 that controls a control target in accordance with an operation received by the detection unit 154. The display control unit 155 changes the graphic or icon indicating the movement of the preset indicator detected by the detection unit 154 according to the operation state of the control target.
Therefore, the user can move the indicator corresponding to the operation state of the controlled object, and the controlled object can be operated by the movement of the indicator. For this reason, the convenience of operation using a pointer can be improved.

また、検出部154は、検出した指示体の動きが、予め設定された指示体の動きに対応するか否を判定する。処理制御部156は、予め設定された指示体の動きに対応した指示体の動きを検出部が検出した場合に、検出部154が検出した指示体の動きに対応付けられた処理を制御対象に実行させる。
この構成によれば、予め設定された指示体の動きを行うことで、この指示体の動きに対応付けられた処理を制御対象に実行させることができる。
In addition, the detection unit 154 determines whether or not the detected movement of the indicator corresponds to a preset movement of the indicator. When the detection unit detects the movement of the indicator corresponding to the preset movement of the indicator, the process control unit 156 sets the process associated with the movement of the indicator detected by the detection unit 154 as a control target. Let it run.
According to this configuration, it is possible to cause the control target to execute processing associated with the movement of the indicator by performing the movement of the indicator set in advance.

上述した実施形態は、本発明の好適な実施の形態である。但し、これに限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形実施が可能である。
例えば、上述した実施形態では、指示体の動きや形状、位置を第1カメラ61の撮像画像データに基づいて検出したが、赤外線センサーや電磁波センサー、光学式センサー、超音波センサー等のセンサー類により指示体の動きや形状、位置を検出してもよい。
The above-described embodiment is a preferred embodiment of the present invention. However, the present invention is not limited to this, and various modifications can be made without departing from the scope of the present invention.
For example, in the above-described embodiment, the movement, shape, and position of the indicator are detected based on the captured image data of the first camera 61, but the sensors such as an infrared sensor, an electromagnetic wave sensor, an optical sensor, and an ultrasonic sensor are used. The movement, shape, and position of the indicator may be detected.

また、表示制御部155は、手領域が検出され、制御部150が操作を受け付け可能な状態にある場合と、手領域が検出されない場合と、手領域が検出されたが操作を受け付け可能な状態にない場合とで第2オブジェクト320の表示態様を変更してもよい。
例えば、表示制御部155は、手領域が検出され、制御部150が操作を受け付け可能な状態にある場合、第2オブジェクト320の透過率が最も低くなるように設定する。また、表示制御部155は、手領域が検出されない場合、第2オブジェクト320の透過率が最も高くなるように設定する。また、表示制御部155は、手領域が検出されたが制御部150が操作を受け付け可能な状態にない場合、第2オブジェクト320の透過率を、操作を受け付け可能な状態にある場合と、手領域が検出さない場合との中間の透過率に設定する。
In addition, the display control unit 155 detects the hand region and the control unit 150 is in a state where the operation can be accepted, the case where the hand region is not detected, and the state where the hand region is detected but the operation can be accepted. The display mode of the second object 320 may be changed depending on whether it is not present.
For example, the display control unit 155 sets the transmittance of the second object 320 to be the lowest when the hand region is detected and the control unit 150 is in a state where the operation can be accepted. Further, the display control unit 155 sets the second object 320 to have the highest transmittance when no hand region is detected. In addition, the display control unit 155 determines the transmittance of the second object 320 when the hand region is detected but the control unit 150 is not ready to accept the operation, The transmittance is set to an intermediate value between the case where the area is not detected.

また、HMD100は、コンテンツの供給元となる種々の外部機器を接続するインターフェイス(図示略)を備えてもよい。例えば、USBインターフェイス、マイクロUSBインターフェイス、メモリーカード用インターフェイス等の有線接続に対応したインターフェイスであってもよく、無線通信インターフェイスで構成してもよい。この場合の外部機器は、HMD100に画像を供給する画像供給装置であり、パーソナルコンピューター(PC)、携帯電話端末、携帯型ゲーム機等が用いられる。この場合、HMD100は、これらの外部機器から入力されるコンテンツデータ163に基づく画像や音声を出力できる。   Further, the HMD 100 may include an interface (not shown) for connecting various external devices that are content supply sources. For example, an interface corresponding to a wired connection such as a USB interface, a micro USB interface, or a memory card interface may be used, or a wireless communication interface may be used. The external device in this case is an image supply device that supplies an image to the HMD 100, and a personal computer (PC), a mobile phone terminal, a portable game machine, or the like is used. In this case, the HMD 100 can output images and sounds based on the content data 163 input from these external devices.

また、上述した実施形態では、制御装置10が画像表示部20と有線接続される構成を例示したが、本発明はこれに限定されず、制御装置10に対して画像表示部20が無線接続される構成であってもよい。この場合の無線通信方式は通信部117が対応する通信方式として例示した方式を採用してもよいし、その他の通信方式であってもよい。   In the above-described embodiment, the configuration in which the control device 10 is connected to the image display unit 20 by wire is illustrated. However, the present invention is not limited to this, and the image display unit 20 is wirelessly connected to the control device 10. It may be a configuration. In this case, the wireless communication method may be the method exemplified as the communication method supported by the communication unit 117, or may be another communication method.

また、制御装置10が備える一部の機能を画像表示部20に設けてもよく、制御装置10を複数の装置により実現してもよい。すなわち、制御装置10は、箱形のケース10Aを備える構成に限定されない。例えば、制御装置10に代えて、使用者の身体、着衣、又は使用者が身につけられるデバイスを用いてもよい。使用者が身につけられるデバイスは、例えば、時計型の装置、指輪型の装置、レーザーポインター、マウス、エアーマウス、ゲームコントローラー、ペン型のデバイス等であってもよい。   In addition, some functions of the control device 10 may be provided in the image display unit 20, and the control device 10 may be realized by a plurality of devices. That is, the control device 10 is not limited to the configuration including the box-shaped case 10A. For example, instead of the control device 10, a user's body, clothes, or a device worn by the user may be used. The device worn by the user may be, for example, a watch-type device, a ring-type device, a laser pointer, a mouse, an air mouse, a game controller, a pen-type device, or the like.

さらに、上記の実施形態では、画像表示部20と制御装置10とが分離され、接続ケーブル40を介して接続された構成を例に挙げて説明した。本発明はこれに限定されず、制御装置10と画像表示部20とが一体に構成され、使用者の頭部に装着される構成とすることも可能である。   Furthermore, in the above embodiment, the configuration in which the image display unit 20 and the control device 10 are separated and connected via the connection cable 40 has been described as an example. The present invention is not limited to this, and the control device 10 and the image display unit 20 may be configured integrally and mounted on the user's head.

また、制御装置10として、ノート型コンピューター、タブレット型コンピューター又はデスクトップ型コンピューターを用いてもよい。また、制御装置10として、ゲーム機や携帯型電話機やスマートフォンや携帯型メディアプレーヤーを含む携帯型電子機器、その他の専用機器等を用いてもよい。   As the control device 10, a notebook computer, a tablet computer, or a desktop computer may be used. The control device 10 may be a game machine, a portable phone, a portable electronic device including a smartphone or a portable media player, other dedicated devices, or the like.

また、例えば、画像表示部20に代えて、例えば帽子のように装着する画像表示部等の他の方式の画像表示部を採用してもよく、使用者の左眼LEに対応して画像を表示する表示部と、使用者の右眼REに対応して画像を表示する表示部とを備えていればよい。また、画像表示部20に代えてヘッドアップディスプレイを用いることで、自動車や飛行機等の車両に搭載することも可能である。例えば、車両にヘッドアップディスプレイを搭載する場合、トラックパッド14の操作面に相当する操作面を車両のハンドル等に設ける。
また、例えば、ヘルメット等の身体防護具に内蔵された頭部装着型表示装置として構成されてもよい。この場合、使用者の身体に対する位置を位置決めする部分、及び当該部分に対し位置決めされる部分を装着部とすることができる。
Further, for example, instead of the image display unit 20, an image display unit of another method such as an image display unit worn like a hat may be adopted, and an image corresponding to the left eye LE of the user is displayed. What is necessary is just to provide the display part which displays, and the display part which displays an image corresponding to a user's right eye RE. In addition, by using a head-up display instead of the image display unit 20, it can be mounted on a vehicle such as an automobile or an airplane. For example, when a head-up display is mounted on a vehicle, an operation surface corresponding to the operation surface of the track pad 14 is provided on the handle of the vehicle.
For example, it may be configured as a head-mounted display device built in a body protective device such as a helmet. In this case, the part for positioning the position with respect to the user's body and the part positioned with respect to the part can be used as the mounting portion.

また、画像光を使用者の眼に導く光学系として、右導光板26及び左導光板28の一部に、ハーフミラー261、281により虚像が形成される構成を例示した。本発明はこれに限定されず、右導光板26及び左導光板28の全面又は大部分を占める面積を有する表示領域に、画像を表示する構成としてもよい。この場合、画像の表示位置を変化させる動作において、画像を縮小する処理を含めてもよい。
さらに、本発明の光学素子は、ハーフミラー261、281を有する右導光板26、左導光板28に限定されず、画像光を使用者の眼に入射させる光学部品であればよく、具体的には、回折格子、プリズム、ホログラフィー表示部を用いてもよい。
In addition, as an optical system that guides image light to the user's eyes, a configuration in which virtual images are formed by half mirrors 261 and 281 on part of the right light guide plate 26 and the left light guide plate 28 is illustrated. The present invention is not limited to this, and an image may be displayed on a display region having an area that occupies the entire or most of the right light guide plate 26 and the left light guide plate 28. In this case, a process of reducing the image may be included in the operation of changing the display position of the image.
Furthermore, the optical element of the present invention is not limited to the right light guide plate 26 and the left light guide plate 28 having the half mirrors 261 and 281, and may be any optical component that allows image light to enter the user's eyes. A diffraction grating, a prism, or a holographic display unit may be used.

また、図4、図5等に示した各機能ブロックのうち少なくとも一部は、ハードウェアで実現してもよいし、ハードウェアとソフトウェアの協働により実現される構成としてもよく、図に示した通りに独立したハードウェア資源を配置する構成に限定されない。また、制御部150が実行するプログラムは、不揮発性記憶部123又は制御装置10内の他の記憶装置(図示略)に記憶されてもよい。また、外部の装置に記憶されたプログラムを通信部117や外部コネクター184を介して取得して実行する構成としてもよい。また、制御装置10に形成された構成のうち、操作部110が使用者インターフェイス(UI)として形成されてもよい。   In addition, at least a part of the functional blocks shown in FIGS. 4 and 5 may be realized by hardware, or may be realized by cooperation of hardware and software. As described above, the present invention is not limited to a configuration in which independent hardware resources are arranged. Further, the program executed by the control unit 150 may be stored in the nonvolatile storage unit 123 or another storage device (not shown) in the control device 10. A program stored in an external device may be acquired and executed via the communication unit 117 or the external connector 184. Moreover, the operation part 110 may be formed as a user interface (UI) among the structures formed in the control apparatus 10.

また、図7及び図12に示すフローチャートの処理単位は、HMD100の制御部150の処理を理解容易にするために、主な処理内容に応じて分割したものであり、処理単位の分割の仕方や名称によって本発明が制限されることはない。また、制御部150の処理は、処理内容に応じて、さらに多くの処理単位に分割することもできるし、1つの処理単位がさらに多くの処理を含むように分割することもできる。また、上記のフローチャートの処理順序も、図示した例に限られるものではない。   7 and 12 are divided according to main processing contents in order to make the processing of the control unit 150 of the HMD 100 easy to understand. The present invention is not limited by the name. Further, the processing of the control unit 150 can be divided into more processing units according to the processing content, or can be divided so that one processing unit includes more processing. Further, the processing order of the above flowchart is not limited to the illustrated example.

本発明の頭部装着型表示装置の制御方法を、コンピューターにより実現する場合、コンピューターが実行するプログラム、プログラムをコンピューターで読み取り可能に記録した記録媒体、又は、プログラムを伝送する伝送媒体の態様で構成することができる。記録媒体には、磁気的、光学的記録媒体又は半導体メモリーデバイスを用いることができる。具体的には、フレキシブルディスク、HDD(Hard Disk Drive)、CD−ROM(Compact Disk Read Only Memory)、DVD(Digital Versatile Disk)、Blu−ray(登録商標) Disc、光磁気ディスク、フラッシュメモリー、カード型記録媒体等の可搬型、或いは固定式の記録媒体が挙げられる。また、記録媒体には、画像表示装置が備える内部記憶装置であるRAM(Random Access Memory)、ROM(Read Only Memory)、HDD等の不揮発性記憶装置であってもよい。   When the method for controlling the head-mounted display device of the present invention is realized by a computer, the program is executed by a computer, a recording medium in which the program is recorded so as to be readable by the computer, or a transmission medium that transmits the program. can do. As the recording medium, a magnetic or optical recording medium or a semiconductor memory device can be used. Specifically, flexible disk, HDD (Hard Disk Drive), CD-ROM (Compact Disk Read Only Memory), DVD (Digital Versatile Disk), Blu-ray (registered trademark) Disc, magneto-optical disk, flash memory, card A portable recording medium such as a mold recording medium or a fixed recording medium can be used. The recording medium may be a non-volatile storage device such as a random access memory (RAM), a read only memory (ROM), or an HDD that is an internal storage device included in the image display device.

10…制御装置、10A…ケース、11…操作ボタン、12、67…LEDインジケーター、13…操作子、14…トラックパッド、15…上下キー、16…切替スイッチ、17…LED表示部、18…電源スイッチ、19…バイブレーター、20…画像表示部、21…右保持部、22…右表示ユニット、23…左保持部、24…左表示ユニット、26…右導光板、27…前部フレーム、28…左導光板、30…ヘッドセット、32…右イヤホン、34…左イヤホン、40…接続ケーブル、46…コネクター、61…第1カメラ、62…第2カメラ、63…マイク、65…照度センサー、100…頭部装着型表示装置、111…6軸センサー、113…磁気センサー、110…操作部、115…GPS受信部、117…通信部、120…コントローラー基板、121…メモリー、123…不揮発性記憶部、127…設定データ、130…電源部、132…バッテリー、134…電源制御回路、140…メインプロセッサー、150…制御部、151…OS、152…画像処理部、153…撮像制御部、154…検出部、155…表示制御部(制御部)、156…処理制御部(制御部)、160…記憶部、161…制御プログラム、162…設定データ、163…コンテンツデータ、164…パターン認識辞書、165…撮像画像データ、180…音声インターフェイス、182…音声コーデック、184…外部コネクター、186…外部メモリーインターフェイス、188…USBコネクター、192…センサーハブ、194…FPGA、196、211、231…インターフェイス、213、233…受信部、215…EEPROM、217…温度センサー、221…OLEDユニット、223…OLEDパネル、225…OLED駆動回路、235…6軸センサー、237…磁気センサー、239…温度センサー、241…OLEDユニット、243…OLEDパネル、245…OLED駆動回路、251…右光学系、252…左光学系、261、281…ハーフミラー、307…アイコン、309…残時間表示、310…第1オブジェクト、311…範囲画像(指示体に重畳する画像)、320…第2オブジェクト、321…アイコン、330…第3オブジェクト、331、333…矢印画像、332、334…文字。   DESCRIPTION OF SYMBOLS 10 ... Control apparatus, 10A ... Case, 11 ... Operation button, 12, 67 ... LED indicator, 13 ... Operator, 14 ... Track pad, 15 ... Up / down key, 16 ... Changeover switch, 17 ... LED display part, 18 ... Power supply Switch, 19 ... Vibrator, 20 ... Image display unit, 21 ... Right holding unit, 22 ... Right display unit, 23 ... Left holding unit, 24 ... Left display unit, 26 ... Right light guide plate, 27 ... Front frame, 28 ... Left light guide plate, 30 ... headset, 32 ... right earphone, 34 ... left earphone, 40 ... connection cable, 46 ... connector, 61 ... first camera, 62 ... second camera, 63 ... microphone, 65 ... illuminance sensor, 100 ... head-mounted display device, 111 ... 6-axis sensor, 113 ... magnetic sensor, 110 ... operation part, 115 ... GPS receiver, 117 ... communication part, 120 ... con Roller board, 121 ... Memory, 123 ... Non-volatile storage unit, 127 ... Setting data, 130 ... Power supply unit, 132 ... Battery, 134 ... Power supply control circuit, 140 ... Main processor, 150 ... Control unit, 151 ... OS, 152 ... Image processing unit 153 ... Imaging control unit, 154 ... detection unit, 155 ... display control unit (control unit), 156 ... processing control unit (control unit), 160 ... storage unit, 161 ... control program, 162 ... setting data, 163 ... Content data, 164 ... Pattern recognition dictionary, 165 ... Captured image data, 180 ... Audio interface, 182 ... Audio codec, 184 ... External connector, 186 ... External memory interface, 188 ... USB connector, 192 ... Sensor hub, 194 ... FPGA, 196, 211, 231 ... Interface 213, 233 ... receiving unit, 215 ... EEPROM, 217 ... temperature sensor, 221 ... OLED unit, 223 ... OLED panel, 225 ... OLED drive circuit, 235 ... 6-axis sensor, 237 ... magnetic sensor, 239 ... temperature sensor, 241 ... OLED unit, 243 ... OLED panel, 245 ... OLED drive circuit, 251 ... right optical system, 252 ... left optical system, 261,281 ... half mirror, 307 ... icon, 309 ... remaining time display, 310 ... first object, 311... Range image (image superimposed on indicator) 320 320 second object 321 icon 3 330 object 331 333 arrow image 332 334 character

Claims (12)

使用者の頭部に装着され、外景を視認可能に画像を表示する表示領域を有する表示部と、
撮像部と、
前記撮像部の撮像画像をもとに指示体の動きを検出し、検出した前記指示体の動きに基づく操作を受け付ける検出部と、
前記検出部が前記指示体の動きに基づく操作を検出可能な状態であるか否かを判定し、判定結果を前記表示領域に表示する表示制御部と、を備える頭部装着型表示装置。
A display unit that is mounted on the user's head and has a display area that displays an image so that the outside scene can be visually recognized;
An imaging unit;
A detection unit that detects a movement of the indicator based on a captured image of the imaging unit and receives an operation based on the detected movement of the indicator;
A head-mounted display device comprising: a display control unit that determines whether or not the detection unit is capable of detecting an operation based on the movement of the indicator and displays the determination result in the display region.
前記表示制御部は、前記判定結果として、前記検出部が前記操作を検出可能な状態であることを示す図形、文字、アイコン、又は前記検出部が検出した前記指示体の範囲を示す範囲画像を前記表示領域に表示する、請求項1記載の頭部装着型表示装置。   The display control unit, as the determination result, a graphic, a character, an icon indicating that the detection unit can detect the operation, or a range image indicating the range of the indicator detected by the detection unit The head-mounted display device according to claim 1, wherein the head-mounted display device displays on the display area. 前記表示制御部は、前記検出部が前記指示体を検出した場合に、前記範囲画像を前記表示領域に表示し、前記検出部が前記操作を検出可能な状態であるか否かによって、前記表示領域に表示させた前記図形、前記文字、又は前記アイコンの表示態様を変更する、請求項2記載の頭部装着型表示装置。   The display control unit displays the range image in the display area when the detection unit detects the indicator, and the display unit displays the display depending on whether the detection unit is in a state where the operation can be detected. The head-mounted display device according to claim 2, wherein a display mode of the graphic, the character, or the icon displayed in the area is changed. 前記表示制御部は、前記検出部が前記操作を検出可能な状態である場合に、前記図形又は前記アイコンとして、前記検出部が検出する前記指示体の動きを示す図形又はアイコンを表示する、請求項2又は3記載の頭部装着型表示装置。   The said display control part displays the figure or icon which shows the motion of the said indicator which the said detection part detects as the said figure or the said icon, when the said detection part is a state which can detect the said operation. Item 4. The head-mounted display device according to Item 2 or 3. 前記検出部が受け付けた前記操作に応じて制御対象を制御する処理制御部を備え、
前記表示制御部は、前記検出部が検出する予め設定された前記指示体の動きを示す前記図形又は前記アイコンを、前記制御対象の動作状態に応じて変更する、請求項4に記載の頭部装着型表示装置。
A processing control unit that controls a control object according to the operation received by the detection unit;
The head according to claim 4, wherein the display control unit changes the figure or the icon indicating the preset movement of the indicator detected by the detection unit according to an operation state of the control target. Wearable display device.
前記検出部は、検出した前記指示体の動きが、予め設定された前記指示体の動きに対応するか否を判定し、
前記処理制御部は、予め設定された前記指示体の動きに対応した前記指示体の動きを前記検出部が検出した場合に、前記検出部が検出した前記指示体の動きに対応付けられた処理を前記制御対象に実行させる、請求項5に記載の頭部装着型表示装置。
The detection unit determines whether or not the detected movement of the indicator corresponds to a preset movement of the indicator,
The processing control unit, when the detection unit detects a movement of the indicator corresponding to a preset movement of the indicator, a process associated with the movement of the indicator detected by the detection unit The head-mounted display device according to claim 5, wherein the control target is executed.
前記表示制御部は、前記検出部により前記指示体が検出された場合に、前記範囲画像を前記指示体に重畳して表示する、請求項2から6のいずれか1項に記載の頭部装着型表示装置。   The head mounted according to any one of claims 2 to 6, wherein the display control unit displays the range image superimposed on the indicator when the indicator is detected by the detection unit. Type display device. 前記表示制御部は、前記表示領域に前記図形、前記文字又は前記アイコンを表示させてから、予め設定された第1設定時間を経過しても、前記検出部が前記操作を受け付けていない場合に、前記指示体による操作をガイドする操作ガイドを前記表示領域に表示する、請求項2から7のいずれか1項に記載の頭部装着型表示装置。   The display control unit displays the graphic, the character, or the icon in the display area, and the detection unit does not accept the operation even after a preset first set time has elapsed. The head-mounted display device according to claim 2, wherein an operation guide that guides an operation by the indicator is displayed in the display area. 前記表示制御部は、前記操作ガイドを前記表示領域に表示するまでの残り時間を前記表示領域に表示する、請求項8に記載の頭部装着型表示装置。   The head-mounted display device according to claim 8, wherein the display control unit displays a remaining time until the operation guide is displayed in the display area in the display area. 前記表示制御部は、前記操作ガイドを前記表示領域に表示してから予め設定された第2設定時間を経過した場合、又は、前記検出部が、前記指示体の動きに基づく操作を検出した場合に、前記操作ガイドの表示を消去する、請求項8又は9に記載の頭部装着型表示装置。   The display control unit, when a preset second set time has elapsed after displaying the operation guide in the display area, or when the detection unit detects an operation based on the movement of the indicator The head-mounted display device according to claim 8 or 9, wherein the display of the operation guide is erased. 前記処理制御部は、前記検出部が受け付けた操作により前記制御対象としてのデバイスを制御する、又は前記制御対象としてのアプリケーションプログラムを実行して前記検出部が受け付けた操作に対応した前記アプリケーションプログラムの機能を実行する、請求項5又は6記載の頭部装着型表示装置。   The processing control unit controls the device as the control target by the operation received by the detection unit, or executes the application program as the control target and executes the application program corresponding to the operation received by the detection unit. The head-mounted display device according to claim 5 or 6, which executes a function. 使用者の頭部に装着され、外景を視認可能に画像を表示領域に表示する頭部装着型表示装置の制御方法であって、
指示体の動きに基づく操作を検出可能な状態であるか否かを判定し、判定結果を前記表示領域に表示するステップと、
撮像部の撮像画像をもとに指示体の動きを検出するステップと、
検出した前記指示体の動きに基づく操作を受け付けるステップと、
を有する、頭部装着型表示装置の制御方法。
A method for controlling a head-mounted display device that is mounted on a user's head and displays an image in a display area so that an outside scene can be visually recognized,
Determining whether the operation based on the movement of the indicator is in a detectable state, and displaying the determination result in the display area;
Detecting the movement of the indicator based on the captured image of the imaging unit;
Receiving an operation based on the detected movement of the indicator;
A method for controlling a head-mounted display device.
JP2018095200A 2017-09-12 2018-05-17 Head mounted display device and control method for head mounted display device Pending JP2019053714A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201811050494.9A CN109491496A (en) 2017-09-12 2018-09-10 The control method of head-mount type display unit and head-mount type display unit
US16/127,534 US10635182B2 (en) 2017-09-12 2018-09-11 Head mounted display device and control method for head mounted display device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017174938 2017-09-12
JP2017174938 2017-09-12

Publications (1)

Publication Number Publication Date
JP2019053714A true JP2019053714A (en) 2019-04-04

Family

ID=66014971

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018095200A Pending JP2019053714A (en) 2017-09-12 2018-05-17 Head mounted display device and control method for head mounted display device

Country Status (1)

Country Link
JP (1) JP2019053714A (en)

Similar Documents

Publication Publication Date Title
US11310483B2 (en) Display apparatus and method for controlling display apparatus
US10635182B2 (en) Head mounted display device and control method for head mounted display device
US10643390B2 (en) Head mounted display, method for controlling head mounted display, and computer program
US10948974B2 (en) Head-mounted display device, program, and method for controlling head-mounted display device
US10976836B2 (en) Head-mounted display apparatus and method of controlling head-mounted display apparatus
US20170289533A1 (en) Head mounted display, control method thereof, and computer program
US10261327B2 (en) Head mounted display and control method for head mounted display
US10782531B2 (en) Head-mounted type display device and method of controlling head-mounted type display device
JP2018124651A (en) Display system
US20180150147A1 (en) Head-mounted display device, computer program, and control method for head-mounted display device
US10296104B2 (en) Display device, method of controlling display device, and program
JP2018084886A (en) Head mounted type display device, head mounted type display device control method, computer program
JP6776578B2 (en) Input device, input method, computer program
JP6740613B2 (en) Display device, display device control method, and program
JP6996115B2 (en) Head-mounted display device, program, and control method of head-mounted display device
JP2019109849A (en) Transmissive head-mounted display device, display control method, and computer program
JP2018206080A (en) Head-mounted display device, program, and control method for head-mounted display device
JP2017120488A (en) Display device, display system, control method of display device, and program
JP2017182413A (en) Head-mounted type display device, control method for the same, and computer program
JP6932917B2 (en) Head-mounted display, program, and head-mounted display control method
JP2019053644A (en) Head mounted display device and control method for head mounted display device
JP2017182460A (en) Head-mounted type display device, method for controlling head-mounted type display device, and computer program
JP6790769B2 (en) Head-mounted display device, program, and control method of head-mounted display device
JP2017134630A (en) Display device, control method of display device, and program
JP2019053714A (en) Head mounted display device and control method for head mounted display device