Nothing Special   »   [go: up one dir, main page]

JP2018146966A - Information input/output device and information input/output method - Google Patents

Information input/output device and information input/output method Download PDF

Info

Publication number
JP2018146966A
JP2018146966A JP2018073433A JP2018073433A JP2018146966A JP 2018146966 A JP2018146966 A JP 2018146966A JP 2018073433 A JP2018073433 A JP 2018073433A JP 2018073433 A JP2018073433 A JP 2018073433A JP 2018146966 A JP2018146966 A JP 2018146966A
Authority
JP
Japan
Prior art keywords
user
image
unit
display
eye
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018073433A
Other languages
Japanese (ja)
Other versions
JP2018146966A5 (en
Inventor
江島 聡
Satoshi Ejima
聡 江島
加藤 茂
Shigeru Kato
茂 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2018073433A priority Critical patent/JP2018146966A/en
Publication of JP2018146966A publication Critical patent/JP2018146966A/en
Publication of JP2018146966A5 publication Critical patent/JP2018146966A5/en
Pending legal-status Critical Current

Links

Landscapes

  • Navigation (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an information input/output device and an information input/output method capable of encouraging a user to confirm information displayed on a display unit.SOLUTION: An information input/output device includes: a display unit that displays information; an observation propriety determination unit that determines whether or not the display unit can be observed by a user; a notification unit that notifies by sound; and a control unit that controls, when the display unit is determined to be incapable of being observed by the user on the basis of result determined by the observation propriety determination unit, the notification unit to notify the user of the effect.SELECTED DRAWING: Figure 2

Description

本発明は、情報入出力装置、及び情報入出力方法に関する。   The present invention relates to an information input / output device and an information input / output method.

経路案内を行うナビゲーション装置の表示部には、ユーザーが移動している付近の地図、現在位置、目的地への進行方向等の情報が表示される。このようなナビゲーション装置が車に搭載されている場合、ユーザーは表示部に表示されるこれらの情報を見ながら、車の運転を行う。例えば、ランドマークの多い都心において、ユーザーが、表示部に表示されている地図から駐車場等を探す場合、画面に表示されている情報から必要な情報をさがすために時間がかかる。このように、必要な情報を探すためにユーザーが表示部を長時間見続けると、運転に対する集中力の低下や注意力の低下が起こることがある。
このため、例えば特許文献1の技術では、ユーザーが表示部を長時間見続けた場合、表示部を見ないように促す報知を行う。さらに、特許文献1の技術では、報知してもユーザーが表示部を見続けている場合、表示部の表示をオフ状態にする。
The display unit of the navigation device that performs route guidance displays information such as a map of the vicinity where the user is moving, the current position, and the direction of travel to the destination. When such a navigation device is mounted on a vehicle, the user drives the vehicle while viewing the information displayed on the display unit. For example, in a city center with many landmarks, when a user searches for a parking lot or the like from a map displayed on the display unit, it takes time to search for necessary information from information displayed on the screen. As described above, when the user keeps looking at the display unit for a long time in order to search for necessary information, the concentration of driving and the attention may be reduced.
For this reason, for example, in the technique of Patent Document 1, when the user keeps looking at the display unit for a long time, a notification is made to prompt the user not to look at the display unit. Furthermore, in the technique of Patent Document 1, if the user continues to look at the display unit even after notification, the display on the display unit is turned off.

特開2001−307298号公報JP 2001-307298 A

しかしながら、特許文献1の技術では、ユーザーが表示部を長時間見続けた場合、表示部を見ないように促す報知を行うか表示をオフ状態にするだけであり、ユーザーにとって重要な情報が、表示部に表示されても、ユーザーに注意を向けるように促していなかった。ユーザーにとって重要な情報とは、例えば、事故情報、速度制限の情報などである。このため、ユーザーが表示部に表示された情報を見落とす場合があった。   However, in the technique of Patent Document 1, when the user keeps looking at the display unit for a long time, it only gives notification to urge the user not to look at the display unit or turns off the display. When displayed on the display, it did not prompt the user to pay attention. Information important to the user is, for example, accident information, speed limit information, and the like. For this reason, the user may miss information displayed on the display unit.

本発明は、上記の事情に鑑み成されたものであって、ユーザーに表示部に表示されている情報を確認するように促すことができる情報入出力装置、及び情報入出力方法を提供することを目的としている。   The present invention has been made in view of the above circumstances, and provides an information input / output device and an information input / output method capable of prompting a user to check information displayed on a display unit. It is an object.

上記目的を達成するため、本発明の一態様に係る情報入出力装置は、情報を表示する表示部と、前記表示部がユーザーにより観察可能な状況であるか否かを判定する観察可否判定部と、音により報知を行う報知部と、前記観察可否判定部が判定した結果に基づいて、前記表示部が前記ユーザーにより観察可能ではない状況であると判定された場合、前記報知部から報知するように制御する制御部と、を備えることを特徴としている。   In order to achieve the above object, an information input / output device according to an aspect of the present invention includes a display unit that displays information, and an observability determination unit that determines whether the display unit is observable by a user. And when the display unit is determined to be in a state that is not observable by the user, based on the determination result by the notification unit that performs notification by sound and the observation availability determination unit, the notification unit notifies the user. And a control unit for controlling as described above.

上記目的を達成するため、本発明の一態様に係る情報入出力方法は、情報入出力装置における情報入出力方法であって、観察可否判定部が、情報を表示する表示部がユーザーにより観察可能な状況であるか否かを判定する観察可否判定手順と、制御部が、前記観察可否判定手順で判定された結果に基づいて、前記表示部が前記ユーザーにより観察可能ではない状況であると判定された場合、報知部から音により報知を行うように制御する手順と、を含むことを特徴としている。
としている。
In order to achieve the above object, an information input / output method according to an aspect of the present invention is an information input / output method in an information input / output device, in which an observation availability determination unit can observe a display unit that displays information by a user Based on the result of determination in the observation propriety determination procedure, the control unit determines that the display unit is not observable by the user based on the result of the determination in the observation propriety determination procedure. In this case, the control unit includes a procedure for controlling so as to perform notification by sound from the notification unit.
It is said.

本発明によれば、ユーザーに表示部に表示されている情報を確認するように促すことができる。   According to the present invention, the user can be prompted to confirm the information displayed on the display unit.

第1実施形態のヘッドマウントディスプレイの斜視図である。It is a perspective view of the head mounted display of a 1st embodiment. 第1実施形態に係るディスプレイ本体とヘッドバンドを取り外した状態でのヘッドマウントディスプレイを背面側から見た斜視図である。It is the perspective view which looked at the head mounted display in the state where the display main part and headband concerning a 1st embodiment were removed from the back side. 第1実施形態に係るディスプレイ本体の水平断面図である。It is a horizontal sectional view of the display main part concerning a 1st embodiment. 第1実施形態に係るヘッドバンドの動作説明図である。It is operation | movement explanatory drawing of the headband which concerns on 1st Embodiment. 第1実施形態に係るヘッドマウントディスプレイの装着形態(第1表示モード)を示す図である。It is a figure which shows the mounting | wearing form (1st display mode) of the head mounted display which concerns on 1st Embodiment. 第1実施形態に係るヘッドマウントディスプレイに付属のステレオイヤホンを示す斜視図である。It is a perspective view which shows the stereo earphone attached to the head mounted display which concerns on 1st Embodiment. 第1実施形態に係る眼球照明ライトの点灯と消灯を説明する図である。It is a figure explaining lighting and extinction of the eyeball illumination light concerning a 1st embodiment. 第1実施形態に係る表示部の構成及び光学系を説明するための表示部の断面図である。It is sectional drawing of the display part for demonstrating the structure and optical system of a display part which concern on 1st Embodiment. 第1〜第3観察状態のそれぞれにおける表示領域の違いを説明する図である。It is a figure explaining the difference of the display area in each of the 1st-3rd observation state. 第1観察状態における観察範囲と撮像範囲を説明する図である。It is a figure explaining the observation range and imaging range in a 1st observation state. 第1観察状態における撮像画像の一例を説明する図である。It is a figure explaining an example of the captured image in the 1st observation state. 第2観察状態における撮像画像の一例を説明する図である。It is a figure explaining an example of the captured image in the 2nd observation state. 第2観察状態における観察範囲と撮像範囲を説明する図である。It is a figure explaining the observation range and imaging range in a 2nd observation state. 第3観察状態における撮像画像の一例を説明する図である。It is a figure explaining an example of the captured image in the 3rd observation state. 第3観察状態における観察範囲と撮像範囲を説明する図である。It is a figure explaining the observation range and imaging range in a 3rd observation state. 眼の正面に表示部を配置して眼を含む周辺の画像を撮像する例を説明する図である。It is a figure explaining the example which arrange | positions a display part in front of eyes and images the surrounding image containing eyes. 第1実施形態に係る眼の下側に表示部を配置して眼を下から撮像する例を説明する図である。It is a figure explaining the example which arrange | positions a display part to the lower side of the eye which concerns on 1st Embodiment, and images an eye from the bottom. 第1実施形態に係る撮像素子の画角と選択範囲を説明する図である。It is a figure explaining the angle of view and selection range of the image sensor concerning a 1st embodiment. 第1実施形態に係る撮像領域と選択領域を説明する図である。It is a figure explaining the imaging area and selection area concerning a 1st embodiment. 第1実施形態に係る選択範囲の選択を機械的に行う機構を説明する図である。It is a figure explaining the mechanism which performs selection of the selection range concerning a 1st embodiment mechanically. 第1実施形態に係るヘッドマウントディスプレイの機能ブロック図である。It is a functional block diagram of the head mounted display concerning a 1st embodiment. 第1実施形態に係る処理部の機能ブロック図である。It is a functional block diagram of the process part which concerns on 1st Embodiment. 第1実施形態に係るHMDを含む通信システムのシステム構成図である。1 is a system configuration diagram of a communication system including an HMD according to a first embodiment. 第1実施形態に係るHMDの電源オン状態後に行う動作のフローチャートである。It is a flowchart of the operation | movement performed after the power supply state of HMD which concerns on 1st Embodiment. 第1実施形態に係る左右の眼の検出処理手順のフローチャートである。It is a flowchart of the detection process procedure of the right and left eyes which concerns on 1st Embodiment. 右眼観察形態の場合の撮像範囲Sの撮像画像の一例を説明する図である。It is a figure explaining an example of the picked-up image of the imaging range S in the case of a right eye observation form. 左眼観察形態の場合の撮像範囲Sの撮像画像の一例を説明する図である。It is a figure explaining an example of the captured image of the imaging range S in the case of a left eye observation form. 左眼観察形態における撮像画像の一例を説明する図である。It is a figure explaining an example of the captured image in a left-eye observation form. 第1実施形態に係るHMDの装着ガイドの処理手順のフローチャートである。It is a flowchart of the process sequence of the mounting guide of HMD which concerns on 1st Embodiment. 第1実施形態に係るHMDの眼球照明ライトの選択処理手順のフローチャートである。It is a flowchart of the selection processing procedure of the HMD eyeball illumination light according to the first embodiment. 第1実施形態に係る注視点検出のためのキャリブレーションの手順のフローチャートである。It is a flowchart of the procedure of the calibration for the gaze point detection which concerns on 1st Embodiment. 第1実施形態に係る注視点検出のためのキャリブレーションの手順のフローチャートである。It is a flowchart of the procedure of the calibration for the gaze point detection which concerns on 1st Embodiment. 第1実施形態に係る右眼観察形態における眼球照明ライトの点灯、消灯を説明する図である。It is a figure explaining lighting and extinguishing of the eyeball illumination light in the right eye observation mode according to the first embodiment. 第1実施形態に係る表示部の位置と眼球照明ライトの関係を説明する図であり、ユーザーの顔を水平正面から見た図である。It is a figure explaining the relationship between the position of the display part which concerns on 1st Embodiment, and an eyeball illumination light, and is the figure which looked at the user's face from the horizontal front. 第1実施形態に係るパスワード入力画面の一例である。It is an example of the password input screen which concerns on 1st Embodiment. 第1実施形態に係るメニュー画面の一例を示す図である。It is a figure which shows an example of the menu screen which concerns on 1st Embodiment. 第1実施形態に係るユーザーに入力を促す画面の一例である。It is an example of the screen which prompts the user who concerns on 1st Embodiment. 第1実施形態に係る視線入力のアプリケーションの画面の説明を行う図である。It is a figure explaining the screen of the application of the eyes | visual_axis input which concerns on 1st Embodiment. 第1実施形態に係るHMDを用いた業務ロギングの手順のフローチャートである。It is a flowchart of the procedure of the business logging using HMD which concerns on 1st Embodiment. 第1実施形態に係る記憶部に記憶されている移動ログの一例を示す図である。It is a figure which shows an example of the movement log memorize | stored in the memory | storage part which concerns on 1st Embodiment. 第1実施形態に係る検査対象装置に添付されるバーコードの一例を示す図である。It is a figure which shows an example of the barcode attached to the test object apparatus which concerns on 1st Embodiment. 第1実施形態に係る表示パネルに表示される情報の一例を説明する図である。It is a figure explaining an example of the information displayed on the display panel which concerns on 1st Embodiment. 第2実施形態に係るヘッドマウントディスプレイの装着形態(第2表示モード、待避モード)を示す図である。It is a figure which shows the mounting form (2nd display mode, retreat mode) of the head mounted display which concerns on 2nd Embodiment. 第2実施形態に係る表示部の位置と眼球照明ライトの関係を説明する図であり、ユーザーの顔を水平正面から見た図である。It is a figure explaining the relationship between the position of the display part which concerns on 2nd Embodiment, and an eyeball illumination light, and is the figure which looked at the user's face from the horizontal front. 第2実施形態に係るHMDの眼球照明ライトの選択処理手順のフローチャートである。It is a flowchart of the selection processing procedure of the eyeball illumination light of HMD which concerns on 2nd Embodiment. 第3実施形態に係る光学系を説明するための表示部の断面図である。It is sectional drawing of the display part for demonstrating the optical system which concerns on 3rd Embodiment. 第3実施形態に係る観察範囲と撮像範囲を説明する図である。It is a figure explaining the observation range and imaging range which concern on 3rd Embodiment.

本実施形態に係るヘッドマウントディスプレイ(情報入出力装置)は、表示部がユーザーにより観察可能であるか否かを観察可否判定部により判定し、表示部がユーザーにより観察可能ではないと判定された場合、制御部が報知部から報知するように制御する。これにより、ユーザーは、表示部が観察可能な状況でなくても、報知により表示部を観察することに気づく。従って、ユーザーは、表示部に表示される情報を見逃さずに確認することができる。
以下、情報入出力装置をヘッドマウントディスプレイに適用した例について説明するが、本発明はこれに限られない。
In the head mounted display (information input / output device) according to the present embodiment, it is determined by the observation availability determination unit whether the display unit is observable by the user, and it is determined that the display unit is not observable by the user. In this case, control is performed so that the control unit notifies from the notification unit. Accordingly, the user notices that the display unit is observed by the notification even when the display unit is not in an observable state. Therefore, the user can confirm without missing the information displayed on the display unit.
Hereinafter, an example in which the information input / output device is applied to a head mounted display will be described, but the present invention is not limited to this.

以下、本発明の実施形態について図面を参照しながら説明する。
以下の説明においては、必要に応じてXYZ直交座標系を設定し、このXYZ直交座標系を参照しつつ、ヘッドマウントディスプレイの各部の位置関係について説明する。水平面内の所定方向をX軸方向、水平面内においてX軸方向と直交する方向をY軸方向、X軸方向及びY軸方向のそれぞれと直交する方向(すなわち鉛直方向)をZ軸方向とする。また、X軸、Y軸、及びZ軸まわりの回転(傾斜)方向をそれぞれ、θX、θY、及びθZ方向とする。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
In the following description, an XYZ rectangular coordinate system is set as necessary, and the positional relationship of each part of the head mounted display will be described with reference to the XYZ rectangular coordinate system. A predetermined direction in the horizontal plane is defined as an X-axis direction, a direction orthogonal to the X-axis direction in the horizontal plane is defined as a Y-axis direction, and a direction orthogonal to each of the X-axis direction and the Y-axis direction (that is, a vertical direction) is defined as a Z-axis direction. Further, the rotation (inclination) directions around the X axis, Y axis, and Z axis are the θX, θY, and θZ directions, respectively.

[第1実施形態]
図1は、本実施形態に係るヘッドマウントディスプレイ(頭部装着装置、以下、HMDともいう)1の斜視図である。図2は、本実施形態に係るディスプレイ本体とヘッドバンドを取り外した状態でのヘッドマウントディスプレイ1を背面側から見た斜視図である。
図3は、本実施形態に係るディスプレイ本体20の水平断面図である。図4は、本実施形態に係るヘッドバンドの動作説明図である。図5は、本実施形態に係るヘッドマウントディスプレイの装着形態(第1表示モード)を示す図である。
[First Embodiment]
FIG. 1 is a perspective view of a head mounted display (head mounted device, hereinafter also referred to as HMD) 1 according to the present embodiment. FIG. 2 is a perspective view of the head mounted display 1 as viewed from the back side in a state where the display main body and the headband according to the present embodiment are removed.
FIG. 3 is a horizontal sectional view of the display main body 20 according to the present embodiment. FIG. 4 is an explanatory diagram of the operation of the headband according to the present embodiment. FIG. 5 is a diagram illustrating a mounting mode (first display mode) of the head mounted display according to the present embodiment.

HMD1は、ディスプレイ本体20と、ユーザーの頭部に装着されディスプレイ本体20を支持するヘッドバンド40と、を備えた単眼式のヘッドマウントディスプレイである。本実施形態のHMD1は、図5に示すように、両眼どちらでも使用可能である。図5(A)には、ユーザーが右眼(右目)で表示部60を見ている状態、図5(B)には左眼(左目)で見ている状態が示されている。
また、図2に示すように、ディスプレイ本体20とヘッドバンド40とは、連結ピン41を介して着脱可能に構成されている。なお、図1及び図2では、ディスプレイ本体20の長手方向をY軸方向、ヘッドバンド40がユーザーの頭部を挟持する方向をX軸方向としている。
The HMD 1 is a monocular head mounted display that includes a display main body 20 and a headband 40 that is attached to the user's head and supports the display main body 20. The HMD 1 of the present embodiment can be used with either eye as shown in FIG. FIG. 5A shows a state where the user is viewing the display unit 60 with the right eye (right eye), and FIG. 5B shows a state where the user is viewing with the left eye (left eye).
As shown in FIG. 2, the display main body 20 and the headband 40 are configured to be detachable via a connecting pin 41. 1 and 2, the longitudinal direction of the display main body 20 is defined as the Y-axis direction, and the direction in which the headband 40 sandwiches the user's head is defined as the X-axis direction.

以下、HMD1の各部の構成について詳細に説明する。
ディスプレイ本体20は、主要回路を内蔵するとともに操作部や各種インタフェースを備えた装置本体部21と、装置本体部21の先端に連結された表示部60とを有する。
Hereinafter, the configuration of each part of the HMD 1 will be described in detail.
The display main body 20 includes a device main body 21 that includes a main circuit and includes an operation unit and various interfaces, and a display unit 60 that is connected to the tip of the device main body 21.

装置本体部21は、概略板状の筐体21A(図3参照)を有する。本実施形態では、装置本体部21においてヘッドバンド40との接続部が設けられている側の端部(+Y側の端部)を基端部とし、この基端部と反対側の端部(−Y側の端部)を先端部とする。また、装置本体部21をヘッドバンド40に装着した状態で、装置本体部21のヘッドバンド40側(+X側)を内側、ヘッドバンド40と反対側(−X側)を外側とする。   The apparatus main body 21 has a substantially plate-shaped casing 21A (see FIG. 3). In the present embodiment, an end portion (+ Y side end portion) on the side where the connection portion with the headband 40 is provided in the apparatus main body portion 21 is a base end portion, and an end portion on the opposite side of the base end portion ( The end on the -Y side) is the tip. Further, in a state where the apparatus main body 21 is attached to the headband 40, the headband 40 side (+ X side) of the apparatus main body 21 is the inside, and the opposite side (−X side) from the headband 40 is the outside.

装置本体部21の外面には、図1に示すように、メインスイッチ28と、タッチスイッチ34と、集音マイク(音響取得部)24とが、筐体21Aの長手方向に沿って配置されている。
メインスイッチ28はディスプレイ本体20の電源のオンオフ操作を行うスイッチである。タッチスイッチ34は、表面に手指等で触れることによりHMD1の各種操作を行うことができるタッチパネルである。集音マイク24は、環境音を収集する外部マイクである。
As shown in FIG. 1, a main switch 28, a touch switch 34, and a sound collecting microphone (sound acquisition unit) 24 are arranged on the outer surface of the apparatus main body 21 along the longitudinal direction of the housing 21A. Yes.
The main switch 28 is a switch for turning on / off the power of the display body 20. The touch switch 34 is a touch panel that can perform various operations of the HMD 1 by touching the surface with a finger or the like. The sound collection microphone 24 is an external microphone that collects environmental sounds.

装置本体部21内面の基端部側に、図2に示すように、耳元スピーカー23と、オーディオコネクター26と、連結孔31を有するヘッドバンドヒンジ32とが設けられている。装置本体部21内面の中央部に心拍数センサー137が設けられている。装置本体部21の内側面の先端部には通話マイク37が設けられている。   As shown in FIG. 2, an ear speaker 23, an audio connector 26, and a headband hinge 32 having a connection hole 31 are provided on the base end side of the inner surface of the apparatus main body 21. A heart rate sensor 137 is provided at the center of the inner surface of the apparatus main body 21. A call microphone 37 is provided at the tip of the inner side surface of the apparatus main body 21.

耳元スピーカー23は、ユーザーの耳の近傍に配置される。耳元スピーカー23からユーザーに音声情報が伝えられる。オーディオコネクター26は、例えば、図6に示すイヤホンが接続される音声入出力端子である。ヘッドバンドヒンジ32はヘッドバンド40とのジョイント部である。通話マイク37にはユーザーの音声が入力される。   The ear speaker 23 is disposed in the vicinity of the user's ear. Audio information is transmitted from the ear speaker 23 to the user. The audio connector 26 is, for example, an audio input / output terminal to which the earphone shown in FIG. 6 is connected. The headband hinge 32 is a joint part with the headband 40. The voice of the user is input to the call microphone 37.

心拍数センサー137は、ユーザーの顔の表面に接触させることでユーザーの心拍数を測定するセンサーである。心拍数センサー137は、発光ダイオード等を備えた発光部と、ユーザーの皮膚内部で反射した光を検知する受光部とを有する。心拍数センサー137は、血流の変化による反射光量の変化を検出することで心拍数をカウントする。心拍数センサー137はユーザーの眼の近くに配置されるが、発光部から赤外域の光を射出させる構成とすればユーザーにまぶしさを感じさせることはない。   The heart rate sensor 137 is a sensor that measures a user's heart rate by contacting the surface of the user's face. The heart rate sensor 137 includes a light emitting unit including a light emitting diode and the like, and a light receiving unit that detects light reflected inside the user's skin. The heart rate sensor 137 counts the heart rate by detecting a change in the amount of reflected light due to a change in blood flow. The heart rate sensor 137 is disposed near the user's eyes, but if the infrared light is emitted from the light emitting unit, the user will not feel glare.

装置本体部21の基端部側の側端面には、USBコネクター25と、操作スイッチ30と、ビデオコネクター27とが設けられている。
USBコネクター25はUSB(Universal Serial Bus)デバイスの接続端子である。本実施形態では、例えば不図示のリモコン(リモートコントローラー)が接続される。
操作スイッチ30は、例えばトラックボールやスティックなどのポインティングデバイスである。操作スイッチ30は表示部60に表示される画面に正対するように設けられている。これにより、操作スイッチ30における操作の左右方向と、上記画面の左右方向とが一致するので、ユーザーは画面を見ながら直感的に操作スイッチ30を操作することが可能である。
ビデオコネクター27は映像入出力端子である。
A USB connector 25, an operation switch 30, and a video connector 27 are provided on the side end surface of the apparatus main body 21 on the base end side.
The USB connector 25 is a connection terminal of a USB (Universal Serial Bus) device. In this embodiment, for example, a remote controller (not shown) is connected.
The operation switch 30 is a pointing device such as a trackball or a stick. The operation switch 30 is provided so as to face the screen displayed on the display unit 60. As a result, the left-right direction of the operation on the operation switch 30 matches the left-right direction of the screen, so that the user can intuitively operate the operation switch 30 while looking at the screen.
The video connector 27 is a video input / output terminal.

図3に示すように、装置本体部21には、筐体21Aの長手方向に沿って延びる板状の回路基板29と、バッテリー33とが内蔵されている。回路基板29には、図示略の制御回路、電源回路等が実装されており、図示略の配線を介してディスプレイ本体20の各部と電気的に接続されている。   As shown in FIG. 3, the apparatus main body 21 incorporates a plate-like circuit board 29 extending along the longitudinal direction of the housing 21 </ b> A and a battery 33. A control circuit, a power supply circuit, and the like (not shown) are mounted on the circuit board 29, and are electrically connected to each part of the display body 20 via wiring (not shown).

装置本体部21の外面に露出するタッチスイッチ34の内側には、液晶パネルからなる表示パネル36と、バックライト35とが配置されている。本実施形態では、表示パネル36の表示画像がタッチスイッチ34を透過して表示される。表示パネル36及びバックライト35を、有機ELパネルや電気泳動パネルとしてもよい。   A display panel 36 made of a liquid crystal panel and a backlight 35 are arranged inside the touch switch 34 exposed on the outer surface of the apparatus main body 21. In the present embodiment, the display image on the display panel 36 is displayed through the touch switch 34. The display panel 36 and the backlight 35 may be an organic EL panel or an electrophoresis panel.

ヘッドバンドヒンジ32は、筐体21Aに設けられた凹曲面状の収容部32aと、収容部32aに嵌合された球状部32bとからなるボールジョイントである。球状部32bは、球面状の側面部と、この側面部を挟むように互いに平行に形成された2つの平面部を有する。2つの平面部を垂直に貫くように連結孔31が形成されている。連結孔31は軸方向視で六角形状に形成されている。連結孔31にヘッドバンド40の連結ピン41が挿入されることによりディスプレイ本体20とヘッドバンド40とが連結される。   The headband hinge 32 is a ball joint composed of a concavely curved housing portion 32a provided in the housing 21A and a spherical portion 32b fitted to the housing portion 32a. The spherical portion 32b has a spherical side surface portion and two plane portions formed in parallel to each other so as to sandwich the side surface portion. A connecting hole 31 is formed so as to penetrate the two flat portions vertically. The connection hole 31 is formed in a hexagonal shape when viewed in the axial direction. The display main body 20 and the headband 40 are connected by inserting the connection pin 41 of the headband 40 into the connection hole 31.

ヘッドバンドヒンジ32を備えていることで、ディスプレイ本体20は、図1に示したA方向(ヘッドバンドヒンジ32を中心とするX軸回り)に回動させることができる。本実施形態において、ディスプレイ本体20の回転可能範囲は270°程度とされる。このX軸回りの回転動作により、図5(A)に示す右眼で画像を観察する形態と、図5(B)に示す左眼で画像を観察する形態との切替機能が実現される。   By providing the headband hinge 32, the display main body 20 can be rotated in the A direction (around the X axis centering on the headband hinge 32) shown in FIG. In the present embodiment, the rotatable range of the display body 20 is about 270 °. By the rotation operation around the X axis, a switching function between a form in which an image is observed with the right eye shown in FIG. 5A and a form in which an image is observed with the left eye shown in FIG. 5B is realized.

またヘッドバンドヒンジ32はボールジョイントであるため、ディスプレイ本体20は図1に示すB方向(ヘッドバンドヒンジ32を中心とするZ軸回り)に揺動させることもできる。この揺動操作により、ディスプレイ本体20のユーザーの眼や耳に対する位置を調整することができる。   Further, since the headband hinge 32 is a ball joint, the display main body 20 can also be swung in the B direction (around the Z axis centering on the headband hinge 32) shown in FIG. By this swinging operation, the position of the display main body 20 relative to the user's eyes and ears can be adjusted.

ヘッドバンドヒンジ32近傍の心拍数センサー137は、装置本体部21の内面から突出するように設けられ、HMD1の装着時にユーザーの顔の表面に当接可能とされている。バッテリー33は一次電池、二次電池のいずれであってもよい。   The heart rate sensor 137 in the vicinity of the headband hinge 32 is provided so as to protrude from the inner surface of the apparatus main body 21, and can be brought into contact with the surface of the user's face when the HMD 1 is worn. The battery 33 may be either a primary battery or a secondary battery.

表示部60は、図1及び図2に示すように、装置本体部21の先端部に連結されている。本実施形態において、表示部60のヘッドバンド40側を内側、ヘッドバンド40と反対側を外側とする。表示部60は、上面視(Z軸視)において湾曲した形状を有するアーム部材であり、装置本体部21との連結部から先端側へ向かうに従って内側へ湾曲する形状を有する。表示部60の内面に、ファインダー開口部67が設けられている。表示部60の外面には、カメラ64が設けられている。また、図2に示すように、ファインダー開口部67の形状は、長方形である。
表示部60の筐体面には、眼球照明ライト166a〜166dが、ファインダー開口部67の近傍に備えられている。図2では、眼球照明ライト166a及び166bは、ファインダー開口部67の長辺の一方に沿った位置であって、ファインダー開口部67の隅の近傍に備えられている。また、眼球照明ライト166c及び166dは、ファインダー開口部67の長辺の他方に沿った位置であって、ファインダー開口部67の隅の近傍に備えられている。
As shown in FIGS. 1 and 2, the display unit 60 is connected to the distal end portion of the apparatus main body unit 21. In the present embodiment, the headband 40 side of the display unit 60 is the inside, and the side opposite to the headband 40 is the outside. The display unit 60 is an arm member that has a curved shape in a top view (Z-axis view), and has a shape that curves inward from the connecting portion with the apparatus main body 21 toward the distal end side. A finder opening 67 is provided on the inner surface of the display unit 60. A camera 64 is provided on the outer surface of the display unit 60. Moreover, as shown in FIG. 2, the shape of the finder opening 67 is a rectangle.
On the housing surface of the display unit 60, eyeball illumination lights 166 a to 166 d are provided in the vicinity of the finder opening 67. In FIG. 2, the eyeball illumination lights 166 a and 166 b are provided at positions along one of the long sides of the finder opening 67 and in the vicinity of the corner of the finder opening 67. The eyeball illumination lights 166 c and 166 d are provided along the other of the long sides of the finder opening 67 and near the corner of the finder opening 67.

眼球照明ライト166a〜166dは、例えば赤外線の波長領域の光を放射するLED(発光ダイオード)である。眼球照明ライト166a〜166dは、ユーザーと表示部60との位置関係に応じて、点灯または消灯される。以下では、眼球照明ライト166a〜166dを、眼球照明ライト166と総称する。   The eyeball illumination lights 166a to 166d are, for example, LEDs (light emitting diodes) that emit light in the infrared wavelength region. The eyeball illumination lights 166a to 166d are turned on or off according to the positional relationship between the user and the display unit 60. Hereinafter, the eyeball illumination lights 166a to 166d are collectively referred to as an eyeball illumination light 166.

図3に示すように、表示部60は、ディスプレイヒンジ61を介して装置本体部21と連結されている。ディスプレイヒンジ61は、表示部60の筐体60Aに形成された凹曲面状の収容部61aと、装置本体部21に形成され収容部61aに嵌合された球状部61bとからなるボールジョイントである。   As shown in FIG. 3, the display unit 60 is connected to the apparatus main body unit 21 via a display hinge 61. The display hinge 61 is a ball joint composed of a concave curved housing 61a formed in the housing 60A of the display 60 and a spherical portion 61b formed in the apparatus main body 21 and fitted in the housing 61a. .

装置本体部21の球状部61bは、装置本体部21の外面先端部に形成された筐体21Aの長手方向に対して斜めに延びる傾斜面21aに、傾斜面21aの法線方向(図3のY’軸方向)に突出するようにして設けられている。   The spherical portion 61b of the apparatus main body 21 has a normal direction of the inclined surface 21a (in FIG. 3) to an inclined surface 21a extending obliquely with respect to the longitudinal direction of the casing 21A formed at the outer surface tip of the apparatus main body 21. It is provided so as to protrude in the Y′-axis direction).

表示部60は、ディスプレイヒンジ61の球状部61bに対してY’軸回りに自由に回転させることができる。これにより、図3(A)に示す視聴可能状態から表示部60を回転させることで、図3(B)に示す収容状態に移行することができる。本実施形態では、ディスプレイヒンジ61が装置本体部21の上記傾斜面に設けられており、表示部60が内側に湾曲した形状を有している。これにより、図3(B)に示す収容状態において、表示部60は装置本体部21の外面に沿うように配置される。   The display unit 60 can be freely rotated around the Y ′ axis with respect to the spherical portion 61 b of the display hinge 61. Accordingly, the display unit 60 can be rotated from the viewable state illustrated in FIG. 3A to shift to the accommodation state illustrated in FIG. In the present embodiment, the display hinge 61 is provided on the inclined surface of the apparatus main body 21, and the display unit 60 has a shape curved inward. Thereby, the display part 60 is arrange | positioned so that the outer surface of the apparatus main body part 21 may be followed in the accommodation state shown to FIG. 3 (B).

また、ディスプレイヒンジ61がボールジョイントであることから、表示部60は、Y’軸回りの回転面に対して直交する方向の揺動も可能である。この揺動動作により、ユーザーによるファインダー開口部67の位置調整が容易になる。表示部60と装置本体部21との間隔を大きくすれば、表示部60の揺動幅を大きくすることができる。   Further, since the display hinge 61 is a ball joint, the display unit 60 can swing in a direction orthogonal to the rotation plane around the Y ′ axis. This swinging operation facilitates position adjustment of the finder opening 67 by the user. If the interval between the display unit 60 and the apparatus main body unit 21 is increased, the swinging width of the display unit 60 can be increased.

ディスプレイヒンジ61の球状部61bには、球状部61bを高さ方向(Y’軸方向)に貫通する貫通孔61cが形成されている。貫通孔61cを介して、表示部60の内部と装置本体部21の内部とが連通されている。貫通孔61cには不図示のケーブルが挿通される。挿通されたケーブルを介して回路基板29と表示部60の各部とが電気的に接続される。   The spherical portion 61b of the display hinge 61 is formed with a through hole 61c that penetrates the spherical portion 61b in the height direction (Y′-axis direction). The inside of the display unit 60 and the inside of the apparatus main body unit 21 are communicated with each other through the through hole 61c. A cable (not shown) is inserted through the through hole 61c. The circuit board 29 and each part of the display unit 60 are electrically connected via the inserted cable.

表示部60の内部には、バックライト62と、表示パネル63と、カメラ(第2撮像部)64と、プリズム65と、反射ミラー66と、前方ライト68と、前方スピーカー70と、結像レンズ71と、撮像素子(第1撮像部)72とが設けられている。なお、表示部60の光学系の構成については、後述する。   Inside the display unit 60, there are a backlight 62, a display panel 63, a camera (second imaging unit) 64, a prism 65, a reflection mirror 66, a front light 68, a front speaker 70, and an imaging lens. 71 and an imaging element (first imaging unit) 72 are provided. The configuration of the optical system of the display unit 60 will be described later.

カメラ64は、例えば500万画素〜1000万画素の撮像素子を有し、オートフォーカス動作が可能に構成される。カメラ64は、その撮像素子の受光面に結像した画像(光学像)を撮像する。カメラ64は、例えば、ユーザーにとっての正面方向を撮像することができる。なお、撮像された画像は、動画形式または静止画形式のいずれで信号処理されてもよい。   The camera 64 includes, for example, an image sensor with 5 to 10 million pixels, and is configured to be able to perform an autofocus operation. The camera 64 captures an image (optical image) formed on the light receiving surface of the image sensor. For example, the camera 64 can capture the front direction for the user. Note that the captured image may be signal-processed in either a moving image format or a still image format.

前方ライト68は、例えばLEDライトである。前方ライト68は、赤、緑、青の各色の発光素子を有し、任意の色を任意のタイミングで発光させることが可能に構成してもよい。前方ライト68は、発光色や発光タイミングにより外部に対して情報を表示する装置として用いてもよく、カメラ64で撮影する際の照明装置として用いてもよい。
撮像素子72は、その受光面に結像した画像(光学像)を撮像する。撮像素子72は、例えば、ユーザーの顔を撮像することができる。なお、撮像された画像は、動画形式または静止画形式のいずれで信号処理されてもよい。
The front light 68 is, for example, an LED light. The front light 68 may include red, green, and blue light emitting elements, and may be configured to emit any color at any timing. The front light 68 may be used as a device that displays information to the outside depending on the light emission color and the light emission timing, or may be used as an illumination device when photographing with the camera 64.
The image sensor 72 captures an image (optical image) formed on the light receiving surface. The image sensor 72 can image a user's face, for example. Note that the captured image may be signal-processed in either a moving image format or a still image format.

また、図3では図示を省略したが、本実施形態に係る表示部60にはレーザー発信器が設けられている。レーザー発信器は、例えば前方ライト68の近傍に設けることができる。レーザー発信器から射出される例えば赤色レーザー光を前方に照射することで、レーザー光によるポインティング(指標の表示)が可能である。   Although not shown in FIG. 3, the display unit 60 according to the present embodiment is provided with a laser transmitter. The laser transmitter can be provided in the vicinity of the front light 68, for example. By irradiating, for example, red laser light emitted from a laser transmitter forward, pointing (display of an index) with the laser light is possible.

次に、ヘッドバンド40について、図2及び図4を参照しつつ説明する。
ヘッドバンド40は、図2に示すように、ユーザーの頭部を挟持する一対のヘッドパット(装着部材)46、47と、第1ヘッドバンド43と、第2ヘッドバンド44と、回動機構56、57とを備えている。
Next, the headband 40 will be described with reference to FIGS.
As shown in FIG. 2, the headband 40 includes a pair of head pads (mounting members) 46 and 47 that sandwich the user's head, a first headband 43, a second headband 44, and a rotation mechanism 56. , 57.

第1ヘッドバンド43は、全体として円弧状を成す弾性部材である。第1ヘッドバンド43の頂部に、第1ヘッドバンド43を折り曲げるためのジョイント部43aが設けられている。第1ヘッドバンド43の両端には、回動機構56、57を構成する軸受部43b、43cがそれぞれ設けられている。軸受部43b、43cよりもさらにバンド先端側に、ヘッドパット46、47が接続される軸受部43d、43eが設けられている。   The first headband 43 is an elastic member having an arc shape as a whole. A joint portion 43 a for bending the first headband 43 is provided on the top of the first headband 43. At both ends of the first headband 43, bearing portions 43b and 43c constituting the rotation mechanisms 56 and 57 are provided, respectively. Bearing portions 43d and 43e to which the head pads 46 and 47 are connected are provided further on the front end side of the band than the bearing portions 43b and 43c.

第2ヘッドバンド44は、全体として円弧状を成す弾性部材である。第2ヘッドバンド44の頂部には、第2ヘッドバンド44を折り曲げるためのジョイント部44aが設けられている。第2ヘッドバンド44の両端には、それぞれ回動機構56、57を構成する軸部材44b、44cが設けられている。   The second headband 44 is an elastic member having an arc shape as a whole. A joint portion 44 a for bending the second headband 44 is provided on the top of the second headband 44. At both ends of the second headband 44, shaft members 44b and 44c constituting rotation mechanisms 56 and 57 are provided.

また本実施形態において、第2ヘッドバンド44は、ステンレス等の金属からなるバネ部材48の表面を樹脂等の柔軟な材料で被覆した構成を有する。この第2ヘッドバンド44のバネ部材48においてユーザーの頭部を挟持するバネ力を発生させる。また第2ヘッドバンド44は第1ヘッドバンド43と比較して広い幅に形成されている。ジョイント部44aの形成部分は他のバンド部分よりもさらに広く形成された標章表示部49とされている。標章表示部49には、シールや印刷により製品タグ等が付される。なお、第2ヘッドバンド44の全体を金属で形成してもよい。   In the present embodiment, the second headband 44 has a configuration in which the surface of the spring member 48 made of a metal such as stainless steel is covered with a flexible material such as a resin. The spring member 48 of the second headband 44 generates a spring force that holds the user's head. The second headband 44 is formed wider than the first headband 43. The formation part of the joint part 44a is a mark display part 49 formed wider than the other band parts. A product tag or the like is attached to the mark display section 49 by sticker or printing. The entire second headband 44 may be made of metal.

ヘッドパット46は、板状の支持板46aと、支持板46aの一面側に設けられた断面アーチ状の弾性部材46bとを有する。支持板46aの弾性部材46bと反対側の面に、当該面に垂直な姿勢で概略六角柱状の連結ピン41が立設されている。連結ピン41は、第1ヘッドバンド43の一方の先端に設けられた軸受部43dに軸支されている。これにより、ヘッドパット46は連結ピン41回りに回転可能である。   The head pad 46 includes a plate-like support plate 46a and an elastic member 46b having an arched cross section provided on one surface side of the support plate 46a. On the surface of the support plate 46a opposite to the elastic member 46b, a substantially hexagonal column-shaped connecting pin 41 is erected in a posture perpendicular to the surface. The connecting pin 41 is pivotally supported by a bearing portion 43 d provided at one end of the first headband 43. As a result, the head pad 46 can rotate around the connecting pin 41.

ヘッドパット47は、板状の支持板47aと、支持板47aの一方の面に設けられた断面アーチ状の弾性部材47bとを有する。支持板47aの弾性部材47bと反対側の面には、軸部材47cが設けられている。軸部材47cは、第1ヘッドバンド43の先端に設けられた軸受部43eに軸支されている。これにより、ヘッドパット47は、軸部材47c回りに回転可能である。   The head pad 47 includes a plate-like support plate 47a and an elastic member 47b having an arcuate cross section provided on one surface of the support plate 47a. A shaft member 47c is provided on the surface of the support plate 47a opposite to the elastic member 47b. The shaft member 47 c is pivotally supported by a bearing portion 43 e provided at the tip of the first headband 43. Thereby, the head pad 47 can rotate around the shaft member 47c.

この構成により、第2ヘッドバンド44は、回動機構56によって第1ヘッドバンド43から離れる方向に回動付勢される一方、回動機構57によって第1ヘッドバンド43に対して所定角度以内の範囲に回動規制される。これにより、第2ヘッドバンド44は第1ヘッドバンド43に対して所定の角度となるように保持される。したがって、回動機構56、57は、ヘッドバンド40における角度保持機構として機能する。   With this configuration, the second headband 44 is urged to rotate in a direction away from the first headband 43 by the rotation mechanism 56, while being within a predetermined angle with respect to the first headband 43 by the rotation mechanism 57. The rotation is restricted to the range. As a result, the second headband 44 is held at a predetermined angle with respect to the first headband 43. Therefore, the rotation mechanisms 56 and 57 function as an angle holding mechanism in the headband 40.

次に、以上の構成を備えたHMD1におけるヘッドバンドの動作等について、図4、図5を参照しつつ説明する。以下、ユーザーにとっての右側を「ユーザーの右側」と称する。また、ユーザーにとっての左側を「ユーザーの左側」と称する。また、ユーザーにとっての上側を「ユーザーの上側」と称する。また、ユーザーにとっての下側を「ユーザーの下側」と称する。また、ユーザーにとっての時計回り方向を「時計回り方向」と称する。
また、ユーザーにとっての反時計回り方向を「反時計回り方向」と称する。
Next, the operation of the headband in the HMD 1 having the above configuration will be described with reference to FIGS. Hereinafter, the right side for the user is referred to as “the right side of the user”. Further, the left side for the user is referred to as “the left side of the user”. The upper side for the user is referred to as “the upper side of the user”. Further, the lower side for the user is referred to as “the lower side of the user”. The clockwise direction for the user is referred to as “clockwise direction”.
Further, the counterclockwise direction for the user is referred to as “counterclockwise direction”.

図5に示したように、本実施形態のHMD1は、図5(A)に示す右眼観察形態と、図5(B)に示す左眼観察形態を切り替えて使用することができる。ここで、右眼観察形態とは、ユーザーが右眼で表示部60を観察する形態である。また、左眼観察形態とは、ユーザーが左眼で表示部60を観察する形態である。以下、図5(A)及び図5(B)示した形態、すなわち、ユーザーから見てファインダー開口部67が横長に配置される形態を、第1表示モードと称する。   As shown in FIG. 5, the HMD 1 of the present embodiment can be used by switching between the right-eye observation form shown in FIG. 5A and the left-eye observation form shown in FIG. Here, the right-eye observation form is a form in which the user observes the display unit 60 with the right eye. The left-eye observation form is a form in which the user observes the display unit 60 with the left eye. Hereinafter, the form shown in FIGS. 5A and 5B, that is, the form in which the finder opening 67 is arranged horizontally when viewed from the user is referred to as a first display mode.

例えば、右眼観察形態から左眼観察形態へ切り替えるには、まず、ヘッドバンド40に連結されたディスプレイ本体20を、ヘッドバンドヒンジ32(図2を参照)の回転軸回り(図5では、A方向)に180°程度回転させる。さらに、ヘッドバンド40において、回動機構56及び57(図4を参照)の軸回りに第2ヘッドバンド44を揺動させることで、第2ヘッドバンド44の位置と第1ヘッドバンド43の位置との前後関係を入れ替える。この操作により、図5(B)に示すように、ユーザーの左眼側にディスプレイ本体20が配置され、且つ、第2ヘッドバンド44がユーザーの後頭部側に配置された左眼観察形態に、HMD1は切り替えられる。   For example, to switch from the right-eye observation mode to the left-eye observation mode, first, the display body 20 connected to the headband 40 is moved around the rotation axis of the headband hinge 32 (see FIG. 2) (A in FIG. 5). Direction). Further, in the headband 40, the position of the second headband 44 and the position of the first headband 43 are obtained by swinging the second headband 44 around the axes of the rotation mechanisms 56 and 57 (see FIG. 4). Swap the context. By this operation, as shown in FIG. 5B, the left-eye observation form in which the display main body 20 is arranged on the left eye side of the user and the second headband 44 is arranged on the occipital side of the user is performed. Can be switched.

右眼観察形態では、右眼の近傍にある眼球照明ライト166a及び166bが点灯し、眼球照明ライト166c及び166dが消灯する。一方、左眼観察形態では、左眼の近傍にある眼球照明ライト166c及び166dが点灯し、眼球照明ライト166a及び166bが消灯する。   In the right-eye observation mode, the eyeball illumination lights 166a and 166b in the vicinity of the right eye are turned on, and the eyeball illumination lights 166c and 166d are turned off. On the other hand, in the left-eye observation mode, the eyeball illumination lights 166c and 166d in the vicinity of the left eye are turned on, and the eyeball illumination lights 166a and 166b are turned off.

本実施形態では、図4に示すように、第1ヘッドバンド43の円弧高さr1を、第2ヘッドバンド44の円弧高さr2よりも小さくしている。これにより、第2ヘッドバンド44を第1ヘッドバンド43と交差させるように移動させても、互いに干渉することなく円滑に前後を入れ替えることができる。
図4に示す円弧高さr1は、同軸に配置された回動機構56、57の回転軸Lの中央位置Cから第1ヘッドバンド43までの距離の最大値である。また円弧高さr2は、回転軸Lの中央位置Cから第2ヘッドバンド44までの距離の最大値である。
In the present embodiment, as shown in FIG. 4, the arc height r <b> 1 of the first headband 43 is smaller than the arc height r <b> 2 of the second headband 44. As a result, even if the second headband 44 is moved so as to intersect the first headband 43, the front and rear can be switched smoothly without interfering with each other.
The arc height r1 shown in FIG. 4 is the maximum value of the distance from the center position C of the rotation axis L of the rotation mechanisms 56 and 57 arranged coaxially to the first headband 43. The arc height r2 is the maximum value of the distance from the center position C of the rotation axis L to the second headband 44.

なお、第1ヘッドバンド43の円弧高さr1を第2ヘッドバンド44の円弧高さr2よりも大きくし、第2ヘッドバンド44を第1ヘッドバンド43の内側で揺動させる構成としてもよい。   The arc height r1 of the first headband 43 may be larger than the arc height r2 of the second headband 44, and the second headband 44 may be swung inside the first headband 43.

図6は、本実施形態に係るヘッドマウントディスプレイに付属のステレオイヤホンを示す斜視図である。
ステレオイヤホン100は、コネクター101と、ケーブル102と、第1スピーカー103と、第2スピーカー104と、集音マイク105と、複数のクリップ106とを有する。
FIG. 6 is a perspective view showing a stereo earphone attached to the head mounted display according to the present embodiment.
Stereo earphone 100 includes a connector 101, a cable 102, a first speaker 103, a second speaker 104, a sound collecting microphone 105, and a plurality of clips 106.

コネクター101はケーブル102の一方の端部に設けられている。コネクター101は、一般的な4極φ3.5mmのミニプラグである。4極の内訳は、集音マイク105、第1スピーカー103、第2スピーカー104、グランド(GND)である。ケーブル102は、コネクター101の近傍において二分岐され、分岐されたケーブルの先端に第1スピーカー103が設けられている。ケーブル102の他方の端部には、第2スピーカー104と集音マイク105とが設けられている。複数のクリップ106は、ケーブル102上に所定の間隔で配置されている。   The connector 101 is provided at one end of the cable 102. The connector 101 is a general 4-pole φ3.5 mm mini plug. The breakdown of the four poles is the sound collection microphone 105, the first speaker 103, the second speaker 104, and the ground (GND). The cable 102 is bifurcated in the vicinity of the connector 101, and a first speaker 103 is provided at the end of the branched cable. A second speaker 104 and a sound collecting microphone 105 are provided at the other end of the cable 102. The plurality of clips 106 are arranged on the cable 102 at a predetermined interval.

ステレオイヤホン100は、コネクター101をディスプレイ本体20のオーディオコネクター26に接続して使用される。ステレオイヤホン100が接続されると、ディスプレイ本体20の耳元スピーカー23と、表示部60の通話マイク37は無効化される。また表示部60の前方スピーカー70も必要に応じて無効化される。そして、ステレオイヤホン100の第1スピーカー103、第2スピーカー104、及び集音マイク105が有効化される。   The stereo earphone 100 is used by connecting the connector 101 to the audio connector 26 of the display body 20. When the stereo earphone 100 is connected, the ear speaker 23 of the display body 20 and the call microphone 37 of the display unit 60 are invalidated. Further, the front speaker 70 of the display unit 60 is also invalidated as necessary. Then, the first speaker 103, the second speaker 104, and the sound collecting microphone 105 of the stereo earphone 100 are activated.

ステレオイヤホン100の第1スピーカー103は、ディスプレイ本体20が配置された側のユーザーの耳に装着され、第2スピーカー104は第1スピーカー103と反対側の耳に装着される。このとき、ケーブル102は、クリップ106によって第2ヘッドバンド44に固定することができる。   The first speaker 103 of the stereo earphone 100 is attached to the ear of the user on the side where the display main body 20 is arranged, and the second speaker 104 is attached to the ear on the opposite side to the first speaker 103. At this time, the cable 102 can be fixed to the second headband 44 by the clip 106.

また、ステレオイヤホン100の集音マイク105と、ディスプレイ本体20において筐体21Aの外側面に設けられた集音マイク24とにより、ステレオ録音が可能である。
例えば、図5(A)に示すようにディスプレイ本体20が右眼側に配置されているとすれば、ディスプレイ本体20の集音マイク24はユーザーの右側の音を収集し、左耳に装着された集音マイク105はユーザーの左側の音を収集する。
また、右眼観察形態では、ステレオイヤホン100の第1スピーカー103から右チャンネルの音声が出力され、第2スピーカー104からは左チャンネルの音声が出力される。
Further, stereo recording can be performed by the sound collecting microphone 105 of the stereo earphone 100 and the sound collecting microphone 24 provided on the outer surface of the housing 21 </ b> A in the display main body 20.
For example, if the display main body 20 is arranged on the right eye side as shown in FIG. 5A, the sound collecting microphone 24 of the display main body 20 collects sounds on the right side of the user and is attached to the left ear. The sound collecting microphone 105 collects the sound on the left side of the user.
In the right-eye observation mode, the right channel sound is output from the first speaker 103 of the stereo earphone 100, and the left channel sound is output from the second speaker 104.

一方、図5(B)に示すようにユーザーの左眼側にディスプレイ本体20が配置されている場合には、ディスプレイ本体20の集音マイク24がユーザーの左側の音を収集し、右耳に装着された集音マイク105がユーザーの右側の音を収集する。左眼観察形態では、ステレオイヤホン100の第1スピーカー103から左チャンネルの音声が出力され、第2スピーカー104からは右チャンネルの音声が出力される。   On the other hand, when the display main body 20 is arranged on the left eye side of the user as shown in FIG. 5B, the sound collecting microphone 24 of the display main body 20 collects the sound on the left side of the user and puts it in the right ear. The attached sound collecting microphone 105 collects sound on the right side of the user. In the left-eye observation mode, left channel sound is output from the first speaker 103 of the stereo earphone 100, and right channel sound is output from the second speaker 104.

次に、眼球照明ライト166a〜166dの点灯と消灯について説明する。
図7は、本実施形態に係る眼球照明ライト166の点灯と消灯を説明する図である。図7(A)は、右眼観察形態における眼球照明ライト166の点灯と消灯を説明する図である。図7(B)は、左眼観察形態における眼球照明ライト166の点灯と消灯を説明する図である。図7(A)及び図7(B)において、ユーザーの顔の正面方向を、HZと表記する。
Next, lighting and extinguishing of the eyeball illumination lights 166a to 166d will be described.
FIG. 7 is a diagram for explaining turning on and off of the eyeball illumination light 166 according to the present embodiment. FIG. 7A is a diagram for explaining turning on and off of the eyeball illumination light 166 in the right-eye observation mode. FIG. 7B is a diagram for explaining turning on and off of the eyeball illumination light 166 in the left-eye observation mode. In FIG. 7A and FIG. 7B, the front direction of the user's face is denoted as HZ.

図7(A)に示した例では、表示部60は、右眼の斜め下に配置されている。また、正面方向HZと表示部60の画面の法線とは、角度αを成している。HMD1は、眼球照明ライト166a〜166dのうち、ユーザーの眼に近い側の眼球照明ライトを選択し、選択した眼球照明ライトを点灯させる。一方、HMD1は、選択した以外の眼球照明ライト、すなわち、ユーザーの眼から遠い側の眼球照明ライトを消灯させる。   In the example shown in FIG. 7A, the display unit 60 is disposed obliquely below the right eye. Further, the front direction HZ and the normal line of the screen of the display unit 60 form an angle α. The HMD 1 selects an eyeball illumination light on the side close to the user's eye among the eyeball illumination lights 166a to 166d, and turns on the selected eyeball illumination light. On the other hand, the HMD 1 turns off the eyeball illumination lights other than the selected one, that is, the eyeball illumination lights far from the user's eyes.

図7(A)では、眼球照明ライト166a及び166bは、正面方向HZから角度α1だけ下側に配置されている。一方、眼球照明ライト166c及び166dは、正面方向HZから角度α2だけ下側に配置されている。ここで、角度α1は、角度αより小さく、角度α2は、角度αより大きい。つまり、眼球照明ライト166a及び166bは、眼球照明ライト166c及び166dよりも、ユーザーの右眼の近くに配置されている。   In FIG. 7A, the eyeball illumination lights 166a and 166b are disposed below the front direction HZ by an angle α1. On the other hand, the eyeball illumination lights 166c and 166d are arranged at an angle α2 below the front direction HZ. Here, the angle α1 is smaller than the angle α, and the angle α2 is larger than the angle α. That is, the eyeball illumination lights 166a and 166b are disposed closer to the user's right eye than the eyeball illumination lights 166c and 166d.

この場合、HMD1は、眼球照明ライト166a及び166bを点灯させ、且つ、眼球照明ライト166c及び166dを消灯させる。この点灯状態で、撮像素子72は、ユーザーの右眼の周りを撮像する。以下、ユーザーの右眼の周りが撮像された画像を、「右眼の周辺画像」という。   In this case, the HMD 1 turns on the eyeball illumination lights 166a and 166b and turns off the eyeball illumination lights 166c and 166d. In this lighting state, the image sensor 72 images around the right eye of the user. Hereinafter, an image captured around the right eye of the user is referred to as a “right eye peripheral image”.

なお、右眼の周辺画像には、右眼の画像、右眉毛の画像、顔の一部(頭、髪の毛等)の画像が含まれてもよい。また、左眼の周辺画像には、左眼の画像、左眉毛の画像、顔の一部(頭、髪の毛等)が含まれてもよい。以下、右眼の周辺画像、及び左眼の周辺画像を、「眼の周辺画像」と総称する。   The peripheral image of the right eye may include an image of the right eye, an image of the right eyebrow, and an image of a part of the face (head, hair, etc.). The peripheral image of the left eye may include a left eye image, a left eyebrow image, and a part of the face (head, hair, etc.). Hereinafter, the peripheral image of the right eye and the peripheral image of the left eye are collectively referred to as “eye peripheral image”.

図7(A)に示した例では、ユーザーの右眼から遠い側の眼球照明ライト166c及び166dは、ユーザーの頬が邪魔になり、ユーザーの右眼を照明できないこともある。したがって、HMD1は、ユーザーの右眼から遠い側の眼球照明ライト166c及び166dを消灯させる。これにより、HMD1は、消費電力を低減させることができる。   In the example shown in FIG. 7A, the eyeball illumination lights 166c and 166d far from the user's right eye may not be able to illuminate the user's right eye due to the user's cheek getting in the way. Therefore, the HMD 1 turns off the eyeball illumination lights 166c and 166d far from the user's right eye. Thereby, HMD1 can reduce power consumption.

一方、図7(B)では、眼球照明ライト166c及び166dは、正面方向HZから角度α3だけ下側に配置されている。一方、眼球照明ライト166c及び166dは、正面方向HZから角度α4だけ下側に配置されている。ここで、角度α3は、角度αより小さく、角度α4は、角度αより大きい。つまり、眼球照明ライト166a及び166bは、眼球照明ライト166c及び166dよりも、ユーザーの左眼の近くに配置されている。   On the other hand, in FIG. 7B, the eyeball illumination lights 166c and 166d are arranged on the lower side by an angle α3 from the front direction HZ. On the other hand, the eyeball illumination lights 166c and 166d are disposed at an angle α4 below the front direction HZ. Here, the angle α3 is smaller than the angle α, and the angle α4 is larger than the angle α. That is, the eyeball illumination lights 166a and 166b are disposed closer to the user's left eye than the eyeball illumination lights 166c and 166d.

この場合、HMD1は、眼球照明ライト166c及び166dを点灯させ、且つ、眼球照明ライト166a及び166bを消灯させる。この点灯状態で、撮像素子72は、ユーザーの左眼の周りを撮像する。以下、ユーザーの左眼の周りが撮像された画像を、「左眼の周辺画像」という。   In this case, the HMD 1 turns on the eyeball illumination lights 166c and 166d and turns off the eyeball illumination lights 166a and 166b. In this lighting state, the image sensor 72 images around the left eye of the user. Hereinafter, an image in which the periphery of the user's left eye is captured is referred to as a “left eye peripheral image”.

図7(B)に示した例では、ユーザーの左眼から遠い側の眼球照明ライト166a及び166bは、ユーザーの頬が邪魔になり、ユーザーの左眼を照明できないこともある。したがって、HMD1は、ユーザーの左眼から遠い側の眼球照明ライト166a及び166bを消灯させる。これにより、HMD1は、消費電力を低減させることができる。   In the example shown in FIG. 7B, the eyeball illumination lights 166a and 166b far from the user's left eye may not be able to illuminate the user's left eye due to the user's cheek getting in the way. Accordingly, the HMD 1 turns off the eyeball illumination lights 166a and 166b on the side far from the user's left eye. Thereby, HMD1 can reduce power consumption.

つまり、HMD1は、ユーザーと表示部60との位置関係に応じて、眼球照明ライト166a〜166dのうち、ユーザーの眼をより正面から照明することができる眼球照明ライトを点灯させ、それ以外の眼球照明ライトを消灯させる。   That is, the HMD 1 turns on an eyeball illumination light that can illuminate the user's eyes from the front, among the eyeball illumination lights 166a to 166d, according to the positional relationship between the user and the display unit 60, and other eyeballs. Turn off the illumination light.

次に、表示部60の構成及び光学系を説明する。
図8は、本実施形態に係る表示部60の構成及び光学系を説明するための表示部60の断面図である。図8に示すように、本実施形態の表示部60は、バックライト62、表示パネル(表示部)63、第1プリズム65a、第2プリズム65b、反射ミラー66、ファインダー開口部67、結像レンズ71、撮像素子72、1/4波長板75を含んで構成されている。図8において、符号H、I、J、K、L、M、Nは、各々、光線を表す。
Next, the configuration of the display unit 60 and the optical system will be described.
FIG. 8 is a cross-sectional view of the display unit 60 for explaining the configuration and optical system of the display unit 60 according to the present embodiment. As shown in FIG. 8, the display unit 60 of this embodiment includes a backlight 62, a display panel (display unit) 63, a first prism 65a, a second prism 65b, a reflection mirror 66, a finder opening 67, and an imaging lens. 71, an image sensor 72, and a quarter wavelength plate 75. In FIG. 8, symbols H, I, J, K, L, M, and N each represent a light beam.

まず、表示部60の構成を説明する。
プリズム65は、上面視(Z軸視)で略三角形状の第1プリズム65aと第2プリズム65bとを互いの面で貼り合わせた構成を有する。この貼り合わせ面以外の第1プリズム65aの他の二面のうち、一方の面に対向する位置に、液晶パネルからなる表示パネル63が設けられている。表示パネル63の背面に表示パネル63を透過照明するバックライト62が配置されている。第1プリズム65aの他方の面に対向する位置に反射ミラー66が配置されている。反射ミラー66は、ファインダー開口部67のほぼ正面に位置する。
First, the configuration of the display unit 60 will be described.
The prism 65 has a configuration in which a substantially triangular first prism 65a and a second prism 65b are bonded to each other on a top view (Z-axis view). A display panel 63 made of a liquid crystal panel is provided at a position facing one of the other two surfaces of the first prism 65a other than the bonding surface. A backlight 62 that transmits and illuminates the display panel 63 is disposed on the back surface of the display panel 63. A reflection mirror 66 is disposed at a position facing the other surface of the first prism 65a. The reflection mirror 66 is located substantially in front of the finder opening 67.

第2プリズム65bの貼り合わせ面以外の他の二面のうち、一方の面はファインダー開口部67に配置されたファインダー接眼面である。第2プリズム65bの他方の面に対向する位置には結像レンズ71を介して撮像素子72が対向配置されている。   Of the two surfaces other than the bonding surface of the second prism 65 b, one surface is a viewfinder eyepiece disposed in the viewfinder opening 67. An imaging element 72 is disposed opposite to the other surface of the second prism 65b via the imaging lens 71.

次に、表示部60の光学系を説明する。
表示部60において、表示パネル63に表示された画像は、第1プリズム65a、反射ミラー66、第2プリズム65bを介してファインダー開口部67から射出され、ユーザーに観察される。また、ファインダー開口部67を見ている画像は、第2プリズム65b及び結像レンズ71を介して撮像素子72上に結像される。
なお、撮像素子72を介して取得された撮像画像は、ユーザーの視線の方向や瞬き、表情の解析、表示部60の姿勢の解析に用いる。撮像画像には、眼の周辺画像が含まれている。なお、バックライト62は、撮像素子72による眼の周辺画像を撮像する際の補助照明としても利用されてもよい。
Next, the optical system of the display unit 60 will be described.
In the display unit 60, the image displayed on the display panel 63 is emitted from the finder opening 67 through the first prism 65a, the reflection mirror 66, and the second prism 65b, and is observed by the user. Further, the image looking at the viewfinder opening 67 is imaged on the image sensor 72 via the second prism 65 b and the imaging lens 71.
The captured image acquired via the image sensor 72 is used for analysis of the direction of the user's line of sight, blinking, facial expression, and posture of the display unit 60. The captured image includes a peripheral image of the eye. Note that the backlight 62 may also be used as auxiliary illumination when an image around the eye is captured by the image sensor 72.

バックライト62が照射した光は、表示パネル63を透過して、第1プリズム65aに入射される。このとき、表示パネル63の液晶の特性上、バックライト62が照射した光が偏光され、偏光された光線HのS偏光が第1プリズム65aに入射される。   The light emitted from the backlight 62 passes through the display panel 63 and enters the first prism 65a. At this time, due to the characteristics of the liquid crystal of the display panel 63, the light irradiated by the backlight 62 is polarized, and the S-polarized light of the polarized light beam H is incident on the first prism 65a.

光線Hは、第1プリズム65aの裏面65dに設けられた空気層の影響により全反射し、光線Iとして第1プリズム65aと第2プリズム65bの接合面65cに入射する。ここで2つのプリズムの接合面65cには、S偏光が反射し、P偏光が透過する偏光反射膜が蒸着されている。ここで、光線Hは、S偏光であるため、接合面65cで反射して光線Jとなる。光線Jは、裏面65dに入射角0度で入射されるため、裏面65dを透過して1/4波長板75に入射される。   The light beam H is totally reflected by the influence of the air layer provided on the back surface 65d of the first prism 65a, and enters the joint surface 65c of the first prism 65a and the second prism 65b as the light beam I. Here, a polarizing reflection film that reflects S-polarized light and transmits P-polarized light is deposited on the joint surface 65c of the two prisms. Here, since the light ray H is S-polarized light, it is reflected by the joint surface 65c to become a light ray J. Since the light beam J is incident on the back surface 65d at an incident angle of 0 degree, it passes through the back surface 65d and enters the quarter-wave plate 75.

光線Jは、空気層を通った後に1/4波長板75を透過することで、進行方向に対して右回りの円偏光となる。そして反射ミラー66で反射した光線Kは、反射によって左回りの円偏光となる。そして、光線Kは、1/4波長板75を再び透過し、P偏光となる。
光線Kは、P偏光に変換されたため、接合面65cを透過できるので、ファインダー開口部67を通過できる。このような構成により、ユーザーは、表示パネル63上に表示された画像データを、ファインダー開口部67越に観察できる。
The light beam J passes through the quarter wave plate 75 after passing through the air layer, and becomes circularly polarized light clockwise with respect to the traveling direction. The light beam K reflected by the reflecting mirror 66 becomes counterclockwise circularly polarized light by reflection. Then, the light K passes through the quarter-wave plate 75 again and becomes P-polarized light.
Since the light K has been converted to P-polarized light, it can pass through the joint surface 65c, and thus can pass through the finder opening 67. With such a configuration, the user can observe the image data displayed on the display panel 63 through the viewfinder opening 67.

一方、ファインダー開口部67から入射した光線Lは、接合面65cで反射してS偏光の光線Mに変換される。光線Mは、第2プリズム65bにおける前面65eの空気層で全反射して光線Nになる。光線Nは、結像レンズ71により集光され、集光した光線Nが撮像素子72に入射する。このような構成により、ユーザーの眼の前面に、ファインダー開口部67が配置された場合、撮像素子72には、ユーザーの眼の周辺画像(光学像)が結像する。   On the other hand, the light beam L incident from the finder opening 67 is reflected by the joint surface 65c and converted into an S-polarized light beam M. The light ray M is totally reflected by the air layer on the front surface 65e of the second prism 65b to become a light ray N. The light beam N is collected by the imaging lens 71, and the collected light beam N enters the image sensor 72. With such a configuration, when the finder opening 67 is disposed in front of the user's eye, a peripheral image (optical image) of the user's eye is formed on the image sensor 72.

次に、右眼観察形態で、ファインダー開口部67を介してユーザーが観察する画像と、撮像素子72により撮像される画像とについて説明する。
なお、図10、図13及び図15では、光学的に等価になるように、反射ミラー66(図8を参照)は、凸レンズに置き換えられている。また、図10、図13、及び図15において、一点鎖線CTは、結像レンズ71の光軸を表している。
Next, an image observed by the user through the finder opening 67 and an image captured by the image sensor 72 in the right-eye observation mode will be described.
In FIGS. 10, 13, and 15, the reflecting mirror 66 (see FIG. 8) is replaced with a convex lens so as to be optically equivalent. 10, 13, and 15, the alternate long and short dash line CT represents the optical axis of the imaging lens 71.

以下、表示部60が、ユーザーの眼から所定距離内に配置されている状態を、「第1観察状態」という。
図9は、第1〜第3観察状態のそれぞれにおける表示領域の違いを説明する図である。
第1観察状態では、表示部60がユーザーの眼から所定距離内に配置されているので、表示パネル63の全表示領域は、ユーザーから観察可能である。したがって、表示パネル63は、この全表示領域に画像を表示させることができる。すなわち、表示パネル63の全表示領域が、表示領域Sとなる。
Hereinafter, a state in which the display unit 60 is disposed within a predetermined distance from the user's eyes is referred to as a “first observation state”.
FIG. 9 is a diagram for explaining a difference in display area in each of the first to third observation states.
In the first observation state, since the display unit 60 is disposed within a predetermined distance from the user's eyes, the entire display area of the display panel 63 can be observed by the user. Therefore, the display panel 63 can display an image in the entire display area. That is, the entire display area of the display panel 63 becomes the display area S.

以下、表示領域Sの横の長さを、Swと表記する。また。表示領域Sの縦の長さを、Shと表記する。また、以下では、一例として、Swは800画素、Shは600画素として説明を続ける。また、表示領域Tの縦の長さを、Thと表記する。また、表示領域Tの横の長さを、Twと表記する。また、表示領域Uの縦の長さを、Uhと表記する。また、表示領域Uの横の長さを、Uwと表記する。   Hereinafter, the horizontal length of the display area S is expressed as Sw. Also. The vertical length of the display area S is expressed as Sh. In the following description, as an example, the description will be continued assuming that Sw is 800 pixels and Sh is 600 pixels. In addition, the vertical length of the display area T is expressed as Th. Further, the horizontal length of the display area T is denoted as Tw. Further, the vertical length of the display area U is denoted as Uh. Further, the horizontal length of the display area U is denoted as Uw.

図10は、第1観察状態における観察範囲と撮像範囲を説明する図である。観察範囲67aにユーザーの眼がある場合、ファインダー開口部67を介して、ユーザーは、表示パネル63の全表示領域に相当する表示領域Sを観察することができる。また、観察範囲67aは、反射ミラー66(図10では、凸レンズ)の光軸上では、ファインダー開口部67から距離Pまでの範囲にある。一方、撮像素子72が撮影することができる撮影範囲67cは、観察範囲67aを含んでいる。つまり、撮像素子72は、観察範囲67aにユーザーの眼がない場合でも、撮影範囲67cにユーザーの眼があれば、ユーザーの眼を眉毛なども含めて撮像することができる。   FIG. 10 is a diagram illustrating the observation range and the imaging range in the first observation state. When the user's eyes are in the observation range 67 a, the user can observe the display area S corresponding to the entire display area of the display panel 63 through the finder opening 67. The observation range 67a is in a range from the finder opening 67 to the distance P on the optical axis of the reflection mirror 66 (convex lens in FIG. 10). On the other hand, the imaging range 67c that can be imaged by the imaging device 72 includes an observation range 67a. That is, even when the user's eyes are not in the observation range 67a, the imaging element 72 can capture the user's eyes including eyebrows if the user has the eyes in the shooting range 67c.

図11は、第1観察状態における撮像画像の一例を説明する図である。図11の略中心には、撮像素子72によりユーザーの眼が撮像されている。この場合、図7(A)を用いて説明したように、眼球照明ライト166a及び166bが点灯している。右眼観察形態の場合、図11における+Z側が鉛直上方向、−Z側が鉛直下方向、+X側がユーザーの左側、−X側がユーザーの右側となる。なお、左眼観察形態の場合、表示部60が180度反転されているので、右眼観察形態と比較して、眼の周辺画像は左右上下が反転することになる。   FIG. 11 is a diagram illustrating an example of a captured image in the first observation state. In the approximate center of FIG. 11, the eye of the user is imaged by the imaging element 72. In this case, as described with reference to FIG. 7A, the eyeball illumination lights 166a and 166b are turned on. In the case of the right eye observation mode, the + Z side in FIG. 11 is the vertically upward direction, the −Z side is the vertically downward direction, the + X side is the left side of the user, and the −X side is the right side of the user. In the case of the left-eye observation form, the display unit 60 is inverted 180 degrees, so that the peripheral image of the eye is inverted horizontally and vertically as compared with the right-eye observation form.

図11において、符号601Rは、右眼の画像を示す符号であり、符号602Rは、右眉毛の画像を示す符号である。符号604Aは、眼球照明ライト166a(図2を参照)による輝点の画像を示す符号であり、符号604Bは、眼球照明ライト166b(図2を参照)による輝点の画像を示す符号である。また、符号L41は、X軸方向におけるユーザーの眼の幅を示す符号である。例えば、第1観察状態において、撮像素子72の解像度が、横方向(X軸方向)に640画素である場合、画像における眼の幅L41は、350画素程度である。   In FIG. 11, reference numeral 601 </ b> R indicates a right eye image, and reference numeral 602 </ b> R indicates a right eyebrow image. Reference numeral 604A represents a bright spot image by the eyeball illumination light 166a (see FIG. 2), and reference numeral 604B represents a bright spot image by the eyeball illumination light 166b (see FIG. 2). Reference sign L41 is a sign indicating the width of the user's eyes in the X-axis direction. For example, when the resolution of the image sensor 72 is 640 pixels in the horizontal direction (X-axis direction) in the first observation state, the eye width L41 in the image is about 350 pixels.

図11では、ユーザーの眼と眉毛の距離が幅L41以下なので、撮像画像には、適切な範囲が撮像されているといえる。このように、ユーザーの眼を下側から撮影することは、有効である。
このように、第1観察状態では、ユーザーが正面を見る際、ファインダー開口部67が邪魔にならない。また、後述するように、第1観察状態では、撮像素子72による撮像画像に撮像された眉毛、目元及び眼球の動きに基づいて、HMD1は、ユーザーの視線方向を検出することができる。
In FIG. 11, since the distance between the user's eyes and eyebrows is equal to or smaller than the width L41, it can be said that an appropriate range is captured in the captured image. Thus, it is effective to photograph the user's eyes from below.
Thus, in the first observation state, the finder opening 67 does not get in the way when the user looks at the front. As will be described later, in the first observation state, the HMD 1 can detect the user's line-of-sight direction based on the movements of the eyebrows, the eyes, and the eyeballs captured in the image captured by the image sensor 72.

以下、ユーザーの眼が、第1観測状態と比較して表示部60から離れている状態を、「第2観察状態」という。
次に、第2観察状態について、図9、図12、及び図13を用いて説明する。
Hereinafter, a state in which the user's eyes are separated from the display unit 60 as compared with the first observation state is referred to as a “second observation state”.
Next, a 2nd observation state is demonstrated using FIG.9, FIG12 and FIG.13.

図12は、第2観察状態における撮像画像の一例を説明する図である。符号601R1は、右眼の画像を示す符号であり、符号602R1は、右眉毛の画像を示す符号である。
符号604Cは、眼球照明ライト166aによる輝点の画像を示す符号であり、符号604Dは、眼球照明ライト166bによる輝点の画像を示す符号である。また、符号L71は、X軸方向におけるユーザーの眼の幅を示す符号である。
第2観察状態では、ユーザーの眼が表示部60から離れているので、第1観察状態よりも、ユーザーの眼の画像が小さく撮像される。撮像画像におけるユーザーの眼の幅L71が、第1観察状態におけるユーザーの眼の幅L41以下(例えば、300画素以下)である場合、HMD1は、ユーザーが表示部60から眼を離していると判定する。
FIG. 12 is a diagram illustrating an example of a captured image in the second observation state. Reference numeral 601R1 represents a right eye image, and reference numeral 602R1 represents a right eyebrow image.
Reference numeral 604C represents a bright spot image by the eyeball illumination light 166a, and reference numeral 604D represents a bright spot image by the eyeball illumination light 166b. Reference sign L71 is a sign indicating the width of the user's eyes in the X-axis direction.
In the second observation state, since the user's eyes are separated from the display unit 60, an image of the user's eyes is captured smaller than in the first observation state. When the width L71 of the user's eye in the captured image is equal to or smaller than the width L41 of the user's eye in the first observation state (for example, 300 pixels or less), the HMD 1 determines that the user is taking his eyes off the display unit 60. To do.

図13は、第2観察状態における観察範囲と撮像範囲を説明する図である。図13では、ユーザーの眼eyeは、反射ミラー66(図13では、凸レンズ)の光軸上で、ファインダー開口部67から距離P以上距離P2以内の位置に在り、第1観察状態における観察範囲67b(光軸上で、ファインダー開口部67から距離P以内)には無い。このため、ユーザーは、表示領域S(図9を参照)の一部しか観察することができない。   FIG. 13 is a diagram illustrating an observation range and an imaging range in the second observation state. In FIG. 13, the user's eye is located on the optical axis of the reflection mirror 66 (convex lens in FIG. 13) at a position within the distance P2 from the finder opening 67 and within the distance P2, and the observation range 67b in the first observation state. There is no distance (within the distance P from the finder opening 67 on the optical axis). For this reason, the user can observe only a part of the display area S (see FIG. 9).

そこで、第2観察状態では、HMD1は、縮小率ηで縮小した画像を、表示領域T(図9を参照)に表示させる。第2観察状態において、表示領域Tに表示される画像の縮小率η(第1観察状態との比率)は、次式(1)により示される。   Therefore, in the second observation state, the HMD 1 displays an image reduced at the reduction rate η in the display area T (see FIG. 9). In the second observation state, the reduction rate η (ratio with the first observation state) of the image displayed in the display region T is expressed by the following equation (1).

η = L71/L41 ・・・(1)   η = L71 / L41 (1)

例えば、ユーザーの眼の幅L41(図11を参照)が350画素であるのに対して、L71(図12を参照)が220画素である場合、HMD1は、約0.63倍(=(L71/L41)=(Th/Sh)=(Tw/Sw))に縦横をそれぞれ縮小した画像を、表示パネル63の表示領域Tに表示させる。表示領域Tに表示された画像(光学像)の全体は、ファインダー開口部67の縁に遮られることなく、ユーザーの眼に届く。なお、第2観察状態において、HMD1は、眼球照明ライト166の輝度を、第1観察状態におけるその輝度と比較して高くしてもよい。   For example, when the user's eye width L41 (see FIG. 11) is 350 pixels and L71 (see FIG. 12) is 220 pixels, HMD1 is about 0.63 times (= (L71 / L41) = (Th / Sh) = (Tw / Sw)), an image reduced in length and width is displayed in the display area T of the display panel 63. The entire image (optical image) displayed in the display area T reaches the user's eyes without being blocked by the edge of the finder opening 67. In the second observation state, the HMD 1 may increase the luminance of the eyeball illumination light 166 compared to the luminance in the first observation state.

以下、表示部60とユーザーの眼との相対位置が、第2観測状態と比較して左右いずれかの方向にずれている状態を、「第3観察状態」という。
次に、第3観察状態について、図9、図14、及び図15を用いて説明する。
図14は、第3観察状態における撮像画像の一例を説明する図である。第3観察状態では、第2観察状態と比較して、ユーザーの眼の画像が、一例として、画像の中心付近から右下方向にベクトルV1だけずれて撮像されているとする。
Hereinafter, a state in which the relative position between the display unit 60 and the user's eye is shifted in either the left or right direction compared to the second observation state is referred to as a “third observation state”.
Next, a 3rd observation state is demonstrated using FIG.9, FIG14 and FIG.15.
FIG. 14 is a diagram illustrating an example of a captured image in the third observation state. In the third observation state, it is assumed that, as an example, an image of the user's eye is captured with a vector V1 shifted from the vicinity of the center of the image in the lower right direction as compared with the second observation state.

符号601R2は、右眼の画像を示す符号であり、符号602R2は、右眉毛の画像を示す符号である。符号604Eは、眼球照明ライト166aによる輝点の画像を示す符号であり、符号604Fは、眼球照明ライト166bによる輝点の画像を示す符号である。
また、一点鎖線で示した605Aは、ユーザーの眼の位置がずれていない場合に撮像される眼球の外形画像を表す。また、符号605Bは、ユーザーの眼が光軸中心にある場合の眼球の画像を表す。
Reference numeral 601R2 represents a right eye image, and reference numeral 602R2 represents a right eyebrow image. Reference numeral 604E represents a bright spot image by the eyeball illumination light 166a, and reference numeral 604F represents a bright spot image by the eyeball illumination light 166b.
Also, 605A indicated by a one-dot chain line represents an outline image of an eyeball that is captured when the position of the user's eye is not displaced. Reference numeral 605B represents an image of the eyeball when the user's eye is at the center of the optical axis.

図15は、第3観察状態における観察範囲と撮像範囲を説明する図である。図15では、ユーザーの眼eyeは、観察範囲67e内、すなわち、ファインダー開口部67から距離P以上離れ、且つ、光軸CTから内側にV1のX成分量(=V1x)だけずれている位置に在る。観察範囲67eに在るユーザーの眼は、第1観察状態における観察範囲67b(光軸上で、ファインダー開口部67から距離P以内)には無いので、表示領域S(図9を参照)の一部しか観察することができない。   FIG. 15 is a diagram illustrating an observation range and an imaging range in the third observation state. In FIG. 15, the user's eye eye is at a position within the observation range 67e, that is, at a distance P or more from the finder opening 67 and shifted inward from the optical axis CT by the X component amount (= V1x) of V1. exist. Since the user's eye in the observation range 67e is not in the observation range 67b (within the distance P from the finder opening 67 on the optical axis) in the first observation state, one of the display areas S (see FIG. 9). Only the part can be observed.

そこで、第3観察状態では、HMD1は、ユーザーから表示画像の全体が観察できるように、所定の縮小率(=(Uh/Sh)=(Uw/Sw))で画像を縮小する。また、HMD1は、この縮小した画像を、表示領域U(図9を参照)に表示させる。ここで、HMD1は、表示領域S(図9を参照)における表示領域Uの位置を、ユーザーの眼の位置ずれ量及び方向に応じて定める。第3観察状態では、表示領域Uは、表示領域Sの右上に定められている。   Therefore, in the third observation state, the HMD 1 reduces the image at a predetermined reduction rate (= (Uh / Sh) = (Uw / Sw)) so that the entire display image can be observed from the user. Further, the HMD 1 displays the reduced image in the display area U (see FIG. 9). Here, the HMD 1 determines the position of the display area U in the display area S (see FIG. 9) according to the positional deviation amount and direction of the user's eyes. In the third observation state, the display area U is defined at the upper right of the display area S.

ここで、結像レンズ71及び撮像素子72から成る撮像系の記録画素数は、例えば、横640画素、縦480画素であるとする。また、結像レンズ71及び撮像素子72から成る撮像系の画角は、横60度、縦45度であるとする。この場合、1画素当たりの画角は、約0.094度となる。   Here, it is assumed that the number of recording pixels of the imaging system including the imaging lens 71 and the imaging element 72 is, for example, 640 pixels wide and 480 pixels vertically. Further, it is assumed that the angle of view of the imaging system including the imaging lens 71 and the imaging element 72 is 60 degrees lateral and 45 degrees longitudinal. In this case, the angle of view per pixel is about 0.094 degrees.

したがって、ユーザーの眼の位置の水平方向のずれ量(ベクトルV1のX成分量)が、例えば、50画素であれば、ユーザーの眼の位置は、4.7度(=50画素×0.094度)ほどずれていることになる。表示領域S(図9を参照)の水平方向(Sw:800画素)の視野角が、例えば、35度であれば、HMD1は、表示パネル63の中心から、108画素分(=Sw×4.7度÷35度)だけ、水平方向右に表示領域Uの位置を定める。HMD1は、垂直方向についても同様に、所定画素数だけずらした位置に表示領域Uを定める。   Therefore, if the amount of horizontal displacement of the user's eye position (X component amount of the vector V1) is, for example, 50 pixels, the user's eye position is 4.7 degrees (= 50 pixels × 0.094). Degree). If the viewing angle in the horizontal direction (Sw: 800 pixels) of the display area S (see FIG. 9) is, for example, 35 degrees, the HMD 1 is 108 pixels (= Sw × 4. The position of the display area U is determined to the right in the horizontal direction by 7 degrees / 35 degrees. Similarly, in the vertical direction, the HMD 1 defines the display area U at a position shifted by a predetermined number of pixels.

図14及び図15では、HMD1は、表示領域Uの水平方向Uwが500画素、縦方向Uhが375画素となるまで画像を縮小し、表示領域Sの中心から水平方向右に108画素、且つ、ベクトルV1のz成分量(=V1z)に対応する前記所定画素数だけ垂直方向上にずらした位置に、表示領域Uを定める。表示領域Uには、表示領域Uと同じ縮小率で縮小された画像が表示される。これにより、ユーザーの眼eyeが光軸上からずれた場合でも、HMD1は、画像の全体が見えるよう、その画像を表示することができる。   14 and 15, the HMD 1 reduces the image until the horizontal direction Uw of the display area U is 500 pixels and the vertical direction Uh is 375 pixels, 108 pixels to the right in the horizontal direction from the center of the display area S, and A display area U is defined at a position shifted vertically by the predetermined number of pixels corresponding to the z component amount (= V1z) of the vector V1. In the display area U, an image reduced at the same reduction ratio as the display area U is displayed. Thereby, even when the user's eye eye is shifted from the optical axis, the HMD 1 can display the image so that the entire image can be seen.

HMD1は、撮像画像から、例えば、眼の輪郭の画像を抽出し、抽出した眼の輪郭の画像の位置に基づいて、眼の位置ずれ量及び方向(ベクトルV1)を検出する。ここで、眼の位置ずれ量及び方向の検出は、撮像画像から眼球の画像を抽出し、抽出した眼球の輪郭画像のずれ量に基づいて、その眼の位置ずれ量及び方向を検出してもよい。また、HMD1は、眼球照明ライトLED166a〜166d(図2を参照)を適宜点灯させ、それらの眼球照明ライトが投射した光によるスポットを、ユーザーの眼球上で測定することで、ベクトルV1を検出するようにしてもよい。   The HMD 1 extracts, for example, an eye contour image from the captured image, and detects an eye displacement amount and direction (vector V1) based on the extracted position of the eye contour image. Here, the detection of the eye position deviation amount and direction may be performed by extracting an eyeball image from the captured image and detecting the eye position deviation amount and direction based on the extracted deviation amount of the outline image of the eyeball. Good. Further, the HMD 1 detects the vector V1 by appropriately turning on the eyeball illumination lights LEDs 166a to 166d (see FIG. 2) and measuring spots on the eyeball of the user projected by the eyeball illumination lights. You may do it.

上述したように、ユーザーの眼が表示部60から離れている、又は、光軸からずれている場合でも、HMD1では、ユーザーと表示部60との位置関係に応じて、ユーザーが画像の全領域を観察可能となるように、表示部60に画像を表示することができる。なお、表示領域を定めるタイミングは、注視点検出のためのキャリブレーション処理(後述)の前後のいずれでもよい。   As described above, even when the user's eyes are separated from the display unit 60 or deviated from the optical axis, in the HMD 1, the user can select the entire area of the image according to the positional relationship between the user and the display unit 60. An image can be displayed on the display unit 60 so that the image can be observed. Note that the timing for determining the display area may be before or after calibration processing (described later) for detecting a point of interest.

次に、表示部60の配置と、ユーザーの眼の撮像について説明する。
図16は、眼の正面に表示部60を配置して、眼を含む周辺の画像を撮像する例を説明する図である。図17は、本実施形態に係る眼の下側に表示部60を配置して、眼を下から撮像する例を説明する図である。
Next, arrangement of the display unit 60 and imaging of the user's eyes will be described.
FIG. 16 is a diagram illustrating an example in which the display unit 60 is arranged in front of the eyes and a peripheral image including the eyes is captured. FIG. 17 is a diagram illustrating an example in which the display unit 60 is arranged on the lower side of the eye according to the present embodiment and the eye is imaged from below.

図16及び図17において、符号L11は、ユーザーの下瞼から眉毛までの距離を表している。また、図16及び図17において、距離L11は、40[mm]である。また、図16及び図17において、ユーザーの顔を横から見た場合における、上下方向をZ軸方向と、前後方向をY軸方向と称する。   In FIG.16 and FIG.17, the code | symbol L11 represents the distance from a user's lower eyelid to eyebrows. Further, in FIGS. 16 and 17, the distance L11 is 40 [mm]. 16 and 17, when the user's face is viewed from the side, the vertical direction is referred to as the Z-axis direction, and the front-back direction is referred to as the Y-axis direction.

図16に示すように、眼の正面に表示部60を配置した場合、ユーザーの下瞼から眉毛までを撮像するためには、幅L11以上(例えば、幅L31)を撮像できるまで、表示部60の結像レンズ71を、ユーザーの顔から遠ざける必要がある。ここで、幅L31は、例えば、70[mm]である。幅L31の範囲が撮像される場合、ユーザーの眼から結像レンズ71の中心まで、距離L21だけ離される必要がある。ここで、距離L21は、例えば85[mm]である。   As shown in FIG. 16, when the display unit 60 is arranged in front of the eyes, in order to image from the user's lower eyelid to eyebrows, the display unit 60 is captured until a width L11 or more (for example, width L31) can be imaged. It is necessary to keep the imaging lens 71 away from the user's face. Here, the width L31 is, for example, 70 [mm]. When the range of the width L31 is imaged, the distance L21 needs to be separated from the user's eye to the center of the imaging lens 71. Here, the distance L21 is, for example, 85 [mm].

なお、距離L21は、図8に示した光学系において、第1プリズム65a、第2プリズム65b等の光路長も含んでいる。仮に、第1プリズム65a、第2プリズム65b等の光路長の合計が20[mm]であるとすると、ユーザーの顔からY軸方向に65(=85−20)[mm]だけ、表示部60を遠ざける必要がある。   The distance L21 also includes the optical path lengths of the first prism 65a, the second prism 65b, etc. in the optical system shown in FIG. Assuming that the total optical path length of the first prism 65a, the second prism 65b, etc. is 20 [mm], the display unit 60 is only 65 (= 85-20) [mm] in the Y-axis direction from the user's face. It is necessary to keep away.

従って、眼の正面に表示部60を配置した場合、ユーザーの下瞼から眉毛までを撮像するためには、表示部60は、ユーザーの顔から遠ざけられた位置に配置される必要がある。   Therefore, when the display unit 60 is disposed in front of the eyes, the display unit 60 needs to be disposed at a position away from the user's face in order to capture an image from the user's lower eyelid to the eyebrows.

一方、図17に示すように、眼の下側に表示部60が配置された場合、ユーザーの下瞼から眉毛までの距離L11の範囲を撮像するためには、幅L61の撮像範囲を撮像する必要がある。ここで、下から煽るように撮像しているため、幅L61は、図16に示した幅L31より短い。例えば、幅L61は、20[mm]である。この撮像範囲20[mm]を確保するために必要な撮影距離(距離L51)は、例えば、45[mm]である。   On the other hand, as shown in FIG. 17, when the display unit 60 is arranged on the lower side of the eye, in order to image the range of the distance L11 from the user's lower eyelid to the eyebrows, the imaging range of the width L61 is captured There is a need. Here, since the image is picked up from below, the width L61 is shorter than the width L31 shown in FIG. For example, the width L61 is 20 [mm]. An imaging distance (distance L51) necessary for securing the imaging range 20 [mm] is, for example, 45 [mm].

図16と同様に、第1プリズム65a、第2プリズム65b等の光路長の合計が20[mm]である場合、表示部60は、ユーザーの顔から25[mm]だけ遠ざけられる。また、Y軸方向に対して表示部60が角度β傾けてられている場合、顔から結像レンズ71までのY軸方向の距離は、45[mm]にcosβが乗算された値となる。   Similarly to FIG. 16, when the total optical path length of the first prism 65a, the second prism 65b, etc. is 20 [mm], the display unit 60 is moved away from the user's face by 25 [mm]. When the display unit 60 is inclined by an angle β with respect to the Y-axis direction, the distance in the Y-axis direction from the face to the imaging lens 71 is a value obtained by multiplying cos β by 45 [mm].

HMD1は、眼の下に配置された表示部60が、眼の周辺画像を撮像できるので(図17を参照)、表示部60が眼の正面に配置された場合と比較して(図16を参照)、顔から表示部60までの距離が短い。これにより、HMD1は、大型化してしまうことがない。また、HMD1は、表示部60がユーザーの正面に配置されないため、表示部60がユーザーの正面視野を遮ることもない。さらに、HMD1は、表示部60がユーザーの顔の近傍に配置されることも可能なので、例えば、狭い作業空間などにおいて、表示部60が邪魔になることもない。   In the HMD 1, the display unit 60 arranged under the eyes can capture a peripheral image of the eye (see FIG. 17), so that the HMD 1 is compared with the case where the display unit 60 is arranged in front of the eyes (see FIG. 16). See), and the distance from the face to the display unit 60 is short. Thereby, HMD1 does not enlarge. Moreover, since the display part 60 is not arrange | positioned in front of a user, HMD1 does not block the front view of a user. Furthermore, since the display part 60 can also be arrange | positioned in the vicinity of a user's face, the display part 60 does not become obstructive, for example in a narrow work space.

また、HMD1は、表示部60が眼の下に配置された場合、表示部60が眼の正面に配置された場合と比較して(図16を参照)、眼球照明ライト166の輝度を低くしてもよい。これにより、HMD1は、消費電力を低減させることができる。   In addition, the HMD 1 lowers the luminance of the eyeball illumination light 166 when the display unit 60 is disposed under the eyes as compared with the case where the display unit 60 is disposed in front of the eyes (see FIG. 16). May be. Thereby, HMD1 can reduce power consumption.

次に、右眼観察形態と左眼観察形態との切り替えに伴う、撮像素子72の設置角度の調整について説明する。
図18は、本実施形態に係る撮像素子72の画角と選択範囲を説明する図である。図18(A)は、右眼観察形態における撮像素子72の画角と選択範囲を説明する図である。
図18(B)は、左眼観察形態における撮像素子72の画角と選択範囲を説明する図である。なお、図18(A)及び図18(B)では、第1ヘッドバンド43、第2ヘッドバンド44、装置本体部21等は、図示が省略されている。
Next, adjustment of the installation angle of the image sensor 72 that accompanies switching between the right eye observation mode and the left eye observation mode will be described.
FIG. 18 is a diagram illustrating the angle of view and the selection range of the image sensor 72 according to the present embodiment. FIG. 18A is a diagram for explaining the angle of view and the selection range of the image sensor 72 in the right-eye observation mode.
FIG. 18B is a diagram for explaining the angle of view and the selection range of the image sensor 72 in the left-eye observation mode. In FIGS. 18A and 18B, the first headband 43, the second headband 44, the apparatus main body 21 and the like are not shown.

図19は、本実施形態に係る撮像領域と選択領域を説明する図である。図19(A)は、ヘッドバンドヒンジ32(図2を参照)が揺動された場合における、撮像素子72(図3を参照)による撮像領域を説明する図である。また、図19(B)は、撮像領域から選択された選択領域を説明する図である。ここで、符号Pは、撮像素子72が撮像可能な範囲を示す符号である。また、撮像素子72は、例えば、4対3のアスペクト比を有する。   FIG. 19 is a diagram illustrating an imaging area and a selection area according to the present embodiment. FIG. 19A is a diagram illustrating an imaging region by the imaging element 72 (see FIG. 3) when the headband hinge 32 (see FIG. 2) is swung. FIG. 19B is a diagram for explaining a selection area selected from the imaging area. Here, the symbol P is a symbol indicating a range in which the image sensor 72 can capture an image. The image sensor 72 has, for example, an aspect ratio of 4 to 3.

右眼観察形態の場合、第1表示モード(図5(A)を参照)では、撮像素子72は、撮像領域のアスペクトが縦長になるように、表示部60内に設けられている。この場合、撮像素子72は、図18(A)及び図19(B)に示すように、符号Pで示した領域(以下、「撮像領域P」という)のうち、符号Qで示された領域(以下、「選択領域Q」という)に撮像される範囲のみの画像データを取り込む。これにより、撮像素子72は、右眼観察形態において、眉毛まで含めて右眼の画像データを適切に取り込むことができる。   In the case of the right-eye observation mode, in the first display mode (see FIG. 5A), the image sensor 72 is provided in the display unit 60 so that the aspect of the imaging region is vertically long. In this case, as shown in FIGS. 18 (A) and 19 (B), the image sensor 72 is a region indicated by a symbol Q among regions indicated by a symbol P (hereinafter referred to as “imaging region P”). The image data of only the range to be imaged is taken in (hereinafter referred to as “selected area Q”). Thereby, the image sensor 72 can appropriately capture the image data of the right eye including the eyebrows in the right eye observation mode.

一方、左眼観察形態の場合、第1表示モード(図5(B)を参照)では、撮像素子72は、撮像領域のアスペクトが縦長になるように、表示部60内に設けられている。この場合、撮像素子72は、図18(B)及び図19(B)に示すように、撮像領域Pのうち、符号Rで示された領域(以下、「選択領域R」という)に撮像される範囲のみの画像データを取り込む。これにより、撮像素子72は、左眼観察形態において、眉毛まで含めて左眼の画像データを適切に取り込むことができる。   On the other hand, in the case of the left-eye observation mode, in the first display mode (see FIG. 5B), the image sensor 72 is provided in the display unit 60 so that the aspect of the imaging region is vertically long. In this case, as shown in FIGS. 18B and 19B, the imaging element 72 is imaged in an area indicated by a symbol R (hereinafter referred to as “selection area R”) in the imaging area P. Image data of only the range. Thereby, the image sensor 72 can appropriately capture the image data of the left eye including the eyebrows in the left-eye observation mode.

また、HMD1は、右眼観察形態又は左眼観察形態のいずれであるかを、加速度センサー132が検出した検出値(後述)の代わりに、撮像素子72による撮像画像に基づいて適切に判定することができる。なお、右眼観察形態又は左眼観察形態のいずれであるかを判別する方法は、後述する。   Moreover, HMD1 determines appropriately whether it is a right eye observation form or a left eye observation form based on the picked-up image by the image pick-up element 72 instead of the detection value (after-mentioned) which the acceleration sensor 132 detected. Can do. A method for determining whether the observation mode is the right eye observation mode or the left eye observation mode will be described later.

図20は、本実施形態に係る選択範囲の選択を機械的に行う機構を説明する図である。
撮像素子72の本体72aには、回転軸72bが固定されている。この回転軸72bに対しては、ダイヤル72cが設けられている。ユーザーは、ダイヤル72cを回動可能範囲で回動(図20では、D方向)にさせることで、回転軸72bを軸として、撮像素子72をチルトさせることができる。
FIG. 20 is a diagram illustrating a mechanism for mechanically selecting a selection range according to the present embodiment.
A rotation shaft 72 b is fixed to the main body 72 a of the image sensor 72. A dial 72c is provided for the rotating shaft 72b. The user can tilt the imaging device 72 about the rotation shaft 72b by rotating the dial 72c within the rotatable range (D direction in FIG. 20).

結像レンズ71が上を向く方向にチルトされた場合、選択領域Q(図19(B)を参照)は、撮像領域Pにおける上側の領域に定められる。これにより、撮像素子72は、ユーザーの眼及び眉毛を、撮像領域Qで撮像することができる。一方、結像レンズ71の下を向く方向にチルトされた場合、選択領域R(図19(B)を参照)は、撮像領域Pの下側の領域に定められる。これにより、撮像素子72は、ユーザーの眼及び眉毛を、撮像領域Rで撮像することができる。   When the imaging lens 71 is tilted in the upward direction, the selection area Q (see FIG. 19B) is determined as an upper area in the imaging area P. Thereby, the image sensor 72 can image the user's eyes and eyebrows in the imaging region Q. On the other hand, when tilted in the direction toward the bottom of the imaging lens 71, the selection region R (see FIG. 19B) is defined as a lower region of the imaging region P. Thereby, the image sensor 72 can image the user's eyes and eyebrows in the imaging region R.

なお、HMD1は、ダイヤル72cにより、撮像領域Q又は選択領域Rの位置を微調節することも可能である。また、撮像素子72による撮像画像が表示部60に表示された場合、ユーザーは、表示部60に表示されている撮像画像を観察しながら、表示部60と眼の位置関係に応じて、撮像素子72の撮像領域を選択することができる。この結果、HMD1は、範囲が適切になるよう撮像された撮像画像を用いて、HMD1の位置合わせ(後述)、及び注視点検出のためのキャリブレーションの精度を高めることができる。   The HMD 1 can also finely adjust the position of the imaging area Q or the selection area R with the dial 72c. When a captured image by the image sensor 72 is displayed on the display unit 60, the user observes the captured image displayed on the display unit 60 and determines the image sensor according to the positional relationship between the display unit 60 and the eyes. 72 imaging areas can be selected. As a result, the HMD 1 can increase the accuracy of calibration for HMD 1 alignment (described later) and gaze point detection using a captured image that is captured so that the range is appropriate.

次に、HMD1の機能ブロックについて説明する。
図21は、本実施形態に係るヘッドマウントディスプレイ1の機能ブロック図である。
HMD1には、処理部123を中心として種々の電気回路が備えられている。処理部123は、例えば、CPU(中央演算装置:Central Processing Unit)であり、HMD1の各種回路と接続されるとともに、HMD1を総合的に制御する。処理部123は、例えば、「左右の眼に検出処理」、「装着ガイドの処理」、「眼球照明ライトの選択処理」、「注視点のキャリブレーション処理」、及び「業務ロギングの処理」等を行う。なお、処理部123が行う各処理については、後述する。
Next, functional blocks of the HMD 1 will be described.
FIG. 21 is a functional block diagram of the head mounted display 1 according to the present embodiment.
The HMD 1 includes various electric circuits centering on the processing unit 123. The processing unit 123 is, for example, a CPU (Central Processing Unit), and is connected to various circuits of the HMD 1 and comprehensively controls the HMD 1. The processing unit 123 performs, for example, “detection processing on left and right eyes”, “mounting guide processing”, “eyeball illumination light selection processing”, “gazing point calibration processing”, “business logging processing”, and the like. Do. Each process performed by the processing unit 123 will be described later.

バッテリー33は、電力を電源回路120に供給する。
電源回路120は、バッテリー33から供給された電力を、処理部123の制御によりHMD1の各部に供給する。
The battery 33 supplies power to the power supply circuit 120.
The power supply circuit 120 supplies the power supplied from the battery 33 to each unit of the HMD 1 under the control of the processing unit 123.

本実施形態の場合、処理部123には、エンコーダー129及びデコーダー121、電源回路120、操作スイッチ30、フラッシュメモリー122、BLドライバ126、BT通信回路130、WiFi通信回路131、加速度センサー132、地磁気センサー133、前方ライト68、3G/LTE通信回路138、レーザー発信器73、角速度センサー134、GPSセンサー(測位センサー)135、温湿度センサー136、心拍数センサー137、メモリー127、メインスイッチ28、タッチスイッチ34、ヘッドバンドセンサー151、眼球照明ライト166a〜166dが接続されている。   In the present embodiment, the processing unit 123 includes an encoder 129 and a decoder 121, a power supply circuit 120, an operation switch 30, a flash memory 122, a BL driver 126, a BT communication circuit 130, a WiFi communication circuit 131, an acceleration sensor 132, and a geomagnetic sensor. 133, front light 68, 3G / LTE communication circuit 138, laser transmitter 73, angular velocity sensor 134, GPS sensor (positioning sensor) 135, temperature / humidity sensor 136, heart rate sensor 137, memory 127, main switch 28, touch switch 34 The headband sensor 151 and the eyeball illumination lights 166a to 166d are connected.

エンコーダー129は音声信号及び画像信号を所定方式の音声データ及び画像データにエンコード(符号化)する。エンコーダー129には、カメラ64、撮像素子72、集音マイク24、通話マイク37、オーディオコネクター26、ビデオコネクター27が接続されている。   The encoder 129 encodes (encodes) the audio signal and the image signal into audio data and image data of a predetermined method. Connected to the encoder 129 are a camera 64, an image sensor 72, a sound collection microphone 24, a call microphone 37, an audio connector 26, and a video connector 27.

エンコーダー129には、集音マイク24及び通話マイク37から入力される音声信号、カメラ64から入力される画像信号、オーディオコネクター26から入力される音声信号、ビデオコネクター27から入力される画像信号、及び、眼の周辺画像を撮影する撮像素子72の画像信号が入力される。エンコーダー129に入力された音声信号及び画像信号は音声データ及び画像データにエンコードされた後、処理部123に入力される。入力された音声データ及び画像像データは、処理部123による再生動作に用いられたり、フラッシュメモリー122に記録される。   The encoder 129 includes an audio signal input from the sound collection microphone 24 and the call microphone 37, an image signal input from the camera 64, an audio signal input from the audio connector 26, an image signal input from the video connector 27, and Then, an image signal of the image sensor 72 that captures a peripheral image of the eye is input. The audio signal and image signal input to the encoder 129 are encoded into audio data and image data, and then input to the processing unit 123. The input audio data and image image data are used for a reproduction operation by the processing unit 123 or recorded in the flash memory 122.

デコーダー121は、音声データ及び画像データを音声信号及び画像信号にデコード(復号化)する。デコーダー121には、LCDドライバ125、スピーカーアンプ162、オーディオコネクター26、及びビデオコネクター27が接続されている。LCDドライバ125は液晶パネル用の駆動制御装置であり、表示パネル36及び表示パネル63に接続されている。スピーカーアンプ162は音声信号を増幅してスピーカーに出力する装置であり、耳元スピーカー23及び前方スピーカー70に接続されている。   The decoder 121 decodes (decodes) audio data and image data into audio signals and image signals. An LCD driver 125, a speaker amplifier 162, an audio connector 26, and a video connector 27 are connected to the decoder 121. The LCD driver 125 is a drive control device for a liquid crystal panel, and is connected to the display panel 36 and the display panel 63. The speaker amplifier 162 is a device that amplifies an audio signal and outputs it to the speaker, and is connected to the ear speaker 23 and the front speaker 70.

画像データを再生する場合、フラッシュメモリー122に記録された画像データ、あるいはエンコーダー129から入力される画像データは、処理部123を介してデコーダー121に入力される。デコーダー121に入力された画像データは、画像信号にデコードされた後、LCDドライバ125を介して表示パネル36、63に供給される。そして、画像信号が入力された表示パネル36又は表示パネル63に画像データに基づく画像が表示される。また、デコーダー121からビデオコネクター27に出力される画像信号は、ビデオコネクター27を介して外部機器に出力される。   When reproducing the image data, the image data recorded in the flash memory 122 or the image data input from the encoder 129 is input to the decoder 121 via the processing unit 123. The image data input to the decoder 121 is decoded into an image signal and then supplied to the display panels 36 and 63 via the LCD driver 125. Then, an image based on the image data is displayed on the display panel 36 or the display panel 63 to which the image signal is input. The image signal output from the decoder 121 to the video connector 27 is output to an external device via the video connector 27.

また画像の表示に際して、処理部123は、必要に応じて表示パネル36用のバックライト35、及び表示パネル63用のバックライト62を点灯させる。BLドライバ126は、バックライト用の駆動制御装置であり、バックライト35及びバックライト62に接続されている。処理部123は、BLドライバ126に駆動信号を送信し、BLドライバ126はバックライト35、62を個々に点灯させる。   When displaying an image, the processing unit 123 turns on the backlight 35 for the display panel 36 and the backlight 62 for the display panel 63 as necessary. The BL driver 126 is a drive control device for the backlight, and is connected to the backlight 35 and the backlight 62. The processing unit 123 transmits a drive signal to the BL driver 126, and the BL driver 126 lights the backlights 35 and 62 individually.

音声データを再生する場合、フラッシュメモリー122に記録された音声データ、あるいはエンコーダー129から入力される音声データは、処理部123を介してデコーダー121に入力される。デコーダー121に入力された音声データは、音声信号にデコードされた後、スピーカーアンプ162を介して耳元スピーカー23及び前方スピーカー70のいずれか一方、又は両方に出力される。そして、音声信号を入力された耳元スピーカー23又は前方スピーカー70から音声が出力される。また、デコーダー121からオーディオコネクター26に出力される音声信号は、オーディオコネクター26を介してステレオイヤホン100に出力される。   When reproducing the audio data, the audio data recorded in the flash memory 122 or the audio data input from the encoder 129 is input to the decoder 121 via the processing unit 123. The audio data input to the decoder 121 is decoded into an audio signal and then output to one or both of the ear speaker 23 and the front speaker 70 via the speaker amplifier 162. Then, sound is output from the ear speaker 23 or the front speaker 70 to which the sound signal is input. The audio signal output from the decoder 121 to the audio connector 26 is output to the stereo earphone 100 via the audio connector 26.

本実施形態の場合、耳元スピーカー23及び前方スピーカー70は、モノラル音声の使用を想定しており、耳元スピーカー23及び前方スピーカー70からは左右の音声信号が合成された音が発せられる。   In the case of this embodiment, the ear speaker 23 and the front speaker 70 are assumed to use monaural sound, and the ear speaker 23 and the front speaker 70 emit a sound in which left and right audio signals are synthesized.

一方、ステレオイヤホン100に音声信号が出力される場合、第1スピーカー103及び第2スピーカー104のそれぞれ左チャンネル又は右チャンネルの音が出力される。ここで、本実施形態のHMD1は左右両用であるため、装着位置に応じてステレオイヤホン100への音声信号のチャンネルが切り替わる。すなわち、ディスプレイ本体20が右眼に装着されている場合には、第1スピーカー103に右チャンネル、第2スピーカー104に左チャンネルの音が出力される。ディスプレイ本体20が左眼に装着されている場合には第1スピーカー103に左チャンネル、第2スピーカー104に右チャンネルの音が出力される。   On the other hand, when an audio signal is output to the stereo earphone 100, the sound of the left channel or the right channel of the first speaker 103 and the second speaker 104 is output. Here, since the HMD 1 of this embodiment is for both left and right, the channel of the audio signal to the stereo earphone 100 is switched according to the mounting position. That is, when the display body 20 is attached to the right eye, the right channel sound is output to the first speaker 103 and the left channel sound is output to the second speaker 104. When the display body 20 is attached to the left eye, the left channel sound is output to the first speaker 103 and the right channel sound is output to the second speaker 104.

メモリー127には、処理部123によって実行される制御プログラムが記憶されている。
全体の電源のオンオフを行うメインスイッチ28や、画面内でのポインティング操作を行うための操作スイッチ30、あるいはタッチ操作により各種操作を行うタッチスイッチ34がユーザーにされると、これらのスイッチから操作に基づく制御信号が処理部123へ出力される。処理部123は、制御信号により操作を検出し、上記の制御プログラムに規定された動作を実行する。
The memory 127 stores a control program executed by the processing unit 123.
When the user operates the main switch 28 for turning on / off the entire power source, the operation switch 30 for performing a pointing operation in the screen, or the touch switch 34 for performing various operations by a touch operation, these switches are used for the operation. A control signal is output to the processing unit 123. The processing unit 123 detects an operation based on the control signal, and executes an operation defined in the control program.

BT通信回路130は、他の機器とのBluetooth(登録商標)通信を行うための通信回路である。WiFi通信回路131は、他の機器との無線LAN通信(IEEE
802.11)を行うための通信回路である。3G/LTE通信回路138は、他の機器との移動通信を行うための通信回路である。
The BT communication circuit 130 is a communication circuit for performing Bluetooth (registered trademark) communication with other devices. The WiFi communication circuit 131 is a wireless LAN communication (IEEE) with other devices.
It is a communication circuit for performing 802.11). The 3G / LTE communication circuit 138 is a communication circuit for performing mobile communication with other devices.

加速度センサー132は、HMD1の傾き検出に用いられる。加速度センサー132は、例えば3軸センサーであり、重力加速度を検出する。加速度センサー132は、例えば、装置本体部21内に取り付けられている。   The acceleration sensor 132 is used for detecting the inclination of the HMD 1. The acceleration sensor 132 is a triaxial sensor, for example, and detects gravitational acceleration. The acceleration sensor 132 is attached, for example, in the apparatus main body 21.

以下、加速度センサー132の座標は、地表に直立したユーザーがHMD1を頭に装着している場合における、ユーザーにとっての上下方向をZ軸方向、左右方向をX軸方向、前後方向をY軸方向とする。また、加速度センサー132は、右眼観察形態の場合にZ軸方向の検出値が負値となり、左眼観察形態の場合にZ軸方向の検出値が正値となるように、取り付けられている。   Hereinafter, the coordinates of the acceleration sensor 132 are as follows: when the user standing upright on the ground is wearing the HMD 1 on the head, the vertical direction for the user is the Z-axis direction, the horizontal direction is the X-axis direction, and the front-back direction is the Y-axis direction. To do. The acceleration sensor 132 is attached so that the detected value in the Z-axis direction becomes a negative value in the case of the right-eye observation form, and the detected value in the Z-axis direction becomes a positive value in the case of the left-eye observation form. .

地磁気センサー133は、HMD1の方角検出に用いられる。角速度センサー(ジャイロセンサー)134は、HMD1の回転検出に用いられる。GPSセンサー135はGPS(Global Positioning System)を利用した測位検出に用いられる。温湿度センサー136は、環境の温度、湿度の検出に用いられる。
心拍数センサー137は、ユーザーの頬に接触し、ユーザーの心拍数を検出し、検出した検出値を装着処理部311に出力する。心拍数センサー137は、例えば、赤外線を照射し、この赤外線の反射波に基づいて心拍数を測定し、測定した心拍数を示す情報を検出値として制御部302に出力する。また、心拍数センサー137は、赤外線の反射波に基づいて、HMD1が頭部近傍数センチ以内にあることを検出し制御部302に出力する。
The geomagnetic sensor 133 is used for detecting the direction of the HMD 1. An angular velocity sensor (gyro sensor) 134 is used to detect rotation of the HMD 1. The GPS sensor 135 is used for positioning detection using GPS (Global Positioning System). The temperature / humidity sensor 136 is used to detect the temperature and humidity of the environment.
The heart rate sensor 137 contacts the user's cheek, detects the user's heart rate, and outputs the detected detection value to the wearing processing unit 311. For example, the heart rate sensor 137 irradiates infrared rays, measures the heart rate based on the reflected wave of the infrared rays, and outputs information indicating the measured heart rate to the control unit 302 as a detection value. Further, the heart rate sensor 137 detects that the HMD 1 is within several centimeters of the vicinity of the head based on the infrared reflected wave, and outputs it to the control unit 302.

ヘッドバンドセンサー151はヘッドバンド40に設けられた連結ピン41を検出するセンサーである。具体的にヘッドバンドセンサー151は、連結ピン41が連結孔31に挿通された状態、すなわち、ヘッドバンド40とディスプレイ本体20とが連結された状態を検出し、検出した結果を示す検出信号を処理部123へ出力する。なお、ヘッドバンドセンサー151は、ヘッドバンド40の代わりに例えばヘルメットのようなものにディスプレイ本体20が装着される場合を想定して、ヘルメットに設けられた連結ピン41を検出するものであっても良い。   The headband sensor 151 is a sensor that detects the connecting pin 41 provided on the headband 40. Specifically, the headband sensor 151 detects a state where the connection pin 41 is inserted into the connection hole 31, that is, a state where the headband 40 and the display main body 20 are connected, and processes a detection signal indicating the detection result. Output to the unit 123. Note that the headband sensor 151 may detect the connecting pin 41 provided on the helmet on the assumption that the display body 20 is mounted on a helmet or the like instead of the headband 40. good.

図22は、本実施形態に係る処理部123の機能ブロック図である。処理部123は、入力検出部301、制御部302、記憶部303、眼球照明部304、音響制御部(報知部)305、画像切替部306、画像表示部307、及び送受信部308、行動履歴登録部309、及び観察可否判定部310、を備えている。図22では、WiFi通信回路131及び3G/LTE通信回路138(図21を参照)を、「通信インタフェース(131、138)」と総称する。   FIG. 22 is a functional block diagram of the processing unit 123 according to the present embodiment. The processing unit 123 includes an input detection unit 301, a control unit 302, a storage unit 303, an eyeball illumination unit 304, an acoustic control unit (notification unit) 305, an image switching unit 306, an image display unit 307, a transmission / reception unit 308, and an action history registration. Unit 309 and an observation availability determination unit 310. In FIG. 22, the WiFi communication circuit 131 and the 3G / LTE communication circuit 138 (see FIG. 21) are collectively referred to as “communication interfaces (131, 138)”.

入力検出部301は、タッチスイッチ34上で行われた操作の種類を判別し、判別した結果に基づく制御信号を、制御部302、画像切替部306、及び送受信部308に出力する。タッチスイッチ34上で行われた操作の種類とは、発信の指示、及び受信の指示等である。入力検出部301は、タッチスイッチ34上の所定の領域がタッチされた場合、タッチされた領域に基づいて、これらの操作の種類を判別する。   The input detection unit 301 determines the type of operation performed on the touch switch 34, and outputs a control signal based on the determined result to the control unit 302, the image switching unit 306, and the transmission / reception unit 308. The types of operations performed on the touch switch 34 are a transmission instruction, a reception instruction, and the like. When a predetermined area on the touch switch 34 is touched, the input detection unit 301 determines the type of these operations based on the touched area.

制御部302は、加速度センサー132が検出した検出値、及び撮像素子72による撮像画像の少なくとも一方に基づいて、右眼観察形態又は右眼観察形態を判別する。ここで、制御部302は、撮像素子72による撮像画像については、例えば、眉毛と眼との相対位置、瞬きでの瞼の挙動、眉毛の輪郭、眼の輪郭、眼の左右の目尻の下がり方等に基づいて、撮像画像に映っているユーザーの眼が、左右どちらの眼の画像であるか(右眼観察形態又は右眼観察形態)を判別する。   The control unit 302 determines the right-eye observation form or the right-eye observation form based on at least one of the detection value detected by the acceleration sensor 132 and the image captured by the image sensor 72. Here, with respect to the image captured by the image sensor 72, the control unit 302, for example, the relative position between the eyebrows and the eye, the behavior of eyelids in blinking, the eyebrow contour, the eye contour, and the lowering of the left and right corners of the eye Based on the above, it is determined whether the user's eye shown in the captured image is an image of the left or right eye (right eye observation form or right eye observation form).

制御部302は、撮像画像に映っているユーザーの眼が左右どちらの眼の画像であるか判別した結果に基づいて、眼球照明ライト166の点灯及び消灯を制御する。また、制御部302は、判別した結果に基づいて、オーディオコネクター26に接続されているステレオイヤホン100に出力する音声を制御する。また、制御部302は、判別した結果に基づいて、表示部60から投影する画像を制御する。   The control unit 302 controls lighting and extinguishing of the eyeball illumination light 166 based on the result of determining whether the user's eye shown in the captured image is an image of the left or right eye. Further, the control unit 302 controls the sound output to the stereo earphone 100 connected to the audio connector 26 based on the determined result. Further, the control unit 302 controls an image projected from the display unit 60 based on the determined result.

記憶部303には、検査対象装置に対応する検査位置をカウントするためのカウント用の値i(iは0以上の整数)が記憶されている。なお、検査対象装置とは、ユーザーが検査を行う対象の装置である。記憶部303には、GPSセンサー135が測位した測位情報に基づく情報が記憶される。記憶部303には、ユーザーIDが記憶されている。記憶部303には、制御部302が生成した、視線に基づいて操作するためのパラメータが記憶されている。   The storage unit 303 stores a count value i (i is an integer of 0 or more) for counting the inspection position corresponding to the inspection target apparatus. The inspection target device is a device to be inspected by the user. Information based on the positioning information measured by the GPS sensor 135 is stored in the storage unit 303. The storage unit 303 stores a user ID. The storage unit 303 stores parameters for operation based on the line of sight generated by the control unit 302.

眼球照明部304は、制御部302または行動履歴登録部309の制御に基づいて、眼球照明ライト166a〜166dを、点灯または消灯させるように駆動する。   The eyeball illumination unit 304 drives the eyeball illumination lights 166a to 166d to be turned on or off based on the control of the control unit 302 or the action history registration unit 309.

音響制御部305には、エンコーダー129が出力する音声データ(HMD1のユーザーの音声データ)、送受信部308が出力する受信信号が入力される。音響制御部305は、送受信部308が出力する受信信号から、他の端末のユーザーの音声データ(以下、他端末の音声データともいう)を抽出する。音響制御部305は、制御部302が出力する装着状態を示す情報に基づいて、エンコーダー129が出力する音声データ(HMD1のユーザーの音声データ)、又は、他の端末のユーザーの音声データに基づく音声を、ステレオイヤホン100の左右どちらのスピーカーに出力するのかを選択し、左右のスピーカーの各音量等を調整する。   The sound control unit 305 receives sound data output from the encoder 129 (user HMD1 sound data) and a reception signal output from the transmission / reception unit 308. The acoustic control unit 305 extracts the voice data of the user of the other terminal (hereinafter also referred to as voice data of the other terminal) from the reception signal output from the transmission / reception unit 308. The sound control unit 305 is based on the information indicating the wearing state output by the control unit 302, and is based on the sound data output from the encoder 129 (the sound data of the user of the HMD 1) or the sound data of the user of another terminal Is output to the left or right speaker of the stereo earphone 100, and the volume of each of the left and right speakers is adjusted.

画像切替部306は、入力検出部301が出力した制御信号に基づき、フラッシュメモリー122から読み出した画像データ、またはエンコーダー129が出力した画像データを取得する。画像切替部306は、取得した画像データの表示モードを、制御部302が出力した装着状態を示す情報に基づいて切り替え、切り替えた表示モードで、画像データを画像表示部307に出力する。ここで、表示モードとは、例えば、第1表示モード又は第2表示モード(図43で後述)である。   The image switching unit 306 acquires the image data read from the flash memory 122 or the image data output from the encoder 129 based on the control signal output from the input detection unit 301. The image switching unit 306 switches the display mode of the acquired image data based on the information indicating the mounting state output by the control unit 302, and outputs the image data to the image display unit 307 in the switched display mode. Here, the display mode is, for example, a first display mode or a second display mode (described later in FIG. 43).

画像切替部306は、送受信部308が出力した受信信号から、画像切替信号を抽出する。画像切替部306は、画像切替信号が抽出できた場合、抽出した画像切替信号に基づき、フラッシュメモリー122から読み出した画像データ、またはエンコーダー129が出力した画像データを、画像表示部307に出力する。また、画像切替部306は、入力検出部301が出力した制御信号に基づき、エンコーダー129から出力された画像データ、またはフラッシュメモリー122から読み出した画像データの解像度を変換し、変換した画像データを画像表示部307に出力する。
画像切替部306は、観察形態に応じて表示部60に表示するための画像を回転させる角度((以下、表示角度という)例えば、0度、90度、180度、270度)を切り替える。これにより、画像切替部306は、ユーザーの姿勢がいかようにあっても、表示部60とユーザーの眼との関係に応じて、表示部60に表示する画像の表示方向を適切に切り替えて表示することができるなお、観察形態は、撮像画像に含まれるユーザーの片眼を含む領域の画像に基づいて認識される。具体的には、右眼観察形態のときの画像の表示角度を0度とした場合及び左眼観察形態のときの画像の表示角度を180度とした場合、制御部302は、右眼観察形態のときの画像の表示角度を0度に切り替え、左眼観察形態のときの画像の表示角度を180度に切り替える。
The image switching unit 306 extracts an image switching signal from the reception signal output from the transmission / reception unit 308. When the image switching signal can be extracted, the image switching unit 306 outputs the image data read from the flash memory 122 or the image data output by the encoder 129 to the image display unit 307 based on the extracted image switching signal. The image switching unit 306 converts the resolution of the image data output from the encoder 129 or the image data read from the flash memory 122 based on the control signal output from the input detection unit 301, and converts the converted image data into an image. The data is output to the display unit 307.
The image switching unit 306 switches an angle for rotating an image to be displayed on the display unit 60 (hereinafter referred to as a display angle), for example, 0 degree, 90 degrees, 180 degrees, and 270 degrees, depending on the observation form. Thereby, the image switching unit 306 appropriately switches the display direction of the image displayed on the display unit 60 according to the relationship between the display unit 60 and the user's eyes regardless of the user's posture. Note that the observation mode can be recognized based on an image of a region including one eye of the user included in the captured image. Specifically, when the display angle of the image in the right-eye observation mode is set to 0 degrees and when the display angle of the image in the left-eye observation mode is set to 180 degrees, the control unit 302 displays the right-eye observation mode. The display angle of the image at the time of is switched to 0 degrees, and the display angle of the image in the left eye observation mode is switched to 180 degrees.

画像表示部307には、画像切替部306が出力した画像データが入力される。画像表示部307は、入力されたこれらの画像データに基づき、表示パネル63に表示する画像データを生成する。画像表示部307は、生成した画像データを、送受信部308、ビデオコネクター27、及びLCDドライバ125に出力する。   The image data output from the image switching unit 306 is input to the image display unit 307. The image display unit 307 generates image data to be displayed on the display panel 63 based on these input image data. The image display unit 307 outputs the generated image data to the transmission / reception unit 308, the video connector 27, and the LCD driver 125.

送受信部308は、入力検出部301が出力した制御信号に基づき、画像表示部307が出力した画像データを、通信インタフェース(131、138)を介して送信する。送受信部308は、通信インタフェース(131、138)を介して受信した受信信号を、画像切替部306に出力する。   The transmission / reception unit 308 transmits the image data output from the image display unit 307 via the communication interface (131, 138) based on the control signal output from the input detection unit 301. The transmission / reception unit 308 outputs a reception signal received via the communication interfaces (131, 138) to the image switching unit 306.

行動履歴登録部309は、検査対象装置の検査を行うためにHMD1のユーザーが操作スイッチ30又はタッチスイッチ34を操作して「業務ロギングの処理」を開始したことに応じて、記憶部303に記憶されているユーザーIDを、送受信部308を介してサーバー200(図23参照)に送信する。
行動履歴登録部309は、送信したユーザーIDに応じてサーバー200から送信される検査情報を受信する。なお、検査情報とは、検査対象装置が配置されている位置を示す情報を含む情報である。検査対象装置が複数の場合、検査情報には、複数の検査対象装置が配置されている位置を示す情報、検査を行う順番を示す情報が含まれている。
行動履歴登録部309は、受信した検査情報と地磁気センサー133が検出した検出値とに基づいて、検査対象装置が配置されている方向を示す情報を表示パネル63に表示する。
The action history registration unit 309 stores the information in the storage unit 303 in response to the user of the HMD 1 operating the operation switch 30 or the touch switch 34 to start “business logging processing” in order to inspect the inspection target device. The transmitted user ID is transmitted to the server 200 (see FIG. 23) via the transmission / reception unit 308.
The action history registration unit 309 receives the inspection information transmitted from the server 200 according to the transmitted user ID. The inspection information is information including information indicating a position where the inspection target device is disposed. When there are a plurality of inspection target devices, the inspection information includes information indicating the positions where the plurality of inspection target devices are arranged and information indicating the order of inspection.
The action history registration unit 309 displays information indicating the direction in which the inspection target device is arranged on the display panel 63 based on the received inspection information and the detection value detected by the geomagnetic sensor 133.

なお、本発明において「業務ロギングの処理」とは、ユーザーが検査対象装置に対して検査を行っている間における移動ログ、観察ログ、またはスクリプトを実行して取得したデータのうちいずれかを、行動履歴登録部309が送受信部308を介してサーバー200に送信する処理を含む。さらに、「業務ロギングの処理」とは、サーバー200が、HMD1から受信した移動ログ、観察ログ、及びデータを記憶部202(図23参照)に記憶させる処理を含む。
移動ログとは、検査対象装置に対して検査を行っている間におけるHMD1のGPSセンサー135が測位した測位情報(緯度を示す情報、経度を示す情報、高度を示す情報、時刻情報)を含む履歴情報である。行動履歴登録部309は、例えば、予め定められている時間間隔で、移動ログをサーバー200に送信するようにしてもよく、あるいは、ユーザーが操作スイッチ30又はタッチスイッチ34を操作したときに移動ログをサーバー200に送信するようにしてもよい。
観察ログを示す情報とは、検査対象装置を検査している間にHMD1が処理した内容を示す履歴情報である。HMD1が処理した内容には、操作スイッチ30又はタッチスイッチ34が操作されたことを示す情報と操作された時刻情報、行動履歴登録部309がサーバー200に移動ログ、観察ログ、及びデータを送信したことを示す情報と送信した時刻情報、表示部60をユーザーが観察していたか否かを判別した結果を示す情報等が含まれる。行動履歴登録部309は、検査対象装置の検査終了毎に観察ログをサーバー200に送信するようにしてもよく、全ての検査対象装置に検査終了時に観察ログをサーバー200に送信するようにしてもよく、予め定められている時間間隔で観察ログをサーバー200に送信するようにしてもよい。
In the present invention, the “business logging process” means any one of data acquired by executing a movement log, an observation log, or a script while the user is inspecting the inspection target device, This includes processing in which the action history registration unit 309 transmits to the server 200 via the transmission / reception unit 308. Further, the “business logging process” includes a process in which the server 200 stores the movement log, the observation log, and the data received from the HMD 1 in the storage unit 202 (see FIG. 23).
The movement log is a history including positioning information (information indicating latitude, information indicating longitude, information indicating altitude, and time information) measured by the GPS sensor 135 of the HMD 1 while the inspection target apparatus is inspected. Information. For example, the action history registration unit 309 may transmit the movement log to the server 200 at predetermined time intervals, or the movement log when the user operates the operation switch 30 or the touch switch 34. May be transmitted to the server 200.
The information indicating the observation log is history information indicating the contents processed by the HMD 1 while inspecting the inspection target device. The contents processed by the HMD 1 include information indicating that the operation switch 30 or the touch switch 34 has been operated, time information on the operation, and the action history registration unit 309 transmitted a movement log, an observation log, and data to the server 200. And information indicating the result of determining whether the user was observing the display unit 60, and the like. The action history registration unit 309 may transmit an observation log to the server 200 every time the inspection of the inspection target device ends, or may transmit an observation log to the server 200 at the end of the inspection to all inspection target devices. The observation log may be transmitted to the server 200 at a predetermined time interval.

スクリプトファイルとは、例えば、HMD1に対して所定の動作を実行させるプログラムが記述されているファイルである。スクリプトファイルは、サーバー200がHMD1に送信する検査対象装置に係わる情報に含まれている。なお、検査対象装置に係わる情報については後述する。HMD1に対して実行させる所定の動作とは、HMD1が有する機能部を動作させる動作である。所定の動作の一例として、HMD1は、カメラ64により静止画または動画を撮像し、撮像した画像データをサーバー200に送信する。また、所定の動作の他の例として、HMD1は、集音マイク24により集音した音声をフラッシュメモリー122に記憶させて録音する。また、所定の動作の他の例として、HMD1は、集音マイク24により集音した音声、またはフラッシュメモリー122に記憶させた音声データをサーバー200に送信する。また、所定の動作の他の例として、HMD1は、検査を行う位置の温度及び湿度を温湿度センサー136によって取得し、取得した温度及び湿度を示す情報をサーバー200に送信する。   The script file is, for example, a file in which a program that causes the HMD 1 to execute a predetermined operation is described. The script file is included in information related to the inspection target device that the server 200 transmits to the HMD 1. Information relating to the inspection target apparatus will be described later. The predetermined operation to be executed for the HMD 1 is an operation for operating a functional unit included in the HMD 1. As an example of the predetermined operation, the HMD 1 captures a still image or a moving image with the camera 64 and transmits the captured image data to the server 200. As another example of the predetermined operation, the HMD 1 stores the sound collected by the sound collecting microphone 24 in the flash memory 122 and records it. As another example of the predetermined operation, the HMD 1 transmits the sound collected by the sound collecting microphone 24 or the sound data stored in the flash memory 122 to the server 200. As another example of the predetermined operation, the HMD 1 acquires the temperature and humidity of the position to be inspected by the temperature / humidity sensor 136 and transmits information indicating the acquired temperature and humidity to the server 200.

図22に戻って、行動履歴登録部309は、眼球照明ライト166の点灯及び消灯を制御し、バックライト62の点灯及び消灯を制御する。行動履歴登録部309は、観察可否判定部310が判定した結果に応じて、表示パネル(表示部)63に情報が表示される場合にその表示される情報がユーザーにより観察可能ではない状況の場合、耳元スピーカー23から表示パネル63に表示されている情報を観察するように促す報知を、音響制御部305を制御して行う。
なお、表示パネル63に表示される情報がユーザーにより観察可能な状況とは、以下(a)〜(e)のうちの少なくとも1つの状況である。(a)ユーザーが表示パネル63に表示されている情報を観察している状況。(b)ディスプレイ本体20が図3(B)のように折り畳まれていない状況。(c)図5(A)に示した状態からヘッドバンドヒンジ32(図3(A)参照)がA方向に90度回転させられていず表示部60がユーザーの頭頂部に配置されていない状況。(d)ヘッドバンド40とディスプレイ本体20とが連結された状況。(e)撮像素子72が撮像した撮像画像にユーザーの眼を含む領域が含まれている状況。
また、表示パネル63に表示される情報がユーザーにより観察可能ではない状況とは、以下の(f)〜(j)のうち少なくとも1つの状況である。(f)ユーザーが表示パネル63に表示される情報を観察していない状況。(g)ディスプレイ本体20が図3(B)のように折り畳まれている状況。(h)図5(A)に示した状態からヘッドバンドヒンジ32(図3(A)参照)がA方向に90度回転させられていて表示部60がユーザーの頭頂部に配置されている状況。(i)ヘッドバンド40とディスプレイ本体20とが連結されていない状況。(j)撮像素子72が撮像した撮像画像にユーザーの眼を含む領域が含まれていない状況。
Returning to FIG. 22, the action history registration unit 309 controls turning on and off of the eyeball illumination light 166, and controls turning on and off of the backlight 62. When the information is displayed on the display panel (display unit) 63 according to the result determined by the observation availability determination unit 310, the action history registration unit 309 is in a situation where the displayed information is not observable by the user. The sound control unit 305 is controlled to notify the user to observe the information displayed on the display panel 63 from the ear speaker 23.
The situation in which the information displayed on the display panel 63 can be observed by the user is at least one of the following conditions (a) to (e). (A) A situation where the user is observing information displayed on the display panel 63. (B) A situation where the display body 20 is not folded as shown in FIG. (C) The situation in which the headband hinge 32 (see FIG. 3A) is not rotated 90 degrees in the A direction from the state shown in FIG. 5A and the display unit 60 is not arranged on the top of the user's head. . (D) A situation in which the headband 40 and the display main body 20 are connected. (E) A situation in which a captured image captured by the image sensor 72 includes a region including the user's eyes.
The situation where the information displayed on the display panel 63 is not observable by the user is at least one of the following conditions (f) to (j). (F) A situation where the user does not observe the information displayed on the display panel 63. (G) The display main body 20 is folded as shown in FIG. (H) A situation in which the headband hinge 32 (see FIG. 3A) is rotated 90 degrees in the A direction from the state shown in FIG. 5A and the display unit 60 is arranged on the top of the user's head. . (I) A situation where the headband 40 and the display main body 20 are not connected. (J) A situation in which a region including the user's eyes is not included in the captured image captured by the image sensor 72.

行動履歴登録部309は、カメラ64が撮像した画像データからバーコードの画像を抽出する。行動履歴登録部309は、バーコードの画像が抽出できた場合、抽出したバーコードの画像に埋め込まれている検査対象装置を判別する固有情報(以下、検査対象装置IDという)を抽出する。行動履歴登録部309は、抽出した検査対象装置IDに対応する検査対象装置に係わる情報をサーバー200又はネットワーク上から取得する。例えば、取得されたバーコードに検査対象装置に係わる情報が所在するネットワーク上のアドレスを示すアドレス情報が含まれている場合、行動履歴登録部309は、バーコードからアドレス情報を抽出し、抽出したアドレス情報に基づいて、検査対象装置に係わる情報を、ネットワークを通じて取得する。なお、アドレス情報とは、例えば、Webページの場所を示すURL(Uniform Resource Locator)である。また、アドレス情報とは、検査対象装置を販売しているメーカーのホームページに、検査対象装置に対する注意事項または重点検査項目が記載されている場合、これらの情報が記載されているWebページの場所を示すURLを含んでいてもよい。行動履歴登録部309は、取得した検査対象装置に係わる情報に基づく情報を、表示パネル63に表示する。
行動履歴登録部309は、取得した検査対象装置に係わる情報からHMD1に対して所定の動作を実行するスクリプトファイルを抽出し、スクリプトを実行する。
The action history registration unit 309 extracts a barcode image from the image data captured by the camera 64. When the barcode image can be extracted, the action history registration unit 309 extracts unique information (hereinafter referred to as an inspection target device ID) for determining the inspection target device embedded in the extracted barcode image. The action history registration unit 309 acquires information related to the inspection target device corresponding to the extracted inspection target device ID from the server 200 or the network. For example, when the acquired barcode includes address information indicating the address on the network where the information related to the inspection target device is located, the action history registration unit 309 extracts the address information from the barcode and extracts the address information. Based on the address information, information related to the inspection target device is acquired through the network. The address information is, for example, a URL (Uniform Resource Locator) indicating the location of the Web page. Also, the address information refers to the location of the Web page where the information is described when the precautions or priority inspection items for the inspection target device are described on the homepage of the manufacturer that sells the inspection target device. The URL shown may be included. The action history registration unit 309 displays information based on the acquired information related to the inspection target device on the display panel 63.
The action history registration unit 309 extracts a script file that executes a predetermined operation on the HMD 1 from the acquired information related to the inspection target device, and executes the script.

ここで、検査対象装置に係わる情報を説明する。検査対象装置に係わる情報には、以下の情報のうち、少なくとも1つの情報が含まれている。
(1)検査対象装置の装置名
(2)検査対象装置の番号
(3)検査対象装置に対する検査項目
(4)検査における注意事項
(5)重点検査項目
(6)検査対象装置の検査項目、検査における注意事項、重点検査項目のうちいずれか1つが更新された場合、これらの各検査項目が更新された日時に関する情報(以下、更新日時情報という)
(7)検査対象装置の検査項目、検査における注意事項、重点検査項目のうちいずれか1つが更新された場合、これらの情報が更新されたことを示す情報(以下、更新有り情報という)
(8)注意事項がある場合、注意事項があることを示す情報(以下、注意事項有り情報)(9)チェック項目がある場合、チェック項目があることを示す情報(以下、チェック項目有り情報)
(10)HMD1に所定の動作を行わせるためのスクリプトファイル
検査における注意事項とは、例えば、検査対象装置を管理している管理者により、検査に際して注意する必要がある場合に、検査を行うユーザーに対して注意喚起するための情報である。重点検査項目とは、例えば、同じタイプの装置で検査結果に問題があった場合に、問題のあった箇所を重点的に検査するための検査項目である。
なお、検査対象装置に対する検査項目、検査における注意事項、及び重点検査項目は、管理者が必要に応じて、サーバー200に記憶されている各情報、またはネットワーク上にある各情報を更新する。
Here, information related to the inspection target apparatus will be described. The information related to the inspection target device includes at least one of the following information.
(1) Device name of the device to be inspected (2) Number of the device to be inspected (3) Items to be inspected for the device to be inspected (4) Precautions for inspection (5) Priority inspection items (6) Items to be inspected, inspection When any one of the precautions and priority inspection items is updated, information on the date and time when each of these inspection items was updated (hereinafter referred to as update date and time information)
(7) When any one of the inspection item of the inspection target device, the precautions in the inspection, and the priority inspection item is updated, information indicating that these pieces of information have been updated (hereinafter referred to as updated information).
(8) Information indicating that there is a note when there is a note (hereinafter, information with a note) (9) Information indicating that there is a check item when there is a check item (hereinafter, information with a check item)
(10) Script file for causing the HMD 1 to perform a predetermined operation The precautions in the inspection are, for example, a user who performs the inspection when the administrator who manages the inspection target device needs to pay attention to the inspection. It is information to call attention to. The priority inspection item is, for example, an inspection item for intensively inspecting a problem location when there is a problem in the inspection result with the same type of apparatus.
Note that the inspection item for the inspection target device, the precautions for inspection, and the priority inspection item are updated by the administrator as necessary for each information stored in the server 200 or each information on the network.

図22に戻って、観察可否判定部310は、表示パネル63に表示される情報がユーザーにより観察可能であるか否かを判定し、判定した結果を行動履歴登録部309に出力する。
観察可否判定部310は、表示パネル63に表示される情報がユーザーにより観察可能な状況であるか否かを判別する。観察可否判定部310は、例えば、以下のように表示パネル63に表示される情報がユーザーにより観察可能であるか否かの判定を行う。観察可否判定部310は、「注視点検出のためのキャリブレーション処理」で得られたLCD63上の座標(Dx(i),Dz(i))とユーザーの視線に基づく第2座標(Ex(i),Ez(i))との関係に基づき、上述した(a)の状況であるか否かを判定する。ここで、図39におけるステップS605時点のユーザーの視線に基づく座標を第1座標とする。また、第2座標は、ステップS603において、表示パネル63に表示される情報に表示された検査位置の方位を示す画像の座標を第2座標とする。
観察可否判定部310は、この第1座標と第2座標とを比較し、比較した結果、第1座標と第2座標とが一致すると判定された場合、上述した(a)の状況であると判定する。
一方、観察可否判定部310は、比較した結果、第1座標と第2座標とが一致しないと判定された場合、上述した(f)の状況であると判定する。
Returning to FIG. 22, the observability determination unit 310 determines whether the information displayed on the display panel 63 is observable by the user, and outputs the determined result to the action history registration unit 309.
The observation availability determination unit 310 determines whether the information displayed on the display panel 63 is in a state that can be observed by the user. The observability determination unit 310 determines, for example, whether the information displayed on the display panel 63 can be observed by the user as follows. The observation propriety determination unit 310 determines the second coordinates (Ex (i ), Ez (i)), it is determined whether or not the situation of (a) described above. Here, the coordinates based on the user's line of sight at step S605 in FIG. 39 are set as the first coordinates. Further, the second coordinate is the coordinate of the image indicating the orientation of the inspection position displayed in the information displayed on the display panel 63 in step S603.
The observability determination unit 310 compares the first coordinate and the second coordinate. As a result of the comparison, if it is determined that the first coordinate and the second coordinate match, the situation (a) described above is obtained. judge.
On the other hand, as a result of the comparison, if it is determined that the first coordinate and the second coordinate do not match, the observability determination unit 310 determines that the situation (f) described above is present.

観察可否判定部310は、心拍数センサー137が検出した検出値に基づいて、ユーザーが頭部にHMD1を装着している状態であるか否かを判定することで、上述した(a)の状況であるか(f)の状況であるかを判定するようにしてもよい。そして、観察可否判定部310は、(a)の状況であるか(f)の状況であるかを判定した結果に基づいて、表示パネル63に表示される情報がユーザーにより観察可能な状況であるか否かを判定するようにしてもよい。
また、観察可否判定部310は、例えば、加速度センサー132が検出した検出値に基づいて、上述した(b)、(c)、(g)、(h)のいずれかの状況であるかを判定することで、表示パネル63に表示される情報がユーザーにより観察可能な状況であるか否かを判定するようにしてもよい。
The observability determination unit 310 determines whether or not the user is wearing the HMD 1 on the head based on the detection value detected by the heart rate sensor 137, so that the situation of (a) described above. Or the situation (f) may be determined. The observability determination unit 310 is in a situation where the information displayed on the display panel 63 can be observed by the user based on the result of determining whether the situation is (a) or (f). It may be determined whether or not.
In addition, the observability determination unit 310 determines, for example, whether the situation is any of (b), (c), (g), and (h) described above based on the detection value detected by the acceleration sensor 132. Thus, it may be determined whether or not the information displayed on the display panel 63 is in a state that can be observed by the user.

また、観察可否判定部310は、例えば、ヘッドバンドセンサー151が検出した検出信号に基づいて、上述した(d)の状況であるか(i)の状況であるかを判定することで、表示パネル63に表示される情報がユーザーにより観察可能な状況であるか否かを判定するようにしてもよい。
また、観察可否判定部310は、撮像画像に基づいて、上述した(e)の状況であるか(j)の状況であるかを判定することで、表示パネル63に表示される情報がユーザーにより観察可能な状況であるか否かを判定するようにしてもよい。
Further, the observability determination unit 310 determines, for example, whether the situation is the above-described situation (d) or the situation (i) based on the detection signal detected by the headband sensor 151. It may be determined whether the information displayed in 63 is in a state that can be observed by the user.
Further, the observability determination unit 310 determines whether the above-described situation (e) or (j) is based on the captured image, whereby the information displayed on the display panel 63 is changed by the user. It may be determined whether or not the situation is observable.

図23は、本実施形態に係るHMD1を含む通信システムのシステム構成図である。図23に示すように、通信システムは、HMD1、HMD500、PC210、PC220、及びサーバー200から構成される。HMD1、HMD500、PC210、PC220、及びサーバー200は、ネットワーク230に接続されている。ネットワーク230は、無線LAN(Local Area Network)、3G回線、LTE回線等を介して接続されているインターネットなどのネットワークである。   FIG. 23 is a system configuration diagram of a communication system including the HMD 1 according to the present embodiment. As illustrated in FIG. 23, the communication system includes an HMD 1, an HMD 500, a PC 210, a PC 220, and a server 200. The HMD 1, HMD 500, PC 210, PC 220, and server 200 are connected to the network 230. The network 230 is a network such as the Internet connected via a wireless LAN (Local Area Network), a 3G line, an LTE line, or the like.

図23において、HMD1は、図21で説明した構成であるが、処理手順を説明する上で必要な機能部のみを示している。なお、HMD1の表示パネル63を、以後、LCD63という。
HMD500は、図23に示すように、主にフラッシュメモリー522、処理部523、通信インタフェース(531、538)、地磁気センサー533、タッチスイッチ534、表示パネル(表示部)563(以後、LCD563という)、カメラ564を備えている。HMD500の各機能部は、HMD1の各機能部と同等である。
In FIG. 23, the HMD 1 has the configuration described in FIG. 21, but only shows functional units necessary for explaining the processing procedure. The display panel 63 of the HMD 1 is hereinafter referred to as an LCD 63.
As shown in FIG. 23, the HMD 500 mainly includes a flash memory 522, a processing unit 523, communication interfaces (531, 538), a geomagnetic sensor 533, a touch switch 534, a display panel (display unit) 563 (hereinafter referred to as an LCD 563), A camera 564 is provided. Each function part of HMD500 is equivalent to each function part of HMD1.

次に、サーバー200の構成について説明する。図23に示すように、サーバー200は、処理部201、記憶部202、及び通信インタフェース203を備えている。   Next, the configuration of the server 200 will be described. As shown in FIG. 23, the server 200 includes a processing unit 201, a storage unit 202, and a communication interface 203.

サーバー200の処理部201は、各端末(HMD1、HMD500、PC210、及びPC220)から通信インタフェース203を介して受信した画像データ(動画、静止画、線画等)、音声データ、各端末の環境情報、及び各端末からの要求等の通信記録を、記憶部202に記録する。処理部201は、各端末の要求に応じて、記憶部202に記録してある画像データを読み出し、読み出した画像データを、各端末に送信する。   The processing unit 201 of the server 200 includes image data (moving image, still image, line drawing, etc.) received from each terminal (HMD1, HMD500, PC210, and PC220) via the communication interface 203, audio data, environment information of each terminal, In addition, a communication record such as a request from each terminal is recorded in the storage unit 202. The processing unit 201 reads image data recorded in the storage unit 202 in response to a request from each terminal, and transmits the read image data to each terminal.

記憶部202には、ユーザーIDと検査対象装置に係わる情報が関連付けられて記憶されている。記憶部202には、サーバー200がHMD1から受信した移動ログを示す情報、及び観察ログを示す情報が、ユーザーIDと関連付けられて記憶される。記憶部202には、HMD1から受信した画像データ(静止画、動画)、音声データ、各種センサーが検出した検出値が、ユーザーIDに関連付けられて記憶される。記憶部202には、各端末のユーザーIDに対応するパーソナルデータ、例えば、ユーザーの名前や性別・国籍などのデータが、各端末の電話番号又はIPアドレス等の端末を識別できる情報と関連付けられて記憶されている。   The storage unit 202 stores information relating to the user ID and the inspection target device in association with each other. In the storage unit 202, information indicating the movement log received by the server 200 from the HMD 1 and information indicating the observation log are stored in association with the user ID. The storage unit 202 stores image data (still images, moving images), audio data, and detection values detected by various sensors received from the HMD 1 in association with user IDs. In the storage unit 202, personal data corresponding to the user ID of each terminal, for example, data such as the user's name, gender and nationality is associated with information such as a telephone number or an IP address of each terminal that can identify the terminal. It is remembered.

通信インタフェース203は、例えば、WiFi通信回路、3G通信回路、LTE通信回路、有線LAN回路等を備えている。   The communication interface 203 includes, for example, a WiFi communication circuit, a 3G communication circuit, an LTE communication circuit, a wired LAN circuit, and the like.

次に、PC210及びPC220の構成について説明する。PC210及びPC220は、例えば、パーソナルコンピュータである。
PC210は、処理部211、記憶部212、通信インタフェース213、入力部214、表示部215、及びカメラ216を備えている。
PC220は、処理部221、記憶部222、通信インタフェース223、入力部224、表示部225、及びカメラ226を備えている。PC220の各機能部は、PC210の各機能部と同等である。
Next, the configuration of the PC 210 and the PC 220 will be described. The PC 210 and the PC 220 are, for example, personal computers.
The PC 210 includes a processing unit 211, a storage unit 212, a communication interface 213, an input unit 214, a display unit 215, and a camera 216.
The PC 220 includes a processing unit 221, a storage unit 222, a communication interface 223, an input unit 224, a display unit 225, and a camera 226. Each functional unit of the PC 220 is equivalent to each functional unit of the PC 210.

PC210の処理部211は、CPU(中央演算装置)及びGPU(Graphics
Processing Unit)等である。処理部211は、通信インタフェース213、入力部214、表示部215、及びカメラ216を制御する。処理部211は、記憶部212に記憶されている画像データ、通信インタフェース213を介して取得した画像データ、カメラ216で撮像された画像データを、後述するように通信インタフェース213介して取得した画像切替信号に基づいて切り替える。処理部211は、切り替えた画像データを通信インタフェース213及びネットワーク230に出力する。処理部211は、画像データを表示部215に出力する。処理部211は、入力部214の操作に基づき、表示部215上に、カーソル画像、または線画画像を表示するように制御する。処理部211は、通信インタフェース213を介して取得した受信信号に基づき、表示部215上に、カーソル画像、または線画画像を表示するように制御する。
The processing unit 211 of the PC 210 includes a CPU (Central Processing Unit) and a GPU (Graphics).
Processing Unit). The processing unit 211 controls the communication interface 213, the input unit 214, the display unit 215, and the camera 216. The processing unit 211 switches the image data stored in the storage unit 212, the image data acquired through the communication interface 213, and the image data captured by the camera 216 through the communication interface 213 as will be described later. Switch based on signal. The processing unit 211 outputs the switched image data to the communication interface 213 and the network 230. The processing unit 211 outputs the image data to the display unit 215. The processing unit 211 controls to display a cursor image or a line drawing image on the display unit 215 based on the operation of the input unit 214. The processing unit 211 controls to display a cursor image or a line drawing image on the display unit 215 based on the received signal acquired via the communication interface 213.

記憶部212は、例えば、メモリー、HDD(ハードディスク)である。記憶部212には、PC210のOS(オペレーション・システム)、HMD1、HMD500及びPC220と通話を行うためのアプリケーション等が記憶されている。   The storage unit 212 is, for example, a memory or an HDD (hard disk). The storage unit 212 stores an OS (operation system) of the PC 210, an application for making a call with the HMD1, the HMD 500, and the PC 220, and the like.

通信インタフェース213は、例えば、無線LAN、または有線LAN、3G回線、LTE回線等の通信を行うインタフェースである。通信インタフェース213は、ネットワーク230を介して受信した情報を処理部211に出力する。通信インタフェース213は、処理部211が出力した情報を、ネットワーク230を介して、HMD1、HMD500、PC220、及びサーバー200に送信する。   The communication interface 213 is an interface that performs communication such as a wireless LAN, a wired LAN, a 3G line, an LTE line, or the like. The communication interface 213 outputs information received via the network 230 to the processing unit 211. The communication interface 213 transmits information output from the processing unit 211 to the HMD 1, the HMD 500, the PC 220, and the server 200 via the network 230.

入力部214は、例えば、キーボード、マウス、タブレットと操作ペン等である。入力部214は、入力された情報を、処理部211に出力する。なお、表示部215がタッチパネル機能を有する場合、表示部215は入力部214の機能を兼ねるようにしてもよい。   The input unit 214 is, for example, a keyboard, a mouse, a tablet, and an operation pen. The input unit 214 outputs the input information to the processing unit 211. Note that when the display unit 215 has a touch panel function, the display unit 215 may also function as the input unit 214.

表示部215は、処理部211が出力した画像データに基づく画像を表示する。
一例として、表示部215には、HMD1が撮像した画像、PC210の入力部214の操作に応じた線画画像が合成されて表示される。
The display unit 215 displays an image based on the image data output from the processing unit 211.
As an example, an image captured by the HMD 1 and a line drawing image corresponding to an operation of the input unit 214 of the PC 210 are combined and displayed on the display unit 215.

カメラ216は、例えば500万画素〜1000万画素の撮像素子を有するCMOS(相補型金属酸化膜半導体)またはCCD(Charge Coupled Device)である。   The camera 216 is, for example, a CMOS (Complementary Metal Oxide Semiconductor) or a CCD (Charge Coupled Device) having an image sensor with 5 to 10 million pixels.

次に、HMD1の動作について説明する。図24は、本実施形態に係るHMD1の電源オン状態後に行う動作のフローチャートである。
(ステップS1)処理部123は、HMD1のシステムの起動の完了を待って、システムの起動が完了したらステップS2に進む。なお、起動とは、メインスイッチ28が操作されてHMD1がコールドスタートする場合、ならびにHMD1が所定時間使われなかった場合などにスリープ状態に至り、その後、タッチスイッチ34などを操作された場合、ウォームスタートした場合などである。
Next, the operation of the HMD 1 will be described. FIG. 24 is a flowchart of the operation performed after the power-on state of the HMD 1 according to the present embodiment.
(Step S1) The processing unit 123 waits for completion of activation of the system of the HMD 1, and proceeds to step S2 when the activation of the system is completed. The activation means that the main switch 28 is operated to cold start the HMD 1 and the HMD 1 is not used for a predetermined time to reach a sleep state, and then the touch switch 34 or the like is operated. For example, when it starts.

(ステップS2)処理部123は、ユーザーが左右、どちらの眼でHMD1の表示部60を観察しているか検出する処理(以下、左右の眼の検出処理という)を行う。なお、この「左右の眼の検出処理」の詳細な処理は、後述する。処理部123は、検出した結果に基づいて、表示部60に表示する画像の向きを切り替える。 (Step S <b> 2) The processing unit 123 performs a process of detecting whether the user is observing the display unit 60 of the HMD 1 with the left or right eye (hereinafter referred to as a left / right eye detection process). Detailed processing of the “left and right eye detection processing” will be described later. The processing unit 123 switches the orientation of the image displayed on the display unit 60 based on the detected result.

(ステップS3)処理部123は、HMD1の表示部60が正しい装着位置に装着されるようにガイドを行う処理(以下、装着ガイドの処理という)を行う。なお、「装着ガイドの処理」の詳細な処理は、後述する。 (Step S <b> 3) The processing unit 123 performs a process of performing a guide (hereinafter referred to as a mounting guide process) so that the display unit 60 of the HMD 1 is mounted at the correct mounting position. The detailed processing of “mounting guide processing” will be described later.

(ステップS4)処理部123は、点灯させる眼球照明ライト166と、消灯させる眼球照明ライトを選択する処理(以下、眼球照明ライトの選択処理という)を行う。なお、「眼球照明ライトの選択処理」の詳細な処理は後述する。 (Step S4) The processing unit 123 performs a process of selecting an eyeball illumination light 166 to be turned on and an eyeball illumination light to be turned off (hereinafter referred to as an eyeball illumination light selection process). Details of the “eyeball illumination light selection process” will be described later.

(ステップS5)処理部123は、注視点検出のためのキャリブレーションを行う。なお、注視点検出のためのキャリブレーションの詳細な処理については、後述する。 (Step S5) The processing unit 123 performs calibration for gazing point detection. Details of the calibration process for detecting the point of interest will be described later.

(ステップS6)処理部123は、検査対象である検査装置を検査し、検査した結果を観察ログとしてサーバー200に登録する「業務ロギングの処理」を行う。なお、「業務ロギングの処理」の詳細な処理については、後述する。 (Step S <b> 6) The processing unit 123 performs “business logging processing” that inspects an inspection apparatus that is an inspection target and registers the inspection result in the server 200 as an observation log. Details of the “business logging process” will be described later.

次に、「左右の眼の検出処理」手順について説明する。
図25は、本実施形態に係る左右の眼の検出処理手順のフローチャートである。
Next, a procedure for “left and right eye detection processing” will be described.
FIG. 25 is a flowchart of the left and right eye detection processing procedure according to the present embodiment.

(ステップS101)処理部123の制御部302は、加速度センサー132が検出した検出値において、Z軸方向の検出値が、X軸方向、Y軸方向より強いか否かを判別する。
Z軸方向の検出値が、X軸方向、Y軸方向より強いと判別された場合(ステップS101;Yes)、ステップS102に進む。Z軸方向の検出値が、X軸方向、Y軸方向より強くないと判別された場合(ステップS101;No)、ステップS103に進む。
(Step S101) The control unit 302 of the processing unit 123 determines whether or not the detection value detected by the acceleration sensor 132 is stronger in the Z-axis direction than in the X-axis direction and the Y-axis direction.
When it is determined that the detected value in the Z-axis direction is stronger than the X-axis direction and the Y-axis direction (step S101; Yes), the process proceeds to step S102. When it is determined that the detected value in the Z-axis direction is not stronger than the X-axis direction and the Y-axis direction (step S101; No), the process proceeds to step S103.

(ステップS102)Z軸方向の検出値が、X軸方向、Y軸方向より強いと判別された場合、表示部60は、図5(A)または図5(B)に示したような第1表示モードの装着形態である。このため、制御部302は、加速度センサー132の検出値に基づいて、右眼観察形態であるか左眼観察形態であるのかを判別する。次に、制御部302は、判別した結果を示す情報を、画像切替部306に出力する。 (Step S102) When it is determined that the detected value in the Z-axis direction is stronger than the X-axis direction and the Y-axis direction, the display unit 60 displays the first value as shown in FIG. 5 (A) or FIG. 5 (B). This is a display mode wearing form. Therefore, the control unit 302 determines whether the observation mode is the right eye observation mode or the left eye observation mode based on the detection value of the acceleration sensor 132. Next, the control unit 302 outputs information indicating the determined result to the image switching unit 306.

(ステップS103)Z軸方向の検出値が、X軸方向、Y軸方向より強くないと判別された場合、ユーザーが寝ているか仰向けの状態であるため、制御部302は、撮像素子72を駆動する。
図26は、右眼観察形態の場合の撮像範囲Pの撮像画像の一例を説明する図である。図27は、左眼観察形態の場合の撮像範囲Pの撮像画像の一例を説明する図である。
制御部302は、観察形態を判別するために、図19で説明した撮像領域Pを使って、眼の周辺画像を撮像素子72により撮像する。例えば、撮像画像は、図5(A)に示した第1表示モードかつ右眼観察形態で使用されるときの撮像画像(以下、第1右眼画像という)を基準としている。このため、図26に示すように、第1右眼画像610Rは、正立画像である。図26に示すように、第1右眼画像610Rでは、右眼の画像601R3に対して、右眉毛の画像602R3が+Z方向にある。
一方、図27に示すように、第1表示モードかつ左眼観察形態で使用されるときの眼の周辺画像(以下、第1左眼画像という)610Lは、倒立画像である。図27に示すように、第1左眼画像610Lでは、左眼の画像601Lに対して、右眉毛の画像602Lが−Z方向にある。
(Step S103) When it is determined that the detected value in the Z-axis direction is not stronger than the X-axis direction and the Y-axis direction, the control unit 302 drives the image sensor 72 because the user is sleeping or lying on the back. To do.
FIG. 26 is a diagram illustrating an example of a captured image in the imaging range P in the case of the right eye observation form. FIG. 27 is a diagram illustrating an example of a captured image in the imaging range P in the case of the left eye observation form.
In order to discriminate the observation form, the control unit 302 captures a peripheral image of the eye with the image sensor 72 using the imaging region P described in FIG. For example, the captured image is based on the captured image (hereinafter referred to as the first right-eye image) when used in the first display mode and the right-eye observation mode illustrated in FIG. Therefore, as shown in FIG. 26, the first right eye image 610R is an erect image. As shown in FIG. 26, in the first right eye image 610R, the right eyebrow image 602R3 is in the + Z direction with respect to the right eye image 601R3.
On the other hand, as shown in FIG. 27, an eye peripheral image (hereinafter referred to as a first left eye image) 610L when used in the first display mode and the left eye observation form is an inverted image. As shown in FIG. 27, in the first left eye image 610L, the right eyebrow image 602L is in the −Z direction with respect to the left eye image 601L.

(ステップS104)図25に戻って、制御部302は、撮像画像から眉毛の画像が抽出可能であるか否かを判別する。眉毛の画像が抽出可能であると判別された場合(ステップS104;Yes)、ステップS105に進む。例えば、表示部60が眼に近い場合、または化粧等によって眉毛の判別が難しい場合など、眉毛の画像を抽出ができないと判別された場合(ステップS104;No)、ステップS106に進む。なお、制御部302は、例えばパターンマッチングの技術を用いて、眉毛の画像を抽出する。
例えば、ユーザーが右眼観察形態で使用している場合、選択領域Q(図19(A)を参照)に撮像された画像は、図11に示すような画像になる。一方、ユーザーが左眼観察形態で使用している場合、選択領域R(図19(B)を参照)に撮像された画像は、図28に示すような画像になる。図28は、左眼観察形態における撮像画像の一例を説明する図である。なお、図28では、選択領域Rの画像を180度回転させて示してある。このため、図28の−Z側がユーザーの上側、+Z側がユーザーの下側、−X側がユーザーの左側、+X側がユーザーの右側となる。また、図28において、符号601L1は、左眼の画像であり、符号602L1は、左眉毛の画像である。
なお、ステップS101〜S108の処理中、制御部302は、眼球照明ライト166を点灯させておいても、消灯させておいてもよい。ステップS101〜S108の処理中、制御部302は、バックライト62を点灯させておいてもよい。
(Step S104) Returning to FIG. 25, the control unit 302 determines whether or not an image of eyebrows can be extracted from the captured image. If it is determined that the image of the eyebrows can be extracted (step S104; Yes), the process proceeds to step S105. For example, when it is determined that the eyebrow image cannot be extracted, such as when the display unit 60 is close to the eyes or when it is difficult to determine the eyebrows by makeup or the like (step S104; No), the process proceeds to step S106. Note that the control unit 302 extracts an image of eyebrows using, for example, a pattern matching technique.
For example, when the user is using the right-eye observation mode, the image captured in the selection area Q (see FIG. 19A) is an image as shown in FIG. On the other hand, when the user is using the left-eye observation form, the image captured in the selection region R (see FIG. 19B) is an image as shown in FIG. FIG. 28 is a diagram illustrating an example of a captured image in the left-eye observation mode. In FIG. 28, the image of the selection region R is shown rotated by 180 degrees. Therefore, the −Z side in FIG. 28 is the user's upper side, the + Z side is the user's lower side, the −X side is the user's left side, and the + X side is the user's right side. In FIG. 28, reference numeral 601L1 is a left-eye image, and reference numeral 602L1 is a left eyebrow image.
Note that during the processing in steps S101 to S108, the control unit 302 may turn on or turn off the eyeball illumination light 166. During the processes in steps S101 to S108, the control unit 302 may turn on the backlight 62.

(ステップS105)眉毛の画像が撮像画像から抽出可能である場合、制御部302は、眉毛の画像と眼の画像との位置や、眉毛の形状から、例えばパターンマッチングの技術や画像の特徴量による画像比較の技術を用いて、撮像画像が、ユーザーの右眼の画像であるか左眼の画像であるかを判別する。次に、制御部302は、判別した結果を示す情報を、画像切替部306に出力する。
例えば、図26に示したように、眼球の画像に対して眉毛の画像が、+Z方向にあると判別した場合、制御部302は、ユーザーが右眼で表示部60を観察している右眼観察形態であると判別する。一方、図27に示したように、眼球の画像に対して眉毛の画像が、−Z方向にあると判別した場合、制御部302は、ユーザーが左眼で表示部60を観察している左眼観察形態であると判別する。
(Step S105) When the image of the eyebrows can be extracted from the captured image, the control unit 302 uses, for example, a pattern matching technique or an image feature amount from the position of the eyebrow image and the eye image or the shape of the eyebrows. Using the image comparison technique, it is determined whether the captured image is a right-eye image or a left-eye image of the user. Next, the control unit 302 outputs information indicating the determined result to the image switching unit 306.
For example, as illustrated in FIG. 26, when it is determined that the image of the eyebrows is in the + Z direction with respect to the image of the eyeball, the control unit 302 has the right eye in which the user observes the display unit 60 with the right eye. It is determined that it is an observation form. On the other hand, as illustrated in FIG. 27, when it is determined that the image of the eyebrows is in the −Z direction with respect to the image of the eyeball, the control unit 302 displays the left where the user observes the display unit 60 with the left eye. It is determined that it is an eye observation form.

(ステップS106)眉毛の画像が撮像画像から抽出可能ではない場合、制御部302は、瞬きでの瞼の挙動から、例えばパターンマッチングの技術や画像の特徴量による画像比較の技術を用いて、ユーザーの右眼であるか左眼であるかを判別する。次に、制御部302は、判別した結果を示す情報を、画像切替部306に出力する。
例えば、瞬きは上瞼が動くことから、瞼が図11において+Z方向から−Z方向へ移動し、すぐに−Z方向から+Z方向へ戻った場合、制御部302は、ユーザーが右眼で表示部60を観察している右眼観察形態であると判別する。また、瞼の移動開始方向ならびに戻り方向がこの逆となった場合、制御部302は、ユーザーが左眼で表示部60を観察している左眼観察形態であると判別する。
以上のように、本実施形態によれば、ユーザーが横方向に寝ている様な場合にも、加速度センサー132が検出した重力の方向にたよらずに、眉毛や瞼の動きを検出することでユーザーが観察している眼の方向を判別できる。
(Step S106) When the eyebrow image cannot be extracted from the captured image, the control unit 302 uses the pattern matching technique or the image comparison technique based on the image feature amount, for example, based on the behavior of eyelids in blinking. It is discriminated whether it is the right eye or the left eye. Next, the control unit 302 outputs information indicating the determined result to the image switching unit 306.
For example, since the upper eyelid moves during blinking, when the eyelid moves from the + Z direction to the −Z direction in FIG. 11 and immediately returns from the −Z direction to the + Z direction, the control unit 302 displays the right eye. It is determined that this is the right-eye observation mode in which the unit 60 is observed. Further, when the movement start direction and the return direction of the eyelid are reversed, the control unit 302 determines that the left-eye observation mode is that the user observes the display unit 60 with the left eye.
As described above, according to the present embodiment, even when the user is lying in the horizontal direction, it is possible to detect the movement of the eyebrows and the eyelashes without depending on the direction of gravity detected by the acceleration sensor 132. The direction of the eye that the user is observing can be determined.

(ステップS107)ステップS106までの判別結果に基づいて、ユーザーが右眼観察形態で使用していると判別された場合、制御部302は、撮像素子72が撮像した撮像領域Pから選択領域Qを選択し、ステップS108へ進む。一方、ユーザーが左眼観察形態で使用していると判別された場合、制御部302は、撮像領域Pから選択領域Rを選択し、ステップS108へ進む。 (Step S107) When it is determined that the user is using the right-eye observation mode based on the determination results up to Step S106, the control unit 302 selects the selection region Q from the imaging region P captured by the imaging element 72. Select and proceed to step S108. On the other hand, when it is determined that the user is using the left-eye observation form, the control unit 302 selects the selection region R from the imaging region P, and proceeds to step S108.

(ステップS108)ステップS106までの判別結果に基づいて、右眼観察形態であると判別された場合、画像切替部306は、表示部60の表示方向を右眼用に設定する。また、ステレオイヤホン100が接続されている場合、音響制御部305は、第1スピーカー103を右耳用に、第2スピーカー104を左耳用になるようステレオ音声出力の左右を設定する。
一方、左眼観察形態であると判別された場合、画像切替部306は、表示部60の表示方向を左眼用に設定する。なお、左眼用の表示方向とは、右眼用の表示顔面を180度回転させて上下反転させる方向である。また、ステレオイヤホン100が接続されている場合、音響制御部305は、第1スピーカー103を左耳用に、第2スピーカー104を右耳用になるようステレオ音声出力の左右を設定する。
(Step S <b> 108) If it is determined that the right-eye observation mode is set based on the determination results up to step S <b> 106, the image switching unit 306 sets the display direction of the display unit 60 for the right eye. Further, when the stereo earphone 100 is connected, the acoustic control unit 305 sets the left and right of the stereo sound output so that the first speaker 103 is for the right ear and the second speaker 104 is for the left ear.
On the other hand, when the left-eye observation mode is determined, the image switching unit 306 sets the display direction of the display unit 60 for the left eye. The display direction for the left eye is a direction in which the display face for the right eye is rotated 180 degrees and turned upside down. When the stereo earphone 100 is connected, the acoustic control unit 305 sets the left and right stereo sound output so that the first speaker 103 is for the left ear and the second speaker 104 is for the right ear.

なお、ステップS101〜S106において、右眼観察形態であるか否かを、加速度センサー132の検出値、撮像画像に基づいて判別する例を説明したが、右眼観察形態であるか否かの判定方法は、これに限られない。
例えば、HMD1は、ディスプレイ本体20に取り付けられている不図示のスイッチ等により検出するようにしてもよい。むろんユーザーが、手動で右眼観察形態または左眼観察形態に設定してもよい。
In addition, although the example which discriminate | determines whether it is a right-eye observation form based on the detected value of the acceleration sensor 132 and a captured image in step S101-S106 was demonstrated, determination of whether it is a right-eye observation form The method is not limited to this.
For example, the HMD 1 may be detected by a switch or the like (not shown) attached to the display main body 20. Of course, the user may manually set the right-eye observation form or the left-eye observation form.

次に、「装着ガイドの処理」手順について説明を行う。
図29は、本実施形態に係るHMD1の装着ガイドの処理手順のフローチャートである。なお、以下の説明では、表示パネル63を、LCD63と称する。この処理は、ユーザーがHMD1を使用、LCD63の表示が行われているときに、適宜この処理を行って、ユーザーにLCD63のずれを補正するように注意を促しても良い。あるいは、タッチスイッチ34等の操作により、位置合わせを行うようユーザーが指示したときに行うようにしてもよい。
Next, the “mounting guide processing” procedure will be described.
FIG. 29 is a flowchart of the processing procedure of the mounting guide for the HMD 1 according to the present embodiment. In the following description, the display panel 63 is referred to as an LCD 63. In this process, when the user uses the HMD 1 and the LCD 63 is being displayed, this process may be appropriately performed to prompt the user to correct the displacement of the LCD 63. Alternatively, it may be performed when the user instructs to perform alignment by operating the touch switch 34 or the like.

本実施形態では、図18(A)及び図18(B)で説明したように、ユーザーの眼の斜め下に撮像素子72を備えている表示部60が配置される。このため、撮像素子72は、図17に示したように、ユーザーの眼の周りの画像を斜め下から撮像する。しかしながら、表示部60と眼との間隔が適切でない場合、及び表示部60の画面中心と眼の中心とがずれている場合、ユーザーはLCD63に表示されている画像を適切に観測できない。このため、本実施形態では、制御部302が、撮像素子72が撮像した画像に基づいて、ユーザーの眼の位置に対して表示部60の位置がずれていることを検出して、ユーザーにアナウンスする。なお、制御部302は、表示部60の位置に対してユーザーの眼の位置がずれているか否かの判別を、撮像画像から選択した選択領域(画像領域)Q又はRの画像を用いて行ってもよく、または撮像画像に含まれるユーザーの片眼を含む領域の画像を用いて行ってもよい。以下の説明では、制御部302が、撮像画像から選択した選択領域Q又はRの画像を用いて、表示部60の位置に対してユーザーの眼の位置がずれているか否かの判別を行う例を説明する。このため、以下の説明において、撮像画像とは、ステップS107(図25参照)において選択された選択領域Q又はRの画像である。   In the present embodiment, as described with reference to FIGS. 18A and 18B, the display unit 60 including the image sensor 72 is disposed obliquely below the user's eye. For this reason, as shown in FIG. 17, the image sensor 72 captures an image around the user's eye obliquely from below. However, when the distance between the display unit 60 and the eyes is not appropriate, and when the screen center of the display unit 60 and the center of the eyes are shifted, the user cannot properly observe the image displayed on the LCD 63. For this reason, in the present embodiment, the control unit 302 detects that the position of the display unit 60 is deviated from the position of the user's eye based on the image captured by the image sensor 72 and announces to the user. To do. Note that the control unit 302 determines whether or not the position of the user's eyes is shifted from the position of the display unit 60 using the image of the selection region (image region) Q or R selected from the captured image. Alternatively, it may be performed using an image of a region including one eye of the user included in the captured image. In the following description, an example in which the control unit 302 determines whether or not the position of the user's eye is shifted from the position of the display unit 60 using the image of the selection region Q or R selected from the captured image. Will be explained. Therefore, in the following description, the captured image is an image of the selection region Q or R selected in step S107 (see FIG. 25).

(ステップS201)制御部302は、例えば、パターンマッチングの技術を用いて、眼の画像を抽出する。制御部302は、「左右の眼の検出処理」の判別結果に基づいて、ユーザーが右眼観察形態で使用していると判別された場合(ステップS201;Yes)、ステップS202へ進み、ユーザーが左眼観察形態で使用していると判別された場合(ステップS201;No)、ステップS214へ進む。 (Step S201) The control unit 302 extracts an eye image using, for example, a pattern matching technique. When it is determined that the user is using the right-eye observation form based on the determination result of “left and right eye detection process” (step S201; Yes), the control unit 302 proceeds to step S202, and the user When it is determined that the left-eye observation mode is used (step S201; No), the process proceeds to step S214.

(ステップS202)制御部302は、撮像画像(例えば、図11を参照)に基づいて、ユーザーの眼の位置が+X方向にずれているか否かの判別を行う。ユーザーの眼の位置が+X方向にずれていると判別された場合(ステップS202;Yes)、ステップS203に進む。ユーザーの眼の位置が+X方向にずれていないと判別した場合(ステップS202;No)、ステップS204に進む。 (Step S202) The control unit 302 determines whether or not the position of the user's eyes is shifted in the + X direction based on the captured image (see, for example, FIG. 11). When it is determined that the position of the user's eye is shifted in the + X direction (step S202; Yes), the process proceeds to step S203. When it is determined that the position of the user's eye is not shifted in the + X direction (step S202; No), the process proceeds to step S204.

(ステップS203)ユーザーの眼の位置が+X方向にずれていると判別された場合、ユーザーの眼に対して表示部60が、ユーザーの右側にずれていることになる。このため、このような場合、処理部123は、ユーザーへ表示部60をユーザーの左側にずらすように、例えば耳元スピーカー23からアナウンスを行う。 (Step S203) When it is determined that the position of the user's eye is shifted in the + X direction, the display unit 60 is shifted to the right side of the user with respect to the user's eye. For this reason, in such a case, the processing unit 123 makes an announcement from the ear speaker 23, for example, so as to shift the display unit 60 to the left side of the user.

(ステップS204)制御部302は、撮像画像に基づいて、ユーザーの眼の位置が−X方向にずれているか否かを判別する。ユーザーの眼の位置が−X方向にずれていると判別された場合(ステップS204;Yes)、ステップS205に進む。ユーザーの眼の位置が−X方向にずれていないと判別された場合(ステップS204;No)、ステップS206に進む。 (Step S <b> 204) The control unit 302 determines whether or not the position of the user's eye is shifted in the −X direction based on the captured image. When it is determined that the position of the user's eye is shifted in the −X direction (step S204; Yes), the process proceeds to step S205. When it is determined that the position of the user's eye is not shifted in the −X direction (step S204; No), the process proceeds to step S206.

(ステップS205)ユーザーの眼の位置が−X方向にずれていると判別された場合、処理部123は、ユーザーへ表示部60をユーザーの右側にずらすように、例えば耳元スピーカー23からアナウンスを行う。 (Step S205) When it is determined that the position of the user's eyes is shifted in the -X direction, the processing unit 123 makes an announcement from the ear speaker 23, for example, so as to shift the display unit 60 to the user's right side. .

(ステップS206)制御部302は、撮像画像に基づいて、ユーザーの眼の位置が+Z方向にずれているか否かを判別する。ユーザーの眼が+Z方向にずれていると判別された場合(ステップS206;Yes)、ステップS207に進む。ユーザーの眼の位置が+Z方向にずれていないと判別された場合(ステップS206;No)、ステップS208に進む。 (Step S206) The control unit 302 determines whether or not the position of the user's eye is shifted in the + Z direction based on the captured image. When it is determined that the user's eyes are displaced in the + Z direction (step S206; Yes), the process proceeds to step S207. When it is determined that the position of the user's eye is not shifted in the + Z direction (step S206; No), the process proceeds to step S208.

(ステップS207)ユーザーの眼の位置が+Z方向にずれていると判別された場合、処理部123は、ユーザーへ表示部60をユーザーの上側にずらすように、例えば耳元スピーカー23からアナウンスを行う。 (Step S207) When it is determined that the position of the user's eye is shifted in the + Z direction, the processing unit 123 makes an announcement from the ear speaker 23, for example, so as to shift the display unit 60 to the user.

(ステップS208)制御部302は、撮像画像に基づいて、ユーザーの眼の位置が−Z方向にずれている否かを判別する。ユーザーの眼の位置が−Z方向にずれていると判別された場合(ステップS208;Yes)、ステップS209に進む。ユーザーの眼の位置が+Z方向にずれていないと判別された場合(ステップS208;No)、ステップS210に進む。 (Step S208) The control unit 302 determines whether or not the position of the user's eye is shifted in the −Z direction based on the captured image. When it is determined that the position of the user's eye is shifted in the −Z direction (step S208; Yes), the process proceeds to step S209. When it is determined that the position of the user's eye is not shifted in the + Z direction (step S208; No), the process proceeds to step S210.

(ステップS209)ユーザーの眼の位置が−Z方向にずれていると判別された場合、処理部123は、ユーザーへ表示部60をユーザーの下側にずらすように、例えば耳元スピーカー23からアナウンスを行う。 (Step S209) When it is determined that the position of the user's eyes is shifted in the -Z direction, the processing unit 123 makes an announcement from the ear speaker 23, for example, so as to shift the display unit 60 to the user's lower side. Do.

(ステップS210)制御部302は、撮像画像に基づいて、ユーザーの眼の画像が所定の大きさより大きいか否かを判別する。ユーザーの眼の画像が所定の大きさより大きいと判別された場合(ステップS210;Yes)、ステップS211に進む。ユーザーの眼の画像が所定の大きさより大きくないと判別された場合(ステップS210;No)、ステップS212に進む。例えば、制御部302は、眼の画像を抽出し、抽出した画像に基づいて、眼の幅を抽出する。制御部302は、抽出した眼の幅が所定の大きさより大きいか否かを判別する。 (Step S210) The control unit 302 determines whether the image of the user's eye is larger than a predetermined size based on the captured image. When it is determined that the image of the user's eye is larger than the predetermined size (step S210; Yes), the process proceeds to step S211. When it is determined that the image of the user's eye is not larger than the predetermined size (step S210; No), the process proceeds to step S212. For example, the control unit 302 extracts an eye image, and extracts the eye width based on the extracted image. The control unit 302 determines whether or not the extracted eye width is larger than a predetermined size.

(ステップS211)ユーザーの眼の画像が所定の大きさより大きいと判別された場合、ユーザーの眼が表示部60に近すぎると推定されるので、処理部123は、表示部60を眼から離すように耳元スピーカー23からアナウンスを行う。 (Step S211) If it is determined that the image of the user's eyes is larger than the predetermined size, it is estimated that the user's eyes are too close to the display unit 60, so that the processing unit 123 moves the display unit 60 away from the eyes. Announcement is made from the ear speaker 23.

(ステップS212)制御部302は、撮像画像に基づいて、ユーザーの眼の画像が所定の大きさより小さいか否かを判別する。ユーザーの眼の画像が所定の大きさより小さいと判別された場合(ステップS212;Yes)、ステップS213に進む。ユーザーの眼の画像が所定の大きさより小さくないと判別された場合(ステップS212;No)、装着状態の判定処理を終了する。 (Step S212) The control unit 302 determines whether the image of the user's eye is smaller than a predetermined size based on the captured image. When it is determined that the image of the user's eye is smaller than the predetermined size (step S212; Yes), the process proceeds to step S213. When it is determined that the image of the user's eye is not smaller than the predetermined size (step S212; No), the wearing state determination process is terminated.

(ステップS213)ユーザーの眼の画像が所定の大きさより小さいと判別された場合、ユーザーの眼が表示部60から遠すぎると推定されるので、処理部123は、表示部60を眼に近づけるように耳元スピーカー23からアナウンスを行う。 (Step S213) If it is determined that the image of the user's eyes is smaller than the predetermined size, it is estimated that the user's eyes are too far from the display unit 60, so that the processing unit 123 brings the display unit 60 closer to the eyes. Announcement is made from the ear speaker 23.

(ステップS214)ユーザーが左眼観察形態で使用していると判別された場合、制御部302は、撮像画像(例えば、図27を参照)に基づいて、ユーザーの眼の位置が+X方向にずれているか否かの判別を行う。ユーザーの眼の位置が+X方向にずれていると判別された場合(ステップS214;Yes)、ステップS215に進む。ユーザーの眼の位置が+X方向にずれていないと判別された場合(ステップS214;No)、ステップS216に進む。 (Step S214) When it is determined that the user is using the left-eye observation form, the control unit 302 shifts the position of the user's eyes in the + X direction based on the captured image (for example, see FIG. 27). It is determined whether or not. When it is determined that the position of the user's eye is shifted in the + X direction (step S214; Yes), the process proceeds to step S215. When it is determined that the position of the user's eye is not shifted in the + X direction (step S214; No), the process proceeds to step S216.

(ステップS215)ユーザーの眼の位置が+X方向にずれていると判別された場合、ユーザーの眼に対して表示部60が、ユーザーの左側にずれていることになる。このため、このような場合、処理部123は、ユーザーへ表示部60をユーザーの右側にずらすように、例えば耳元スピーカー23からアナウンスを行う。 (Step S215) When it is determined that the position of the user's eye is shifted in the + X direction, the display unit 60 is shifted to the left side of the user with respect to the user's eye. For this reason, in such a case, the processing unit 123 makes an announcement from the ear speaker 23, for example, so as to shift the display unit 60 to the right side of the user.

(ステップS216)制御部302は、撮像画像に基づいて、ユーザーの眼の位置が−X方向にずれているか否かを判別する。ユーザーの眼の位置が−X方向にずれていると判別された場合(ステップS216;Yes)、ステップS217に進む。ユーザーの眼の位置が−X方向にずれていないと判別された場合(ステップS216;No)、ステップS218に進む。 (Step S216) The control unit 302 determines whether the position of the user's eye is shifted in the −X direction based on the captured image. When it is determined that the position of the user's eye is shifted in the −X direction (step S216; Yes), the process proceeds to step S217. When it is determined that the position of the user's eye is not shifted in the −X direction (step S216; No), the process proceeds to step S218.

(ステップS217)ユーザーの眼の位置が−X方向にずれていると判別された場合、処理部123は、ユーザーへ表示部60をユーザーの左側にずらすように、例えば耳元スピーカー23からアナウンスを行う。 (Step S217) When it is determined that the position of the user's eyes is shifted in the −X direction, the processing unit 123 makes an announcement from the ear speaker 23, for example, so as to shift the display unit 60 to the left side of the user. .

(ステップS218)制御部302は、撮像画像に基づいて、ユーザーの眼の位置が+Z方向にずれているか否かを判別する。ユーザーの眼の位置が+Z方向にずれていると判別された場合(ステップS218;Yes)、ステップS219に進む。ユーザーの眼の位置が+Z方向にずれていないと判別された場合(ステップS218;No)、ステップS220に進む。 (Step S218) The control unit 302 determines whether or not the position of the user's eye is shifted in the + Z direction based on the captured image. When it is determined that the position of the user's eye is shifted in the + Z direction (step S218; Yes), the process proceeds to step S219. When it is determined that the position of the user's eye is not shifted in the + Z direction (step S218; No), the process proceeds to step S220.

(ステップS219)ユーザーの眼の位置が+Z方向にずれていると判別された場合、処理部123は、ユーザーへ表示部60をユーザーの下側にずらすように、例えば耳元スピーカー23からアナウンスを行う。 (Step S219) When it is determined that the position of the user's eyes is shifted in the + Z direction, the processing unit 123 makes an announcement from the ear speaker 23, for example, so as to shift the display unit 60 to the user's lower side. .

(ステップS220)制御部302は、撮像画像に基づいて、ユーザーの眼の位置が−Z方向にずれている否かを判別する。ユーザーの眼の位置が−Z方向にずれていると判別された場合(ステップS220;Yes)、ステップS221に進む。ユーザーの眼の位置が+Z方向にずれていないと判別された場合(ステップS220;No)、ステップS210に進む。 (Step S <b> 220) The control unit 302 determines whether the position of the user's eye is shifted in the −Z direction based on the captured image. When it is determined that the position of the user's eye is shifted in the −Z direction (step S220; Yes), the process proceeds to step S221. When it is determined that the position of the user's eye is not shifted in the + Z direction (step S220; No), the process proceeds to step S210.

(ステップS221)ユーザーの眼の位置が−Z方向にずれていると判別された場合、処理部123は、ユーザーへ表示部60をユーザーの上側にずらすように、例えば耳元スピーカー23からアナウンスを行う。
ステップS221処理後、処理部123は、ステップS211からS213を行い、HMD1の装着ガイドの処理を終了する。
(Step S221) When it is determined that the position of the user's eye is shifted in the -Z direction, the processing unit 123 makes an announcement from the ear speaker 23, for example, so as to shift the display unit 60 to the user. .
After the processing in step S221, the processing unit 123 performs steps S211 to S213, and ends the processing for mounting the HMD1.

次に、眼球照明ライトの選択処理について説明する。図30は、本実施形態に係るHMD1の眼球照明ライトの選択処理手順のフローチャートである。   Next, the eyeball illumination light selection process will be described. FIG. 30 is a flowchart of the selection processing procedure of the eyeball illumination light of the HMD 1 according to the present embodiment.

(ステップS401)制御部302は、「左右の眼の検出処理」の判別結果に基づいて、ユーザーが右眼観察形態で使用していると判別された場合(ステップS401;Yes)、ステップS402へ進み、ユーザーが左眼観察形態で使用していると判別された場合(ステップS401;No)、ステップS403へ進む。 (Step S401) When the control unit 302 determines that the user is using the right-eye observation mode based on the determination result of the “left and right eye detection process” (step S401; Yes), the process proceeds to step S402. If it is determined that the user is using the left-eye observation form (step S401; No), the process proceeds to step S403.

(ステップS402)ユーザーが右眼観察形態で使用していると判別された場合、制御部302は、眼球照明ライト166a及び166bを選択し、選択した結果を眼球照明ライト選択設定として記憶部303に記憶させる。制御部302は、眼球照明ライト166c及び166dを消灯させて、眼球照明ライトの選択処理を終了する。 (Step S402) When it is determined that the user is using the right-eye observation mode, the control unit 302 selects the eyeball illumination lights 166a and 166b and stores the selected result in the storage unit 303 as the eyeball illumination light selection setting. Remember me. The control unit 302 turns off the eyeball illumination lights 166c and 166d and ends the eyeball illumination light selection process.

(ステップS403)ユーザーが左眼観察形態で使用していると判別された場合、制御部302は、眼球照明ライト166c及び166dを選択し、選択した結果を眼球照明ライト選択設定として記憶部303に記憶させる。制御部302は、眼球照明ライト166c及び166dを消灯させて、眼球照明ライトの選択処理を終了する。 (Step S403) When it is determined that the user is using the left-eye observation mode, the control unit 302 selects the eyeball illumination lights 166c and 166d and stores the selected result in the storage unit 303 as the eyeball illumination light selection setting. Remember me. The control unit 302 turns off the eyeball illumination lights 166c and 166d and ends the eyeball illumination light selection process.

以上のように、本実施形態のHMD1は、表示部60とユーザーとの位置関係に応じて、眼球照明ライト166a〜166dを選択して点灯させるようにした。この結果、本実施形態のHMD1は、眼球を照明するライトを適宜選択可能としたことにより、使用者の眼を的確に照明できるとともに、消費電力を抑えることが可能となった。   As described above, the HMD 1 of the present embodiment selects and turns on the eyeball illumination lights 166a to 166d according to the positional relationship between the display unit 60 and the user. As a result, the HMD 1 of the present embodiment can appropriately illuminate the user's eyes by appropriately selecting a light for illuminating the eyeball, and can reduce power consumption.

次に、注視点検出のキャリブレーションの詳細について説明を行う。
本実施形態に係るHMD1では、キャリブレーション比較例のようにユーザーがキャリブレーション設定を行うのではなく、後述するように表示パネル63に表示される情報を操作しているときに、視線(注視点)に基づいて操作するためのパラメータを取得し、注視点検出のためのキャリブレーションを行う。
図31及び図32は、本実施形態に係る注視点検出のためのキャリブレーションの手順のフローチャートである。図33は、本実施形態に係る右眼観察形態における眼球照明ライト166の点灯、消灯を説明する図である。図34は、本実施形態に係る表示部60の位置と眼球照明ライト166の関係を説明する図であり、ユーザーの顔を水平正面から見た図である。
なお、以下では、図7(A)、図7(B)、及び図34に示すように、右眼観察形態かつ眼の下に表示部60が配置されている状態、または左眼観察形態かつ眼の下に表示部60が配置されている状態を検出して、注視点検出のためのキャリブレーションを行う例について説明する。
Next, the details of the calibration for gazing point detection will be described.
In the HMD 1 according to the present embodiment, the user does not set the calibration as in the calibration comparative example, but operates the information displayed on the display panel 63 as will be described later. ) To obtain the parameters for operation based on), and perform calibration for gazing point detection.
FIG. 31 and FIG. 32 are flowcharts of a calibration procedure for gazing point detection according to the present embodiment. FIG. 33 is a diagram for explaining turning on and off of the eyeball illumination light 166 in the right-eye observation mode according to this embodiment. FIG. 34 is a diagram for explaining the relationship between the position of the display unit 60 and the eyeball illumination light 166 according to the present embodiment, and is a diagram of the user's face viewed from the horizontal front.
In the following, as shown in FIG. 7A, FIG. 7B, and FIG. 34, a state in which the display unit 60 is arranged in the right-eye observation form and under the eye, or the left-eye observation form and An example will be described in which a state in which the display unit 60 is placed under the eyes is detected and calibration for detecting a point of interest is performed.

図34において、一点鎖線で示した位置600a、及び位置600bは、表示部60が配置される位置の例である。以下の処理で説明するように、HMD1は、位置600aに表示部60がある場合、眼の近傍にある眼球照明ライト166a及び166bを点灯させ、他を消灯させる。一方、HMD1は、位置600bに表示部60がある場合、眼の近傍にある眼球照明ライト166c及び166dを点灯させ、他を消灯させる。   In FIG. 34, positions 600a and 600b indicated by alternate long and short dash lines are examples of positions where the display unit 60 is disposed. As will be described in the following processing, when the display unit 60 is at the position 600a, the HMD 1 turns on the eyeball illumination lights 166a and 166b in the vicinity of the eye and turns off the others. On the other hand, when the display unit 60 is at the position 600b, the HMD 1 turns on the eyeball illumination lights 166c and 166d in the vicinity of the eyes and turns off the others.

(ステップS501)制御部302は、「左右の眼の検出処理」の判別結果に基づいて、ユーザーが右眼観察形態で使用しているか否かを判別する。制御部302は、ユーザーが右眼観察形態で使用していると判別された場合(ステップS501;Yes)、ステップS502に進み、ユーザーが右眼観察形態で使用していないと判別された場合(ステップS501;No)、ステップS503に進む。 (Step S <b> 501) The control unit 302 determines whether or not the user is using the right-eye observation mode based on the determination result of “left and right eye detection processing”. When it is determined that the user is using the right-eye observation form (step S501; Yes), the control unit 302 proceeds to step S502, and when it is determined that the user is not using the right-eye observation form (step S501). Step S501; No), the process proceeds to Step S503.

(ステップS502)右眼観察形態であると判別された場合、制御部302は、記憶部303に記憶されている眼球照明ライトの選択設定を読み出す。次に、制御部302は、読み出したる眼球照明ライトの選択設定に基づいて、眼球照明部304を介して眼球照明ライト166aと166bを点灯する。
図33に示すように、ユーザー右眼の下に表示部60を配置して観察する場合、眼球照明ライト166cと166dは、極めて頬の近傍に配置されることになるために眼球を照明できない。このため、本実施形態では、図34の位置600aに示すように、眼球照明部304は、眼球照明ライト166c、及び166dは消費電力を下げるために消灯する。
(Step S <b> 502) When the right eye observation mode is determined, the control unit 302 reads the selection setting of the eyeball illumination light stored in the storage unit 303. Next, the control unit 302 turns on the eyeball illumination lights 166a and 166b via the eyeball illumination unit 304 based on the selection setting of the eyeball illumination light to be read.
As shown in FIG. 33, when the display unit 60 is placed under the user's right eye for observation, the eyeball illumination lights 166c and 166d cannot be illuminated because they are arranged very close to the cheek. Therefore, in this embodiment, as shown at a position 600a in FIG. 34, the eyeball illumination unit 304 turns off the eyeball illumination lights 166c and 166d in order to reduce power consumption.

(ステップS503)左眼観察形態であると判別された場合、制御部302は、記憶部303に記憶されている眼球照明ライトの選択設定を読み出す。次に、制御部302は、読み出したる眼球照明ライトの選択設定に基づいて、眼球照明部304を介して、図34の位置600bに示すように、眼球照明ライト166cと166dを点灯する。眼球照明部304は、消費電力を下げるために、眼球照明ライト166a及び166bを消灯させる。
以上の処理により、本実施形態のHMD1は、ユーザーと表示部60との位置関係に応じて眼球を照明するライトの選択が適宜行うことが可能となる。さらに、本実施形態のHMD1は、使用しない眼球照明ライト166を消灯することで効率的な省電力対策が可能となっている。
(Step S <b> 503) When it is determined that the left-eye observation mode is selected, the control unit 302 reads the selection setting of the eyeball illumination light stored in the storage unit 303. Next, the control unit 302 turns on the eyeball illumination lights 166c and 166d via the eyeball illumination unit 304 based on the read setting of the eyeball illumination light to be read, as indicated by a position 600b in FIG. The eyeball illumination unit 304 turns off the eyeball illumination lights 166a and 166b in order to reduce power consumption.
With the above processing, the HMD 1 of the present embodiment can appropriately select a light that illuminates the eyeball according to the positional relationship between the user and the display unit 60. Furthermore, the HMD 1 of the present embodiment can efficiently take measures for power saving by turning off the eyeball illumination light 166 that is not used.

(ステップS504)画像切替部306は、ステップS502またはS503終了後、図35に示すようなパスワード入力画面(表示画像)を、LCD63に表示する。これは一般に普及しているモバイル用途のPCや携帯電話で用いられている、ユーザーが設定したパスワードを入力するもので、他人が使用することを防ぐことを目的にしている。
図35は、本実施形態に係るパスワード入力画面400eの一例である。図35において、パスワード入力画面400eの長手方向をX軸方向、短手方向をZ軸方向とする。図35に示すように、LCD63上には、AからZまでのアルファベット・キー(操作画像)461、記号キー(操作画像)462、シフトキー(操作画像)463、10キー切り替えキー(操作画像)464、スペースキー(操作画像)465、決定(Done)キー(操作画像)466、入力された文字を表示する領域467、及びカーソル468が表示される。また、図35において、符号Dxは、X軸方向の座標、符号Dzは、Z軸方向の座標を表す。
(Step S504) After step S502 or S503 is completed, the image switching unit 306 displays a password input screen (display image) as shown in FIG. This is a method for inputting a password set by a user, which is used in PCs and mobile phones that are widely used for mobile purposes, and is intended to prevent others from using the password.
FIG. 35 is an example of a password input screen 400e according to the present embodiment. In FIG. 35, the longitudinal direction of the password input screen 400e is defined as the X-axis direction, and the short direction is defined as the Z-axis direction. As shown in FIG. 35, on the LCD 63, alphabet keys A to Z (operation images) 461, symbol keys (operation images) 462, shift keys (operation images) 463, 10-key switching keys (operation images) 464 are displayed. , A space key (operation image) 465, a determination (Done) key (operation image) 466, an area 467 for displaying input characters, and a cursor 468 are displayed. In FIG. 35, the symbol Dx represents the coordinate in the X-axis direction, and the symbol Dz represents the coordinate in the Z-axis direction.

表示画像とは、LCD63に表示される画像であり、図35に示したパスワード入力画面、後述するメニュー画面等である。また、操作画像とは、表示画像上に表示され、ユーザーが操作部(操作スイッチ30、タッチスイッチ34)により選択可能な、各々のキー画像、各々のボタン画像、各々のアイコン画像、カーソル画像等である。上述のように、これらの表示画像は、表示されたことに応じて、ユーザーが操作部を操作して、操作画像の選択を行うことを促す画像を含んでいる。   The display image is an image displayed on the LCD 63, such as a password input screen shown in FIG. 35, a menu screen described later, or the like. The operation image is displayed on the display image and can be selected by the user via the operation unit (operation switch 30 and touch switch 34). Each key image, each button image, each icon image, cursor image, etc. It is. As described above, these display images include images that prompt the user to select an operation image by operating the operation unit in response to the display.

(ステップS505)図31に戻って、制御部302は、パラメータのサフィックス(文字列)となる「i」をゼロに初期化する。 (Step S <b> 505) Returning to FIG. 31, the control unit 302 initializes “i” as a parameter suffix (character string) to zero.

(ステップS506)制御部302は、サフィックス「i」に1を加算する。 (Step S506) The control unit 302 adds 1 to the suffix “i”.

(ステップS507)制御部302は、撮像素子72が撮像した撮像画像(含む映像)を取得する。次に、制御部302は、取得した撮像画像に基づいて、眼球に照射されている眼球照明ライト166a〜166dによる輝点の座標(第2座標)(Ex(i),Ez(i))を取得する。第2座標は、眼球の回動動作、すなわち視線の方向に1対1で対応する座標である。 (Step S507) The control unit 302 acquires a captured image (including video) captured by the image sensor 72. Next, the control unit 302 determines the coordinates (second coordinates) (Ex (i), Ez (i)) of the bright spot by the eyeball illumination lights 166a to 166d irradiated on the eyeball based on the acquired captured image. get. The second coordinates are coordinates that correspond one-to-one with the rotation of the eyeball, that is, the direction of the line of sight.

制御部302が取得した撮像画像は、例えば図11である。図11に示すように、眼球照明ライト166aによる輝点604A、及び眼球照明ライト166bによる輝点604Bが画像に映っており、この輝点が眼球の運動に連動して移動する。すなわち、眼球が左側に動く場合、輝点604A及び604Bは、+X側へ移動する。また、眼球が左側に動く場合、同輝点は、−X側へ移動する。また、眼球が上方に動く場合、輝点は、+Z側へ移動し、眼球が下方向に動く場合、輝点が−Z側に移動する。この眼球の動きは、LCD63内の表示で何処を注視するかによって、LCD63内の位置と輝点の位置が一義的に決定される。   The captured image acquired by the control unit 302 is, for example, FIG. As shown in FIG. 11, a bright spot 604A by the eyeball illumination light 166a and a bright spot 604B by the eyeball illumination light 166b are shown in the image, and the bright spot moves in conjunction with the movement of the eyeball. That is, when the eyeball moves to the left side, the bright spots 604A and 604B move to the + X side. Further, when the eyeball moves to the left side, the same bright spot moves to the −X side. When the eyeball moves upward, the bright spot moves to the + Z side, and when the eyeball moves downward, the bright spot moves to the −Z side. As for the movement of the eyeball, the position in the LCD 63 and the position of the bright spot are uniquely determined depending on where the user looks at the display in the LCD 63.

図35のパスワード入力画面400eにおいて、カーソル468が表示される。カーソル468は、ユーザーが操作スイッチ30を上下左右に倒して操作することで、カーソル468の位置を上下左右に動かすことが可能となっている。そして、図35に示すように、例えばパスワードの一文字として「P」が選択された場合、カーソル468が「P」の文字の所に移動され、さらに操作スイッチ30が押圧されて、「P」の文字が入力される。
この操作スイッチ30が押圧される直前において、ユーザーは、「P」の文字を注視している確率が非常に高いので、このときの眼の輝点の座標を取り込む。なお、制御部302は、図11における2つの輝点604Aの座標(Xa,Za)、輝点604Bの座標(Xb,Zb)の平均を取った値を用いて、パスワード1文字目を注視したときの眼の輝点のX軸及びY軸の測定値Ex(1)、Ez(1)を、次式(2)及び次式(3)のように算出する。
A cursor 468 is displayed on the password input screen 400e of FIG. The cursor 468 can be moved up, down, left, and right by the user operating the operation switch 30 by tilting it up, down, left, or right. As shown in FIG. 35, for example, when “P” is selected as one character of the password, the cursor 468 is moved to the character “P”, and the operation switch 30 is further pressed to change the character “P”. A character is entered.
Immediately before the operation switch 30 is pressed, the user has a very high probability of gazing at the letter “P”. Note that the control unit 302 gazes at the first character of the password by using an average value of the coordinates (Xa, Za) of the two bright spots 604A and the coordinates (Xb, Zb) of the bright spots 604B in FIG. The measured values Ex (1) and Ez (1) of the X-axis and Y-axis of the bright spot of the eye are calculated as in the following expressions (2) and (3).

Ex(1)= (Xa+Xb)/2 ・・・(2)   Ex (1) = (Xa + Xb) / 2 (2)

Ez(1)= (Za+Zb)/2 ・・・(3)   Ez (1) = (Za + Zb) / 2 (3)

制御部302は、算出した測定値の座標(Ex(i),Ez(i))を、記憶部303に記憶させる。   The control unit 302 causes the storage unit 303 to store the calculated coordinates (Ex (i), Ez (i)) of the measurement value.

(ステップS508)図31に戻って、制御部302は、文字が表示されているLCD63上の座標(第1座標)である(Dx(i),Dz(i))を取得する。例えば図35において「P」の文字が選択された場合、制御部302は、文字「P」の座標が取得し、パスワード1文字目の座標として(Dx(1)、Dz(1))を取得する。このように、第1座標は、LCD63に表示される表示画像内における操作画像の座標である。また、操作画像には、各々、予め定められている基準点が記憶部303に記憶されているようにしてもよい。予め定められている基準点は、例えば操作画像の角(左上、右上、左下、または右下)、操作画像の中心等である。制御部302は、選択された操作画像に予め定められている基準点の座標を取得する。または、制御部302は、文字「P」におけるカーソル468の矢印の先端の基準点を座標の代わりに取得し、取得した座標を第1座標としてもよい。 (Step S508) Returning to FIG. 31, the control unit 302 acquires (Dx (i), Dz (i)), which are coordinates (first coordinates) on the LCD 63 on which characters are displayed. For example, when the character “P” is selected in FIG. 35, the control unit 302 acquires the coordinates of the character “P” and acquires (Dx (1), Dz (1)) as the coordinates of the first character of the password. To do. Thus, the first coordinates are the coordinates of the operation image in the display image displayed on the LCD 63. In addition, a predetermined reference point may be stored in the storage unit 303 in each operation image. The predetermined reference points are, for example, the corners of the operation image (upper left, upper right, lower left, or lower right), the center of the operation image, and the like. The control unit 302 acquires the coordinates of a reference point that is predetermined for the selected operation image. Alternatively, the control unit 302 may acquire the reference point of the tip of the arrow of the cursor 468 in the character “P” instead of the coordinates, and the acquired coordinates may be the first coordinates.

(ステップS509)制御部302は、ユーザーにより設定されているパスワードの認証が完了したか否かを判別する。パスワードの認証が完了したと判別した場合(ステップS509;Yes)、ステップS510に進む。パスワードの認証が完了していないと判別した場合(S509;No)、ステップS506からS509を繰り返す。
なお、ステップS507からS509において、複数のパスワードの文字が選ばれることで眼の輝点の測定座標である(Ex(i),Ez(i))、そしてLCD63上の文字の位置座標である(Dx(i),Dz(i))の値が得られる。また、パスワードの入力が終わったとユーザーが判別した場合、ユーザーは、操作スイッチ30でDoneキー466を選択して押す。このとき、制御部302は、Doneキー466の座標も取得する。
(Step S509) The control unit 302 determines whether or not the authentication of the password set by the user has been completed. If it is determined that password authentication has been completed (step S509; Yes), the process proceeds to step S510. If it is determined that password authentication has not been completed (S509; No), steps S506 to S509 are repeated.
In steps S507 to S509, a plurality of password characters are selected, so that the measurement coordinates of the bright point of the eye (Ex (i), Ez (i)) and the position coordinates of the characters on the LCD 63 ( The value of Dx (i), Dz (i)) is obtained. When the user determines that the password has been input, the user selects and presses the Done key 466 with the operation switch 30. At this time, the control unit 302 also acquires the coordinates of the Done key 466.

(ステップS510)ステップS312までのパスワードの入力作業によって、眼の輝点の測定値と、これに対応する文字の位置情報が得られる。このため、この後は、取得した輝点の座標を測定すれば、ユーザーがLCD63上のどこを注視しているのかが分かるようになる。すなわち、これらの処理により、視線入力による操作が可能になる。そこで、制御部302は、この測定値(Ex,Ez)に基づいて、表示位置(Dx,Dz)を求める関数式を、次式(4)及び次式(5)のように生成する。 (Step S510) By the password input operation up to Step S312, the measured value of the bright point of the eye and the position information of the character corresponding to this are obtained. Therefore, after this, if the coordinates of the acquired bright spot are measured, it becomes possible to know where the user is gazing on the LCD 63. That is, by these processes, an operation by line-of-sight input becomes possible. Therefore, the control unit 302 generates function expressions for obtaining the display position (Dx, Dz) based on the measured values (Ex, Ez) as the following expressions (4) and (5).

Dx = F1(Ex、Ez) ・・・(4)   Dx = F1 (Ex, Ez) (4)

Dz = F2(Ex、Ez) ・・・(5)   Dz = F2 (Ex, Ez) (5)

式(4)及び(5)において、F1は、Dxと(Ex、Ez)の関数、F2は、Dzと(Ex、Ez)の関数である。次に、制御部302は、生成した式(4)及び(5)を、記憶部303に記憶させる。   In the equations (4) and (5), F1 is a function of Dx and (Ex, Ez), and F2 is a function of Dz and (Ex, Ez). Next, the control unit 302 stores the generated expressions (4) and (5) in the storage unit 303.

(ステップS511)パスワードの入力が完了したことを受け、画像切替部306は、図36に示すようなメニューのアイコンを表示する。
図36は、本実施形態に係るメニュー画面(表示画像)400fの一例を示す図である。図36に示した例では、メニュー画面400fに9つのアイコン(操作画像)471から479、及びカーソル(操作画像)480が表示されている。例えば、アイコン471は、動画撮像の指示を示すアイコンである。なお、アイコン471から479、各々をアプリケーションと称する。また、これらの中でアイコン471は、視線によって入力する機能を有するアプリケーションであることから、特に視線入力アプリケーションと称する。
なお、このアイコン471が表す動画撮影を行うアプリケーションでは、カメラ64で動画撮影ならびに記録を行うとともに、後述するように画面に表示されるマーカーの移動や、ボタンの操作を視線入力で行うことが可能となっている。
初期状態では、図36に示したように、アイコン471の位置に、カーソル480が表示される。
(Step S511) Upon completion of the password input, the image switching unit 306 displays a menu icon as shown in FIG.
FIG. 36 is a diagram showing an example of a menu screen (display image) 400f according to the present embodiment. In the example shown in FIG. 36, nine icons (operation images) 471 to 479 and a cursor (operation image) 480 are displayed on the menu screen 400f. For example, the icon 471 is an icon that indicates an instruction to capture a moving image. Icons 471 to 479 are referred to as applications. Of these, the icon 471 is an application having a function of inputting with a line of sight, and is particularly referred to as a line-of-sight input application.
In addition, in the application for taking a moving image represented by the icon 471, it is possible to perform moving image shooting and recording with the camera 64, and to move a marker displayed on the screen and to operate a button by a line-of-sight input as described later. It has become.
In the initial state, a cursor 480 is displayed at the position of the icon 471 as shown in FIG.

なお、図36のメニュー画面は、例えば、処理部123の制御を司るOS(オペレーションシステム)において、各種設定を行うメニュー画面(表示画像)であってもよい。各種設定を行うメニュー画面とは、例えば、表示パネル63の輝度調整、表示パネル63のコントラスト調整、日時設定、スタンバイ状態にするか否かの設定等の各種設定ボタン(またはアイコン、キー等)が表示されている画面である。
また、メニュー画面400fにアイコンが表示されるアプリケーションは、HMD1内部で実行されるアプリケーションに限られない。例えば、アイコンが表示されるアプリケーションは、通信を行っている通話相手が使用しているHMD、PCで実行されるアプリケーションであってもよい。また、アイコンが表示されるアプリケーションは、インターネット等のネットワーク上で実行される、例えばWeb(ウェブ)アプリケーション等であってもよい。
The menu screen in FIG. 36 may be a menu screen (display image) for performing various settings in an OS (operation system) that controls the processing unit 123, for example. The menu screen for performing various settings includes, for example, various setting buttons (or icons, keys, etc.) for adjusting the brightness of the display panel 63, adjusting the contrast of the display panel 63, setting the date and time, and setting whether or not to enter the standby state. This is the displayed screen.
Further, an application whose icon is displayed on the menu screen 400f is not limited to an application executed inside the HMD 1. For example, the application in which the icon is displayed may be an application executed on the HMD or PC used by the communication partner that is performing communication. In addition, the application in which the icon is displayed may be, for example, a Web application that is executed on a network such as the Internet.

(ステップS512)図31に戻って、制御部302は、メニュー画面において、操作スイッチ30により手動操作でアイコン471が選択されたか否かを判別する。操作スイッチ30により手動操作でアイコン471が選択されていないと判別した場合(ステップS512;No)、ステップS513に進む。操作スイッチ30により手動操作でアイコンが選択されたと判別した場合(ステップS512;Yes)、丸C(図32、ステップS519)に進む。 (Step S512) Returning to FIG. 31, the control unit 302 determines whether or not the icon 471 is manually selected by the operation switch 30 on the menu screen. When it is determined that the icon 471 has not been selected manually by the operation switch 30 (step S512; No), the process proceeds to step S513. When it is determined that the icon has been manually selected by the operation switch 30 (step S512; Yes), the process proceeds to the circle C (FIG. 32, step S519).

(ステップS513)制御部302は、アイコン471以外のアプリケーションが選択されたか否かを判別する。アイコン471以外のアプリケーションが選択されたと判別された場合(ステップS513;Yes)、ステップS514に進み、制御部302は、ユーザーの行うメニュー操作の中で、さらに視線入力の精度を高めるべくキャリブレーションを行う。アイコン471以外のアプリケーションが選択されていないと判別された場合(ステップS513;No)、ステップS512に戻る。 (Step S513) The control unit 302 determines whether an application other than the icon 471 has been selected. When it is determined that an application other than the icon 471 has been selected (step S513; Yes), the process proceeds to step S514, and the control unit 302 performs calibration to further improve the accuracy of the line-of-sight input in the menu operation performed by the user. Do. When it is determined that an application other than the icon 471 has not been selected (step S513; No), the process returns to step S512.

(ステップS514)アイコン471以外のアプリケーションが選択されたと判別された場合、制御部302は、サフィックス「i」に1を加算する。 (Step S514) When it is determined that an application other than the icon 471 has been selected, the control unit 302 adds 1 to the suffix “i”.

(ステップS515)制御部302は、撮像画像を取得する。次に、制御部302は、取得した撮像画像に基づいて、眼球に照射されている眼球照明ライト166a〜166dによる輝点の座標(Ex(i),Ez(i))を取得する。 (Step S515) The control unit 302 acquires a captured image. Next, the control unit 302 acquires the coordinates (Ex (i), Ez (i)) of the bright spot by the eyeball illumination lights 166a to 166d that are irradiated to the eyeball based on the acquired captured image.

(ステップS516)制御部302は、選択されたアイコンが表示されているLCD63上の座標である(Dx(i),Dz(i))を取得する。 (Step S516) The control unit 302 acquires coordinates (Dx (i), Dz (i)) on the LCD 63 on which the selected icon is displayed.

(ステップS517)制御部302は、自部に記憶されている関係式(4)及び(5)を再計算して、再計算して生成した関係式を、記憶部303に記憶させる。 (Step S517) The control unit 302 recalculates the relational expressions (4) and (5) stored in the self unit, and stores the relational expression generated by the recalculation in the storage unit 303.

(ステップS518)制御部302は、選択されたアプリケーション(またはメニュー)を実行する。アプリケーション実行後、ステップS511に戻る。
すなわち、制御部302は、操作スイッチ30などによってアイコン、チェックボックス等が選択される毎に、輝度の座標を取得し、かつ関係式(4)及び(5)を再計算することで、注視点検出のためのキャリブレーションを行う。なお、メニュー画面400fを含め、各種アプリケーションが実行される中で、アイコンやチェックボックスなどの選択がなされる度に、そのアイコンやチェックボックスを注視点として、注視点検出のためのキャリブレーションを逐次行ってもよい。
(Step S518) The control unit 302 executes the selected application (or menu). After executing the application, the process returns to step S511.
That is, the control unit 302 obtains the luminance coordinates and recalculates the relational expressions (4) and (5) every time an icon, a check box, or the like is selected by the operation switch 30 or the like, so that the gaze point is obtained. Perform calibration for detection. Note that each time an icon or check box is selected during execution of various applications including the menu screen 400f, calibration for detecting a point of interest is sequentially performed using the icon or check box as the point of interest. You may go.

(ステップS519)図32に移って、操作スイッチ30により手動操作でアイコン471が選択されたと判別した場合、制御部302は、サフィックス「i」に1を加算する。 (Step S519) Moving to FIG. 32, when it is determined that the icon 471 has been manually selected by the operation switch 30, the control unit 302 adds 1 to the suffix “i”.

(ステップS520)制御部302は、選択されたアイコンが表示されているLCD63上の座標である(Dx(i),Dz(i))を取得する。 (Step S520) The control unit 302 acquires (Dx (i), Dz (i)), which are coordinates on the LCD 63 on which the selected icon is displayed.

(ステップS521)制御部302は、自部に記憶されている関係式(4)及び(5)を再計算して、再計算して生成した関係式を、記憶部303に記憶させる。 (Step S <b> 521) The control unit 302 recalculates the relational expressions (4) and (5) stored in the self unit, and stores the relational expression generated by the recalculation in the storage unit 303.

(ステップS522)制御部302は、視線入力のアプリを実行する前に、注視点検出のためのキャリブレーションが十分に行われたか否かの判別をする。具体的には、例えばパスワードの登録が一文字であれば、キャリブレーションが十分に行われたとは言えない可能性がある。例えば、少なくとも、パスワード入力画面400e、またはメニュー画面400fにおいて、異なる2つの位置の注視点検出が行われた場合、制御部302は、キャリブレーションが十分に行われたと判別する。なお、異なる2つの位置は、パスワード入力画面400e、またはメニュー画面400f内の対角位置に配置されている位置である。
キャリブレーションが十分に行われたと判別された場合(ステップS522;Yes)、ステップS527に進む。キャリブレーションが十分に行われていないと判別された場合(ステップS522;No)、ステップS523に進む。
(Step S <b> 522) The control unit 302 determines whether or not calibration for detecting a gazing point has been sufficiently performed before executing the gaze input application. Specifically, for example, if the password registration is one character, there is a possibility that the calibration is not sufficiently performed. For example, if at least two different gazing points are detected on the password input screen 400e or the menu screen 400f, the control unit 302 determines that the calibration has been sufficiently performed. Note that the two different positions are positions arranged at diagonal positions in the password input screen 400e or the menu screen 400f.
When it is determined that the calibration has been sufficiently performed (step S522; Yes), the process proceeds to step S527. When it is determined that the calibration is not sufficiently performed (step S522; No), the process proceeds to step S523.

(ステップS523〜S526)制御部302は、画像切替部306を介して、図37に示すような再度、ユーザーの入力を促す文章を提示する。制御部302は、図37に示す画面(表示画像)を追加で提示し、この画面をユーザーが操作するとき、LCD63上の座標である(Dx(i),Dz(i))、及び眼球照明ライト166a〜166dによる輝点の座標(Ex(i),Ez(i))を取得して、注視点検出のためのキャリブレーションを行う。
図37は、本実施形態に係るユーザーに入力を促す画面の一例である。図37に示すように、画面400gには、文字列「視線入力モードを使いますか?」481、「はい」ボタン(操作画像)482、及び「いいえ」ボタン(操作画像)483が表示されている。
例えば、図37において、「はい」ボタン482が視線入力により選択された場合、図35において、Doneキー466、図36において動画撮像の指示のアイコン471がすでに選択されているため、画面の互いにはなれた3箇所のボタン(またはキー、アイコン)が押されたことになり、ある程度信頼のおけるキャリブレーションが完了したことになる。そして、制御部302は、ステップS519からS521と同様の処理を、ステップS523からS526の処理で行い、(Dx,Dz)を求める関数式が導き出す。
(Steps S <b> 523 to S <b> 526) The control unit 302 presents text prompting the user to input again as illustrated in FIG. 37 via the image switching unit 306. The control unit 302 additionally presents the screen (display image) shown in FIG. 37, and when the user operates this screen, the coordinates on the LCD 63 (Dx (i), Dz (i)), and eyeball illumination The coordinates (Ex (i), Ez (i)) of the bright spot by the lights 166a to 166d are acquired, and calibration for gazing point detection is performed.
FIG. 37 is an example of a screen for prompting the user to input according to the present embodiment. As shown in FIG. 37, a character string “Do you use the line-of-sight input mode?” 481, “Yes” button (operation image) 482, and “No” button (operation image) 483 are displayed on the screen 400g. Yes.
For example, in FIG. 37, when the “Yes” button 482 is selected by line-of-sight input, the Done key 466 in FIG. 35 and the moving image imaging instruction icon 471 in FIG. Three buttons (or keys, icons) have been pressed, and a certain degree of reliable calibration has been completed. Then, the control unit 302 performs the same processing as steps S519 to S521 by the processing of steps S523 to S526, and derives a function expression for obtaining (Dx, Dz).

なお、入力用の表示とは、図35における各キー(461〜466)、図36における各アイコン471〜479、図37における各ボタン(482、483)等である。ここで、キャリブレーションが不足している位置が画面内にある場合、Doneキー466は、表示位置を適宜変更し、キャリブレーションが必要とされる位置に表示されてもよい。   The display for input includes each key (461-466) in FIG. 35, each icon 471-479 in FIG. 36, each button (482, 483) in FIG. Here, when the position where the calibration is insufficient is in the screen, the Done key 466 may be displayed at a position where calibration is necessary by appropriately changing the display position.

(ステップS527)図32に戻って、制御部302は、画像切替部306を介して、カメラ64が撮像した画像を、図38に示すように、LCD63に表示する。
図38は、本実施形態に係る視線入力のアプリケーションの画面400hの説明を行う図である。図38に示した例では、画面400(表示画像)hには、撮像された画像491、マーカー(操作画像)492、「終了ボタン」(操作画像)493、「記録ボタン」(操作画像)494、及び「メニューボタン」(操作画像)495が表示されている。マーカー492は、ユーザーが画像491において、必要な位置を指し示すマーカーである。「終了ボタン」493は、アプリケーションを終了させ、図36に示したメニュー画面400fに戻るボタンである。また、「記録ボタン」494は、カメラ64が撮像した画像信号を、フラッシュメモリー122に記録開始するボタンである。「メニューボタン」495は、このアプリケーション固有の設定を行うための不図示のメニューを表示させるためのボタンである。
なお、HMD1が、他の端末と通信中の場合、撮像された画像491は、送受信部308を介して、他の端末に送信される。
本実施形態のHMD1は、画面400hに示すように、ユーザーが観察しつつカメラ64で撮影している画像において、商品496をカーソルで指し示す画像を他の端末に送信することで、商品496について具体的に相手に伝えることが可能となっている。
(Step S527) Returning to FIG. 32, the control unit 302 displays the image captured by the camera 64 on the LCD 63 via the image switching unit 306 as shown in FIG.
FIG. 38 is a diagram for explaining the screen 400h of the line-of-sight input application according to the present embodiment. In the example shown in FIG. 38, the screen 400 (display image) h includes a captured image 491, a marker (operation image) 492, an “end button” (operation image) 493, and a “record button” (operation image) 494. , And a “menu button” (operation image) 495 are displayed. The marker 492 is a marker that indicates a required position in the image 491 by the user. The “end button” 493 is a button for ending the application and returning to the menu screen 400f shown in FIG. The “record button” 494 is a button for starting to record the image signal captured by the camera 64 in the flash memory 122. The “menu button” 495 is a button for displaying a menu (not shown) for performing settings specific to the application.
When the HMD 1 is communicating with another terminal, the captured image 491 is transmitted to the other terminal via the transmission / reception unit 308.
As shown in the screen 400h, the HMD 1 of the present embodiment is specific to the product 496 by transmitting an image indicating the product 496 with a cursor to another terminal in the image that the user is observing and capturing with the camera 64. Can be communicated to the other party.

(ステップS528)図32に戻って、制御部302は、ユーザーがボタン493から495を操作スイッチ30で選択したか否かを判別する。ユーザーがボタン493から495を操作スイッチ30で選択したと判別した場合(ステップS528;Yes)、ステップS535に進む。ユーザーがボタン493から495を操作スイッチ30で選択していないと判別した場合(ステップS528;No)、ステップS529に進む。 (Step S528) Returning to FIG. 32, the controller 302 determines whether or not the user has selected the buttons 493 to 495 with the operation switch 30. When it is determined that the user has selected the buttons 493 to 495 with the operation switch 30 (step S528; Yes), the process proceeds to step S535. When it is determined that the user has not selected the buttons 493 to 495 with the operation switch 30 (step S528; No), the process proceeds to step S529.

(ステップS529)ユーザーがボタン493から495を操作スイッチ30で選択していないと判別した場合、制御部302は、ユーザーの眼における輝点の座標(Ex,Ez)を取得する。次に、制御部302は、取得した座標と、式(4)及び(5)の関数を用いて、ユーザーがどこを注視しているのかを算出する。 (Step S529) When it is determined that the user has not selected the buttons 493 to 495 with the operation switch 30, the control unit 302 acquires the coordinates (Ex, Ez) of the bright spot in the user's eye. Next, the control unit 302 calculates where the user is gazing using the acquired coordinates and the functions of Expressions (4) and (5).

(ステップS530)制御部302は、算出した座標の位置に、マーカー492を表示する。
なお、HMD1は、マーカー492の画像が重畳された画像として、他の端末に対して送信する。そして、ユーザーが注視点を動かせばマーカー492も動くことから、ハンズフリーで他の端末のユーザーへ、注視点を伝えることが可能となっている。
(Step S530) The control unit 302 displays a marker 492 at the calculated coordinate position.
Note that the HMD 1 transmits the image on which the image of the marker 492 is superimposed to another terminal. Since the marker 492 moves when the user moves the gazing point, the gazing point can be transmitted to users of other terminals in a hands-free manner.

(ステップS531)制御部302は、マーカー492が、ボタン493、494、及び495の上にあるか否かを判別する。マーカー492が、ボタン493、494、及び495の上にあると判別された場合(ステップS531;Yes)、ステップS532に進む。マーカー492が、ボタン493、494、及び495の上にないと判別された場合(ステップS531;No)、ステップS528に戻る。 (Step S531) The control unit 302 determines whether or not the marker 492 is on the buttons 493, 494, and 495. When it is determined that the marker 492 is on the buttons 493, 494, and 495 (step S531; Yes), the process proceeds to step S532. When it is determined that the marker 492 is not on the buttons 493, 494, and 495 (step S531; No), the process returns to step S528.

(ステップS532)マーカー492が、ボタン493、494、及び495の上にあると判別された場合、制御部302は、撮像画像に基づいて、ユーザーの瞼が短時間に2回連続して瞑られたか否かを判別する。なお、制御部302は、パターンマッチングの技術や画像の特徴量による画像比較の技術を用いて判別を行う。ユーザーの瞼が短時間に2回連続して瞑られたと判別された場合(ステップS532;Yes)、ステップS533に進む。ユーザーの瞼が短時間に2回連続して瞑られていないと判別された場合(ステップS532;No)、ステップS528に戻る。 (Step S532) When it is determined that the marker 492 is on the buttons 493, 494, and 495, the control unit 302 meditates the user's eyelid twice in a short time based on the captured image. It is determined whether or not. Note that the control unit 302 performs determination using a pattern matching technique or an image comparison technique based on image feature amounts. When it is determined that the user's eyelid has been meditated twice in a short time (step S532; Yes), the process proceeds to step S533. When it is determined that the user's eyelid has not been meditated twice in a short time (step S532; No), the process returns to step S528.

(ステップS533)ユーザーの瞼が短時間に2回連続して瞑られたと判別された場合、制御部302は、瞬き2回によって「終了ボタン」493が選択されたか否かを判別する。瞬き2回によって「終了ボタン」493が選択されたと判別された場合(ステップS533;Yes)、丸D(図31、ステップS511)に進む。瞬き2回によって「終了ボタン」493が選択されず、すなわち、その他のボタンが選択されたと判別された場合(ステップS533;No)、ステップS534に進む。 (Step S533) When it is determined that the user's eyelid has been meditated twice in a short time, the control unit 302 determines whether or not the “end button” 493 has been selected by blinking twice. When it is determined that the “end button” 493 has been selected by blinking twice (step S533; Yes), the process proceeds to the circle D (FIG. 31, step S511). When it is determined that the “end button” 493 is not selected by two blinks, that is, it is determined that another button is selected (step S533; No), the process proceeds to step S534.

(ステップS534)瞬き2回によって「終了ボタン」493が選択されていないと判別された場合、制御部302は、選択されたボタンに対応した操作を行い、ステップS528に戻る。 (Step S534) If it is determined that the “end button” 493 is not selected by two blinks, the control unit 302 performs an operation corresponding to the selected button, and returns to step S528.

(ステップS535〜S538)ユーザーがボタン493から495を操作スイッチ30で選択したと判別された場合、制御部302は、ボタン493から495の座標と、ユーザーの眼の輝点を元に、ステップS535からS538の処理を行って、注視点検出のキャリブレーションを行う。 (Steps S535 to S538) When it is determined that the user has selected the buttons 493 to 495 with the operation switch 30, the control unit 302 performs step S535 based on the coordinates of the buttons 493 to 495 and the bright spot of the user's eyes. To S538 to perform gazing point detection calibration.

(ステップS539)制御部302は、操作スイッチ30により「終了ボタン」493が選択されたか否かを判別する。操作スイッチ30により「終了ボタン」493が選択されたと判別された場合(ステップS539;Yes)、丸D(図31、ステップS511)に進む。操作スイッチ30により「終了ボタン」493が選択されていないと判別された場合(ステップS539;No)、ステップS540に進む。 (Step S <b> 539) The control unit 302 determines whether or not the “end button” 493 is selected by the operation switch 30. When it is determined by the operation switch 30 that the “end button” 493 has been selected (step S539; Yes), the process proceeds to the circle D (FIG. 31, step S511). If it is determined by the operation switch 30 that the “end button” 493 has not been selected (step S539; No), the process proceeds to step S540.

(ステップS540)操作スイッチ30により「終了ボタン」493が選択されず、すなわち、その他のボタンが選択されたとていないと判別された場合、制御部302は、選択されたボタンに対応した操作を行い、ステップS331に戻る。 (Step S540) When the “end button” 493 is not selected by the operation switch 30, that is, when it is determined that no other button is selected, the control unit 302 performs an operation corresponding to the selected button. Return to step S331.

なお、実施形態のHMD1では、視線入力のアプリケーションを開始する前であっても、ならびに同アプリケーションを実行中であっても、操作部の操作によって操作画像が選択されたとき毎に、注視点検出のための計算式のキャリブレーションを行う。この結果、実施形態のHMD1によれば、ユーザーが操作部を操作したタイミングで注視点検出のためのキャリブレーションを、操作画像が選択されたとき毎に自動的に行うため、高い精度で視線入力が可能になっている。また、この注視点検出のためのキャリブレーションにおいて、上述したように、本実施形態のHMD1では、ユーザーの片眼を含む領域の画像を用いて行い、両眼を含む画像を撮影する必要がないため、HMD1を小型化できる。
また、本実施形態のHMD1では、「眼球照明ランプの選択処理」で設定された眼球照明ライト166を点灯及び消灯することで、ユーザーの眼に適切な光線を照射することができる。このため、注視点検出のためのキャリブレーションを精度良く行うことができる。
In the HMD 1 of the embodiment, even when the eye gaze input application is started and when the application is being executed, the gaze point detection is performed every time an operation image is selected by an operation of the operation unit. Calibrate the calculation formula for. As a result, according to the HMD 1 of the embodiment, the gaze point detection is automatically performed every time an operation image is selected at the timing when the user operates the operation unit. Is possible. Further, in the calibration for detecting the gazing point, as described above, the HMD 1 of the present embodiment uses the image of the region including the one eye of the user and does not need to capture the image including both eyes. Therefore, the HMD 1 can be downsized.
In the HMD 1 of the present embodiment, the user's eyes can be irradiated with appropriate light by turning on and off the eyeball illumination light 166 set in the “eyeball illumination lamp selection process”. For this reason, it is possible to accurately perform calibration for detecting a gazing point.

なお、本実施形態において表示画像の例として、パスワード入力画像、メニュー画像を説明したがこれに限られない。表示画像は、ユーザーが操作部を操作して、操作画像の選択を促す画像であればよい。また、操作画像も、ユーザーが操作部を操作して、該操作画像の選択を促す画像であればよい。
また、図32のステップS522で、キャリブレーションが十分でないと判別された場合、表示画像に表示されている操作画像の表示位置を変更して表示するようにしてもよく、操作画像の大きさを変更して表示するようにしてもよい。あるいは、操作画像を含む新たな表示画像をLCD63に表示するようにしてもよい。
In this embodiment, the password input image and the menu image have been described as examples of the display image, but the present invention is not limited to this. The display image may be an image that prompts the user to select an operation image by operating the operation unit. The operation image may be an image that prompts the user to select an operation image by operating the operation unit.
If it is determined in step S522 in FIG. 32 that the calibration is not sufficient, the display position of the operation image displayed on the display image may be changed and displayed. It may be changed and displayed. Alternatively, a new display image including the operation image may be displayed on the LCD 63.

なお、図9〜図15を用いて説明したように、注視点検出のためのキャリブレーションの前に、画像の大きさを縮小させ、位置を移動させた場合、例えば、選択した表示領域Tに、パスワード入力画面400e、メニュー画面400f等を縮小して表示するようにしてもよい。また、注視点検出のためのキャリブレーションを行った後に、画像の大きさを縮小させ、位置を移動させた表示して視線入力を行う場合、表示位置、及び画像の縮小率に基づいて、記憶部303に記憶されている関係式の値を補正することで座標を変換するようにしてもよい。   As described with reference to FIGS. 9 to 15, when the size of the image is reduced and the position is moved before the calibration for detecting the gazing point, for example, in the selected display region T. The password input screen 400e, the menu screen 400f, and the like may be reduced and displayed. In addition, after performing calibration for gazing point detection, when a gaze input is performed by reducing the size of the image and moving the position, the memory is stored based on the display position and the reduction ratio of the image. The coordinates may be converted by correcting the value of the relational expression stored in the unit 303.

なお、処理部123は、ユーザーの眼の位置を撮像画像に基づいて検出する場合、眼球照明ライト166を点灯させてもよい。また、処理部123は、ユーザーの眼が表示部60から離れた場合(図12及び図14を参照)、表示領域の縮小率を算出するために、輝点604A及び輝点604Bの間隔(図11を参照)と、輝点604C及び輝点604Dの間隔(図12を参照)との比を測定する。
この処理により、図9に示すところの表示領域Sを表示領域Tに縮小することで、処理部123は、ユーザーが表示全体を見渡せるようにすることが可能である。さらに、輝点604Aと輝点604Bとの中間の位置よりも、輝点604Eと輝点604F(図14を参照)との中間の位置がずれていると判別される場合、処理部123は、ユーザーの眼がベクトルV1だけずれていることがわかる。このようにして、処理部123の画像切替部306(図22を参照)は、図9における表示領域Tを、表示領域Uまでシフトさせることが可能となっている。
Note that the processing unit 123 may turn on the eyeball illumination light 166 when detecting the position of the user's eye based on the captured image. In addition, when the user's eyes are separated from the display unit 60 (see FIGS. 12 and 14), the processing unit 123 calculates the interval between the bright spots 604A and the bright spots 604B (see FIG. 12) in order to calculate the reduction ratio of the display area. 11) and the distance between the bright spot 604C and the bright spot 604D (see FIG. 12).
By reducing the display area S shown in FIG. 9 to the display area T by this process, the processing unit 123 can allow the user to look over the entire display. Further, when it is determined that the intermediate position between the bright spot 604E and the bright spot 604F (see FIG. 14) is shifted from the intermediate position between the bright spot 604A and the bright spot 604B, the processing unit 123 It can be seen that the user's eyes are shifted by the vector V1. In this way, the image switching unit 306 (see FIG. 22) of the processing unit 123 can shift the display area T in FIG. 9 to the display area U.

なお、本実施形態では、注視点検出のためのキャリブレーションに、図35に示したパスワード入力画面等を用いる例を説明したが、これに限られない。操作スイッチ30により選択可能なキー、ボタン、アイコン等を、表示パネル63に表示させるようにしてもよい。この場合においても、従来技術とは異なり、キャリブレーションのためだけの表示ではなく、ユーザーが操作を行う必然性がある操作に関するキー、ボタン、アイコン等を表示する。ユーザーは、操作時に、これらのキー、ボタン、アイコン等を注視している確率が非常に高いので、操作時の撮像画像に基づいて、注視点検出のためのキャリブレーションを行うことができる。   In this embodiment, the example in which the password input screen shown in FIG. 35 is used for calibration for detecting a point of interest has been described, but the present invention is not limited to this. Keys, buttons, icons, etc. that can be selected by the operation switch 30 may be displayed on the display panel 63. Also in this case, unlike the prior art, keys, buttons, icons, and the like relating to operations that the user is required to perform are displayed, not just for calibration. Since the user has a very high probability of gazing at these keys, buttons, icons, etc. during operation, the user can perform calibration for gazing point detection based on the captured image at the time of operation.

次に、「業務ロギングの処理」について説明する。
図39は、本実施形態に係るHMD1を用いた業務ロギングの処理の手順のフローチャートである。なお、以下では、ユーザーが頭部にHMD1を装着している場合について説明する。
Next, “business logging processing” will be described.
FIG. 39 is a flowchart of a procedure of business logging processing using the HMD 1 according to the present embodiment. Hereinafter, a case where the user wears the HMD 1 on the head will be described.

(ステップS601)HMD1のユーザーは、検査対象装置を検査する業務を行う際、操作スイッチ30又はタッチスイッチ34を操作して、「業務ロギングの処理」を開始する。次に、HMD1の処理部123は、初期動作としてサーバー200にユーザーIDを送信する。次に、サーバー200は、初期動作として、HMD1からのユーザーIDを受信したことに応じて、記憶部202にユーザーIDに関連付けて記憶されている検査情報を、HMD1に送信する。
次に、処理部123の行動履歴登録部309は、記憶部303に記憶されている検査位置をカウントするためのサフィックス「i」を「0」に初期化する。なお、このサフィックスは、各検査位置に関連付けられている。例えば、i=1は、検査位置1に関連付けられ、i=2は、検査位置2に関連付けられている。サフィックスと検査位置との関係は、記憶部303に予め記憶されているようにしてもよく、あるいはサーバー200の記憶部202に予め記憶され、サーバー200が検査情報に含めてHMD1に送信するようにしてもよい。
(Step S <b> 601) When the user of the HMD 1 performs a task of inspecting a device to be inspected, the user operates the operation switch 30 or the touch switch 34 to start “task logging process”. Next, the processing unit 123 of the HMD 1 transmits a user ID to the server 200 as an initial operation. Next, as an initial operation, the server 200 transmits inspection information stored in the storage unit 202 in association with the user ID to the HMD 1 in response to receiving the user ID from the HMD 1.
Next, the action history registration unit 309 of the processing unit 123 initializes the suffix “i” for counting the examination positions stored in the storage unit 303 to “0”. This suffix is associated with each inspection position. For example, i = 1 is associated with inspection position 1 and i = 2 is associated with inspection position 2. The relationship between the suffix and the inspection position may be stored in advance in the storage unit 303, or may be stored in advance in the storage unit 202 of the server 200, and the server 200 may include the inspection information and transmit it to the HMD1. May be.

(ステップS602)行動履歴登録部309は、サフィックス「i」に「1」を加算する。 (Step S602) The action history registration unit 309 adds “1” to the suffix “i”.

(ステップS603)行動履歴登録部309は、受信した検査情報から検査位置1に対応する検査対象装置の場所情報を抽出する。次に、行動履歴登録部309は、抽出した検査対象装置の場所情報に基づいて、検査対象装置が設置されている方向(以下、検査位置の方向という)を表示パネル63に表示する。例えば、行動履歴登録部309は、抽出した場所情報に基づいて、検査対象装置IDと関連付けて予め記憶部303に記憶されている検査対象装置が配置されているフロアの平面図を読み出し、読み出した平面図に検査対象装置が設置されている位置を重畳して表示パネル63に表示する。また、行動履歴登録部309は、地磁気センサー133が検出した検出値に基づいて、検査対象装置が、平面図においてどちらの方向(東西南北)に設置されているのか、表示パネル63に表示する。
なお、行動履歴登録部309は、検査対象装置IDと関連付けて予め記憶部303に記憶されている検査対象装置に対応する画像を読み出し、読み出した検査対象装置に対応する画像も平面図に重畳して、表示パネル63に表示するようにしてもよい。
(Step S603) The action history registration unit 309 extracts the location information of the inspection target device corresponding to the inspection position 1 from the received inspection information. Next, the action history registration unit 309 displays the direction in which the inspection target device is installed (hereinafter referred to as the direction of the inspection position) on the display panel 63 based on the extracted location information of the inspection target device. For example, the action history registration unit 309 reads and reads a plan view of the floor on which the inspection target device stored in advance in the storage unit 303 is associated with the inspection target device ID based on the extracted location information. The position where the inspection target apparatus is installed is superimposed on the plan view and displayed on the display panel 63. In addition, the action history registration unit 309 displays on the display panel 63 which direction (east, west, north, and north) the inspection target device is installed in the plan view based on the detection value detected by the geomagnetic sensor 133.
The action history registration unit 309 reads an image corresponding to the inspection target device stored in advance in the storage unit 303 in association with the inspection target device ID, and also superimposes the read image corresponding to the inspection target device on the plan view. Then, it may be displayed on the display panel 63.

(ステップS604)行動履歴登録部309は、ユーザーが表示パネル63に表示される情報を観察しているか否かを判別するために、眼球照明ライトの選択処理手順(図9を参照)により選択した眼球照明ライト166を点灯させる。 (Step S604) The action history registration unit 309 selects the eye illumination light selection processing procedure (see FIG. 9) in order to determine whether or not the user is observing information displayed on the display panel 63. The eyeball illumination light 166 is turned on.

(ステップ605)次に、行動履歴登録部309は、観察可否判定部310にユーザーが表示パネル63に表示されている画像を観察しているか否かを判定する観察可否判定を行う指示を出力する。
次に、観察可否判定部310は、観察可否判定を行う指示が入力されたことに応じて、ユーザーが表示パネル63に表示される情報を観察しているか否かの判定し、判定した結果を行動履歴登録部309に出力する。次に、行動履歴登録部309は、観察可否判定部310が出力した判定した結果に基づいて、ユーザーが表示パネル63に表示される情報を観察しているか否かを判定する。
行動履歴登録部309は、ユーザーが表示パネル63に表示される情報を観察していないと判定した場合(ステップS605;No)、ステップS606に進み、ユーザーが表示パネル63に表示される情報を観察していると判定した場合(ステップ605;Yes)、ステップS607に進む。
(Step 605) Next, the action history registration unit 309 outputs an instruction to the observation availability determination unit 310 to determine whether or not the user is observing the image displayed on the display panel 63. .
Next, the observability determination unit 310 determines whether or not the user is observing information displayed on the display panel 63 in response to an instruction to perform observability determination being input, and determines the determination result. It outputs to the action history registration unit 309. Next, the action history registration unit 309 determines whether the user is observing information displayed on the display panel 63 based on the determination result output by the observation availability determination unit 310.
If it is determined that the user has not observed the information displayed on the display panel 63 (step S605; No), the action history registration unit 309 proceeds to step S606, and the user observes the information displayed on the display panel 63. When it determines with having carried out (step 605; Yes), it progresses to step S607.

(ステップS606)行動履歴登録部309は、観察可否判定部310が出力した判定した結果に基づいて、ユーザーが表示パネル63に表示される情報を観察していないと判定した場合、表示パネル63用のバックライト62を消灯させる。このように、HMD1は、ユーザーが表示パネル63に表示される情報を観察していないと判定した場合、バックライト62を消灯させるため、HMD1の電力を節約できる。
(ステップS607)行動履歴登録部309は、観察可否判定部310が出力した判定した結果に基づいて、ユーザーが表示パネル63に表示される情報を観察していると判定した場合、表示パネル63用のバックライト62を点灯させる。
(ステップS608)行動履歴登録部309は、ユーザーが表示パネル63に表示される情報を観察しているか否かの判別が終了したため、眼球照明ライト166を消灯させる。
(Step S606) If the action history registration unit 309 determines that the user has not observed the information displayed on the display panel 63 based on the determination result output by the observation availability determination unit 310, the behavior history registration unit 309 The backlight 62 is turned off. As described above, when the HMD 1 determines that the user does not observe the information displayed on the display panel 63, the backlight 62 is turned off, so that the power of the HMD 1 can be saved.
(Step S <b> 607) When the action history registration unit 309 determines that the user is observing information displayed on the display panel 63 based on the determination result output by the observation availability determination unit 310, the action history registration unit 309 is for the display panel 63. The backlight 62 is turned on.
(Step S608) The action history registration unit 309 turns off the eyeball illumination light 166 because the determination as to whether or not the user is observing the information displayed on the display panel 63 has been completed.

(ステップS609)行動履歴登録部309は、GPSセンサー135が測位した測位情報を取得する。取得する測位情報は、緯度を示す情報、経度を示す情報、高度を示す情報、時刻を示す情報である。 (Step S609) The action history registration unit 309 acquires the positioning information measured by the GPS sensor 135. The positioning information to be acquired is information indicating latitude, information indicating longitude, information indicating altitude, and information indicating time.

(ステップS610)行動履歴登録部309は、取得した測位情報にユーザーIDを関連付けたHMD1の移動のログ(以下、移動ログという)を、送受信部308を介してサーバー200に送信する。行動履歴登録部309は、例えば、予め定められている時間間隔で、この移動ログをサーバー200に送信する。次に、サーバー200は、受信したHMD1の移動ログを記憶部202に記憶させる。
図40は、記憶部202に記憶されている移動ログの一例を示す図である。図40に示すように、記憶部202には、HMD1を使用しているユーザーID、HMD1の識別情報である装置ID、時刻情報、位置情報(緯度を示す情報、経度を示す情報、高度を示す情報)が関連付けられて記憶される。
(Step S610) The action history registration unit 309 transmits a movement log (hereinafter referred to as a movement log) of the HMD 1 in which the user ID is associated with the acquired positioning information to the server 200 via the transmission / reception unit 308. The action history registration unit 309 transmits the movement log to the server 200 at a predetermined time interval, for example. Next, the server 200 stores the received movement log of the HMD 1 in the storage unit 202.
FIG. 40 is a diagram illustrating an example of a movement log stored in the storage unit 202. As shown in FIG. 40, the storage unit 202 indicates the user ID using the HMD1, the device ID that is identification information of the HMD1, time information, position information (latitude information, longitude information, and altitude). Information) is associated and stored.

(ステップS611)行動履歴登録部309は、カメラ64が撮像した画像データを取得する。行動履歴登録部309は、取得した画像データに含まれるバーコードに基づき、ユーザーが検査対象装置の前に到着したか否かを判定する。
行動履歴登録部309は、ユーザーが検査対象装置の前に到着したと判定した場合(ステップS611;Yes)、ステップS612に進み、ユーザーが検査対象装置の前に到着していないと判定した場合(ステップS611;No)、ステップS603に戻る。
図41は、検査対象装置851に添付されるバーコード850の一例を示す図である。
ここで、バーコードは、例えば、同図のバーコード850により示したような2次元バーコード(例えば、QRコード(登録商標))である。同図が示すように、バーコード850は、例えば、検査対象装置851の側面などに張り付けられている。まず、行動履歴登録部309は、画像データにこのようなバーコード850の画像が含まれているか否かを判別する。行動履歴登録部309は、画像データにバーコード850の画像が含まれている場合、画像データからバーコード850の画像を抽出する。次に、行動履歴登録部309は、バーコード850に埋め込まれている検査対象装置IDを抽出する。行動履歴登録部309は、バーコード850から検査対象装置IDを抽出できた場合、ユーザーが検査対象装置の前に到着したと判別する。また、行動履歴登録部309は、画像データからバーコード850を抽出できなかった場合、または画像データからバーコード850を抽出できた場合であってもバーコード850から検査対象装置IDと一致する情報を抽出できなかった場合、ユーザーが検査対象装置の前に到着していないと判別する。
(Step S611) The action history registration unit 309 acquires image data captured by the camera 64. The behavior history registration unit 309 determines whether the user has arrived in front of the inspection target device based on the barcode included in the acquired image data.
When the action history registration unit 309 determines that the user has arrived in front of the inspection target device (step S611; Yes), the process proceeds to step S612 and determines that the user has not arrived in front of the inspection target device ( Step S611; No), it returns to step S603.
FIG. 41 is a diagram illustrating an example of a barcode 850 attached to the inspection target apparatus 851.
Here, the barcode is, for example, a two-dimensional barcode (for example, a QR code (registered trademark)) as shown by the barcode 850 in FIG. As shown in the figure, the barcode 850 is attached to, for example, the side surface of the inspection target device 851. First, the action history registration unit 309 determines whether or not such an image of the barcode 850 is included in the image data. The action history registration unit 309 extracts an image of the barcode 850 from the image data when the image of the barcode 850 is included in the image data. Next, the action history registration unit 309 extracts the inspection target device ID embedded in the barcode 850. If the inspection target device ID can be extracted from the barcode 850, the behavior history registration unit 309 determines that the user has arrived in front of the inspection target device. Further, the action history registration unit 309 matches the inspection target device ID from the barcode 850 even when the barcode 850 cannot be extracted from the image data or the barcode 850 can be extracted from the image data. If the user cannot be extracted, it is determined that the user has not arrived in front of the inspection target device.

(ステップS612)行動履歴登録部309は、位置に関するパラメータを予め自部に記憶している。パラメータLa(i)は、経度のパラメータであり、パラメータLo(i)は、緯度のパラメータである。パラメータAl(i)は、高度のパラメータであり、パラメータT(i)は、時刻のパラメータである。パラメータV(i)は、平均速度のパラメータであり、パラメータX(i)は、移動距離のパラメータである。パラメータP(i)は、位置情報のパラメータである。
ユーザーが検査対象装置に到着したと判定された場合、行動履歴登録部309は、ステップS609で取得した測位情報に基づき、経度をパラメータLa(i)に入力し、緯度をパラメータLo(i)に入力する。また、行動履歴登録部309は、今回取得した測位情報に基づき、高度をパラメータAl(i)に入力し、時刻をパラメータT(i)に入力する。また、行動履歴登録部309は、各測位情報を入力した各パラメータを記憶部303に記憶させる。また、行動履歴登録部309は、各測位情報を入力した各パラメータを、移動ログに含めてサーバー200に送信する。
次に、サーバー200は、受信した移動ログに含まれている各パラメータを、HMD1の移動ログに関連付けて記憶部202に記憶させる。
(Step S612) The action history registration unit 309 stores parameters relating to the position in advance in its own unit. The parameter La (i) is a longitude parameter, and the parameter Lo (i) is a latitude parameter. The parameter Al (i) is an advanced parameter, and the parameter T (i) is a time parameter. The parameter V (i) is an average speed parameter, and the parameter X (i) is a movement distance parameter. The parameter P (i) is a parameter for position information.
When it is determined that the user has arrived at the inspection target device, the action history registration unit 309 inputs the longitude into the parameter La (i) and the latitude into the parameter Lo (i) based on the positioning information acquired in step S609. input. The action history registration unit 309 inputs the altitude into the parameter Al (i) and the time into the parameter T (i) based on the positioning information acquired this time. In addition, the action history registration unit 309 causes the storage unit 303 to store each parameter input with each positioning information. In addition, the action history registration unit 309 transmits each parameter to which the positioning information is input, included in the movement log, to the server 200.
Next, the server 200 stores each parameter included in the received movement log in the storage unit 202 in association with the movement log of the HMD 1.

(ステップS613)行動履歴登録部309は、バーコードから抽出したアドレス情報を抽出する。次に、行動履歴登録部309は、バーコードから抽出したアドレス情報に基づいて、検査対象装置に係わる情報を、ネットワークを通じて取得する。
(ステップS614)行動履歴登録部309は、ネットワークを通じて取得した検査対象装置に係わる情報を表示パネル63に表示する。
(Step S613) The action history registration unit 309 extracts address information extracted from the barcode. Next, the action history registration unit 309 acquires information related to the inspection target device through the network based on the address information extracted from the barcode.
(Step S614) The action history registration unit 309 displays information related to the inspection target device acquired through the network on the display panel 63.

図42は、本実施形態に係る表示パネル63に表示される情報の一例を説明する図である。図42(A)は、視線入力時、操作スイッチ30又はタッチスイッチ34による操作時の表示パネル63に表示される画像800の一例を示す図である。図42(B)は、指さしによる選択項目を選択時の表示パネル63に表示される画像800aの一例を示す図である。
図42(A)及び図42(B)に示すように、画像800及び画像800aには、検査対象装置の番号及び装置名を示す情報の画像801、検査項目(確認項目)を示す情報の画像802、注意事項を示す情報の画像803、検査を行った結果を示す画像804を含んでいる。また、検査を行った結果を示す画像804には、検査を行った結果に問題ないことを示す画像「OK」804a、検査を行った結果に問題があることを示す情報の画像「NG」804bを含んでいる。図42(A)に示すように画像800には、視線入力時のカーソル画像805が含まれている。図42(B)に示すように画像801aには、指差しによる選択項目を選択時のユーザーの指先を含む画像806が含まれている。なお、ユーザーの指先を含む画像806は、カメラ64によって撮影されたユーザーの指先を処理部123によって検出し画像800aに重畳するものである。処理部123の画像表示部307は、画像800及び画像800aにおいて、ユーザーの指先を含む画像806により、各表示されている画像801〜804が遮られないように表示する。
FIG. 42 is a diagram illustrating an example of information displayed on the display panel 63 according to the present embodiment. FIG. 42A is a diagram illustrating an example of an image 800 displayed on the display panel 63 when the line of sight is input and when the operation switch 30 or the touch switch 34 is operated. FIG. 42B is a diagram illustrating an example of an image 800a displayed on the display panel 63 when a selection item with a pointing finger is selected.
As shown in FIGS. 42A and 42B, the image 800 and the image 800a include an information image 801 indicating the number and name of the inspection target device, and an information image indicating the inspection item (confirmation item). 802 includes an information image 803 indicating precautions and an image 804 indicating the result of the inspection. The image 804 indicating the result of the inspection includes an image “OK” 804a indicating that there is no problem in the result of the inspection, and an image “NG” 804b indicating information indicating that there is a problem in the result of the inspection. Is included. As shown in FIG. 42A, the image 800 includes a cursor image 805 at the time of line-of-sight input. As shown in FIG. 42B, the image 801a includes an image 806 including the user's fingertip when selecting a selection item by pointing. Note that the image 806 including the user's fingertip is obtained by detecting the user's fingertip captured by the camera 64 by the processing unit 123 and superimposing the image on the image 800a. The image display unit 307 of the processing unit 123 displays the images 800 and 800a so that the displayed images 801 to 804 are not obstructed by the image 806 including the user's fingertip.

ここで、視線入力、操作スイッチ30又はタッチスイッチ34の操作によって、選択項目を選択する例について説明する。ユーザーは、検査対象装置に対して検査を行った結果に応じて、図42(A)のように、表示パネル63に表示されている画像「□OK」804a、または画像「□NG」804bを視線入力、操作スイッチ30又はタッチスイッチ34の操作によって選択する。
次に、指さしによる選択項目を選択する例について説明する。ユーザーは、図42(B)のように、表示パネル63に表示されている画像内にユーザーの指が映し出されるように、カメラ64が撮像している空間でユーザーの指を動かして、検査を行った結果を示す画像804のいずれかを指さすことで選択する。そして、行動履歴登録部309は、指さしによる項目選択が行われるか否かをカメラ64が撮像した画像に基づいて判別する。
なお、図42(A)及び図42(B)において画像800及び画像800aを、各情報を日本語により表示する例を説明したが、予めユーザーが操作スイッチ30、タッチスイッチ34を操作してHMD1で使用する言語を選択している場合、行動履歴登録部309は、選択された言語で各情報を表示パネル63に表示するようにしてもよい。また、行動履歴登録部309は、表示パネル63に表示される情報を観察するように促すアナウンス等を、選択された言語の音声でアナウンスするようにしてもよい。
Here, an example in which selection items are selected by line-of-sight input and operation of the operation switch 30 or the touch switch 34 will be described. In accordance with the result of the inspection performed on the inspection target device, the user displays an image “□ OK” 804a or an image “□ NG” 804b displayed on the display panel 63 as shown in FIG. Selection is performed by line-of-sight input, operation of the operation switch 30 or the touch switch 34.
Next, an example of selecting a selection item by pointing will be described. As shown in FIG. 42B, the user moves the user's finger in the space captured by the camera 64 so that the user's finger is displayed in the image displayed on the display panel 63, and the inspection is performed. A selection is made by pointing to any of the images 804 showing the results. Then, the action history registration unit 309 determines whether or not item selection with a pointing is performed based on an image captured by the camera 64.
42A and 42B, the image 800 and the image 800a are displayed in Japanese. However, the user operates the operation switch 30 and the touch switch 34 in advance to operate the HMD1. When the language used in is selected, the action history registration unit 309 may display each information on the display panel 63 in the selected language. In addition, the action history registration unit 309 may announce an announcement or the like that prompts the user to observe the information displayed on the display panel 63 with the selected language voice.

(ステップS615)図39に戻って、行動履歴登録部309は、取得した検査対象装置に係わる情報に、報知の対象であることを示す情報が設定されているか否かを判別する。
報知の対象であることを示す情報とは、更新日時情報、更新有り情報、注意事項有り情報、及びチェック項目有り情報のうち、いずれかの情報である。次に、行動履歴登録部309は、更新日時情報が含まれていると判別した場合、例えばステップS609で取得した現在の日時と、更新された日時を比較する。次に、行動履歴登録部309は、比較した結果、更新が、例えば過去3日間行われていないと判別した場合(ステップS615;No)、ステップS621に進む。また、行動履歴登録部309は、更新有り情報、注意事項有り情報、及びチェック項目有り情報のいずれの情報も含まれていないと判別された場合(ステップS615;No)、ステップS621に進む。
ここで、更新が過去3日間行われていない場合、または更新有り情報、注意事項有り情報、及びチェック項目有り情報のいずれの情報も含まれていない場合、ステップS616〜S620をスキップする理由を説明する。ユーザーが、毎日、検査対象装置の検査を行っている場合、検査項目の内容をすでにユーザーが覚えている可能性が高い。このため、検査項目の内容に変更がなかった場合、又は重要な注意事項の追加が行われていない場合、HMD1は、あえてユーザーに対して表示パネル63に表示されている検査対象装置に係わる情報を観察するように促さなくてもよい場合もある。従って、本実施形態のHMD1では、このような場合、ステップS616〜S620をスキップする。なお、ユーザーによる検査を行う頻度が低い場合、又は検査を行うユーザーが検査日によって代わる場合等、HMD1の行動履歴登録部309は、ステップS616〜S620をスキップせずに行うようにしてもよい。
一方、行動履歴登録部309は、更新日時情報、更新有り情報、注意事項有り情報、チェック項目有り情報のうち、いずれかの情報が含まれていると判別した場合(ステップS615;Yes)、ステップS616に進む。
次に、行動履歴登録部309は、例えば、取得した検査対象装置に係わる情報に、チェック項目有り情報が含まれている場合、表示パネル63にチェック項目を確認した結果の判定結果を入力するチェックボックス(以下、チェックボックスという)画像を表示する。例えば、図42(A)に示したように、画像804は、検査した結果、問題がなかったことを示す「□OK」画像804a、検査した結果、問題があったことを示す「□NG」画像804bを含んでいる。各画像のうち、「□」をチェックボックスという。
(Step S615) Returning to FIG. 39, the action history registration unit 309 determines whether or not information indicating that it is a notification target is set in the acquired information related to the inspection target device.
The information indicating that it is a target of notification is any information among update date / time information, information with update information, information with notes, and information with check items. Next, when it is determined that the update date information is included, the behavior history registration unit 309 compares the current date acquired in, for example, step S609 with the updated date. Next, as a result of the comparison, if the action history registration unit 309 determines that the update has not been performed for the past three days (step S615; No), the action history registration unit 309 proceeds to step S621. If the action history registration unit 309 determines that none of the updated information, the caution information, and the check item information is included (step S615; No), the action history registration unit 309 proceeds to step S621.
Here, the reason why the steps S616 to S620 are skipped when the update has not been performed in the past three days, or when any of the update information, the precaution information, and the check item information is not included. To do. When the user inspects the inspection target device every day, there is a high possibility that the user already remembers the contents of the inspection item. For this reason, when there is no change in the contents of the inspection item or when important precautions are not added, the HMD 1 dares to display information related to the inspection target device displayed on the display panel 63 to the user. You may not be prompted to observe. Therefore, in such a case, the HMD 1 of this embodiment skips steps S616 to S620. Note that the action history registration unit 309 of the HMD 1 may perform steps S616 to S620 without skipping when the frequency of the inspection by the user is low, or when the user who performs the inspection changes depending on the inspection date.
On the other hand, if the action history registration unit 309 determines that any one of the update date / time information, the update presence information, the caution item presence information, and the check item presence information is included (step S615; Yes), the step The process proceeds to S616.
Next, the action history registration unit 309, for example, if the information related to the acquired device to be inspected includes check item presence information, the check for inputting the result of checking the check item on the display panel 63 A box (hereinafter referred to as a check box) image is displayed. For example, as shown in FIG. 42A, an image 804 includes a “□ OK” image 804a indicating that there is no problem as a result of the inspection, and “□ NG” indicating that there is a problem as a result of the inspection. An image 804b is included. Of each image, “□” is called a check box.

(ステップS616)ネットワーク経由で取得した情報が更新されていた場合、注意事項がある場合、またはチェック項目がある場合、ユーザーは、表示パネル63に表示されている情報を確認して、検査を行う必要がある。このため、行動履歴登録部309は、ユーザーに対して、表示パネル63に表示される情報を観察するように促すアナウンスを、耳元スピーカー23から音声により出力する。耳元スピーカー23から出力されるアナウンスは、更新されている内容に応じたものであり、例えば「ドキュメントに変更がありました。画面を見てください。」等である。なお、HMD1にステレオイヤホン100が接続されている場合、行動履歴登録部309は、ユーザーに対して、表示パネル63に表示される情報を観察するように促すアナウンスを、ステレオイヤホン100から音声により出力する。 (Step S616) If the information acquired via the network has been updated, if there are cautions, or if there are check items, the user checks the information displayed on the display panel 63 and performs an inspection. There is a need. For this reason, the action history registration unit 309 outputs an announcement from the ear speaker 23 by voice, prompting the user to observe the information displayed on the display panel 63. The announcement output from the ear speaker 23 is in accordance with the updated content, for example, “Document has been changed. Look at the screen”. When the stereo earphone 100 is connected to the HMD 1, the action history registration unit 309 outputs an announcement from the stereo earphone 100 by voice to urge the user to observe the information displayed on the display panel 63. To do.

(ステップS617)行動履歴登録部309は、ユーザーが表示パネル63に表示される情報を観察しているか否かを再度、判別するために、眼球照明ライトの選択処理手順(図9を参照)に従い選択した眼球照明ライト166を点灯させる。
(ステップS618)行動履歴登録部309は、バックライト62を点灯させる。ユーザーに表示パネル63に表示される情報を観察するようにアナウンスしたことに応じて、ユーザーが急に目線を表示パネル63に表示される情報に向けてきた場合、そのユーザーの視線を検出した後にバックライト62を点灯させると、ユーザーが表示パネル63に表示される画像を確認するまでにタイムラグが発生する。このため、本実施形態のHMD1は、表示パネル63に表示される画像をユーザーが確認するまでのタイムラグを無くすため、バックライト62をこの時点で点灯させる。
(Step S617) The action history registration unit 309 follows an eyeball illumination light selection processing procedure (see FIG. 9) in order to determine again whether or not the user is observing information displayed on the display panel 63. The selected eyeball illumination light 166 is turned on.
(Step S618) The action history registration unit 309 turns on the backlight 62. In response to the user's announcement to observe the information displayed on the display panel 63, when the user suddenly turns his / her eyes on the information displayed on the display panel 63, the user's line of sight is detected. When the backlight 62 is turned on, a time lag occurs until the user confirms the image displayed on the display panel 63. For this reason, the HMD 1 of this embodiment turns on the backlight 62 at this time in order to eliminate a time lag until the user confirms the image displayed on the display panel 63.

(ステップS619)観察可否判定部310は、ステップS605の処理と同様に、ユーザーが表示パネル63に表示される情報を観察しているか否かの判定を行う。観察可否判定部310は、ユーザーが表示パネル63に表示される情報を観察していると判定した場合(ステップS619;Yes)、ステップS621に進み、ユーザーが表示パネル63に表示される情報を観察していないと判定した場合(ステップS619;No)、ステップS620に進む。 (Step S619) The observability determination unit 310 determines whether the user is observing information displayed on the display panel 63, as in the process of step S605. When it is determined that the user is observing information displayed on the display panel 63 (step S619; Yes), the observation availability determination unit 310 proceeds to step S621, and the user observes information displayed on the display panel 63. When it determines with not having carried out (step S619; No), it progresses to step S620.

(ステップS620)ユーザーが表示パネル63に表示される情報を観察していないと判定された場合、行動履歴登録部309は、ユーザーが表示パネル63に表示される情報を観察するまでステップS619とS620を繰り返して、ユーザーに対して表示パネル63に表示される情報を観察するように促す警告音を、耳元スピーカー23から出力する。 (Step S620) When it is determined that the user does not observe the information displayed on the display panel 63, the action history registration unit 309 performs steps S619 and S620 until the user observes the information displayed on the display panel 63. Is repeated, and a warning sound that prompts the user to observe the information displayed on the display panel 63 is output from the ear speaker 23.

(ステップS621)行動履歴登録部309は、取得した検査対象装置に係わる情報に、チェック項目有り情報が含まれているか否かを判別する。行動履歴登録部309は、取得した検査対象装置に係わる情報にチェック項目有り情報が含まれていると判別した場合(ステップS621;Yes)、ステップS622に進み、取得した検査対象装置に係わる情報に、チェック項目有り情報が含まれていないと判別した場合(ステップS621;No)、ステップS624に進む。 (Step S621) The action history registration unit 309 determines whether or not the information related to the acquired inspection target device includes check item presence information. If the action history registration unit 309 determines that the information related to the acquired inspection target device includes check item presence information (step S621; Yes), the action history registration unit 309 proceeds to step S622, and acquires the information related to the acquired inspection target device. If it is determined that the check item presence information is not included (step S621; No), the process proceeds to step S624.

(ステップS622)取得した検査対象装置に係わる情報にチェック項目有り情報が含まれていると判別された場合、行動履歴登録部309は、ユーザーにチェック項目に関する検査を行い、検査の結果をチェックするように促すアナウンスを、耳元スピーカー23から音声により出力する。
次に、ユーザーは、アナウンスに応じて、検査対象装置に対して検査項目の検査を行い、検査した結果を視線入力により選択する。一例として、ユーザーは、表示パネル63に表示される「□OK」画像804a又は「□NG」画像804bを注視する。行動履歴登録部309は、ユーザーの注視に応じて、「□OK」画像804a又は「□NG」画像804bのチェックボックスにチェックを入力した画像を、表示パネル63に表示する。または、ユーザーは、操作スイッチ30又はタッチスイッチ34を操作する。行動履歴登録部309は、ユーザーの操作に応じて、表示パネル63に表示される「OK」画像804a又は「OK」画像804bのチェックボックスにチェックを入力した画像を、表示パネル63に表示するようにしてもよい。あるいは、ユーザーは、ユーザーの頭部を回動させることにより、表示パネル63に表示されている「□OK」画像804a又は「□NG」画像804bを選択する。行動履歴登録部309は、このようにユーザーの頭部の回動に応じてチェックボックスにチェックを入力し、チェックを入力した画像を表示パネル63に表示するようにしてもよい。
(Step S622) When it is determined that the information related to the acquired device to be inspected includes check item presence information, the action history registration unit 309 performs an inspection on the check item for the user and checks the result of the inspection. An announcement that prompts the user to output is output from the ear speaker 23 by voice.
Next, in accordance with the announcement, the user inspects the inspection target device with respect to the inspection target device, and selects the inspection result by line-of-sight input. As an example, the user gazes at a “□ OK” image 804 a or a “□ NG” image 804 b displayed on the display panel 63. The action history registration unit 309 displays, on the display panel 63, an image in which the check box of the “□ OK” image 804a or the “□ NG” image 804b is input according to the user's gaze. Alternatively, the user operates the operation switch 30 or the touch switch 34. The action history registration unit 309 displays, on the display panel 63, an image in which a check is input to the check box of the “OK” image 804a or the “OK” image 804b displayed on the display panel 63 in accordance with a user operation. It may be. Alternatively, the user selects the “□ OK” image 804a or the “□ NG” image 804b displayed on the display panel 63 by rotating the user's head. The action history registration unit 309 may input a check in the check box according to the rotation of the user's head as described above, and display the image on which the check is input on the display panel 63.

ここで、頭部の回動による「□OK」画像804a又は「□NG」画像804bの選択について説明する。このような場合、「□OK」画像804a及び「□NG」画像804bは、左右方向に同じ位置ではなく、左右にずれて配置されていることが望ましい。ユーザーが例えば右方向に所定値以上の角速度で頭部を回動させた場合、行動履歴登録部309は、この右方向の回動による加速度を角速度センサー134の検出値に基づいて、ユーザーの頭部回動による移動方向と移動量を算出する。次に、行動履歴登録部309は、算出した移動方向と移動量に基づいて、カーソル画像805(図42)を「□OK」画像804a又は「□NG」画像804bに移動させて表示パネル63上に表示する。
このように、行動履歴登録部309は、頭部の回動による選択において、角速度センサー134の検出値に基づいてユーザーの頭部の動きを検出することで、カーソル画像805を移動させ、各項目を選択する。そして、制御部302は、例えば、ユーザーがあたかも頷くかのように前後方向に顔を動かした場合、選択項目が決定されたと判別する。
Here, selection of the “□ OK” image 804a or the “□ NG” image 804b by turning the head will be described. In such a case, it is desirable that the “□ OK” image 804a and the “□ NG” image 804b are arranged not to the same position in the left-right direction but to be shifted from side to side. For example, when the user rotates the head in the right direction at an angular velocity equal to or higher than a predetermined value, the action history registration unit 309 determines the acceleration of the right rotation based on the detection value of the angular velocity sensor 134. The movement direction and the movement amount due to the part rotation are calculated. Next, the action history registration unit 309 moves the cursor image 805 (FIG. 42) to the “□ OK” image 804a or the “□ NG” image 804b on the display panel 63 based on the calculated moving direction and moving amount. To display.
As described above, the action history registration unit 309 moves the cursor image 805 by detecting the movement of the user's head based on the detection value of the angular velocity sensor 134 in the selection based on the rotation of the head. Select. Then, for example, when the user moves his / her face in the front-rear direction as if the user whispered, the control unit 302 determines that the selection item has been determined.

(ステップS623)行動履歴登録部309は、チェック項目の検査が完了したか否かを判別する。具体的には、行動履歴登録部309は、表示パネル63に表示されている「□OK」画像804a又は「□NG」画像804bのチェックボックスのいずれか一方にチェックが入力されている場合、チェック項目の検査が完了したと判別し、チェックボックスのいずれにもチェックが入力されていない場合、チェック項目の検査が完了していないと判別する。行動履歴登録部309は、チェック項目の検査が完了したと判別した場合(ステップS623;Yes)、ステップS624に進み、チェック項目の検査が完了していないと判別した場合(ステップS623;No)、ステップS622とS623を繰り返す。 (Step S623) The action history registration unit 309 determines whether or not the check item inspection has been completed. Specifically, the action history registration unit 309 checks the check box when either the “□ OK” image 804a or the “□ NG” image 804b displayed on the display panel 63 is checked. It is determined that the inspection of the item has been completed, and if no check is input in any of the check boxes, it is determined that the inspection of the check item has not been completed. If the action history registration unit 309 determines that the check item inspection has been completed (step S623; Yes), the process proceeds to step S624. If the action history registration unit 309 determines that the check item inspection has not been completed (step S623; No), Steps S622 and S623 are repeated.

(ステップS624)行動履歴登録部309は、バーコードに基づいて取得した検査対象装置に係わる情報から、HMD1に対して所定の動作を実行するスクリプトファイルが含まれているか否かを判別する。検査対象装置に係わる情報にスクリプトファイルが含まれていると判別された場合、行動履歴登録部309は、スクリプトを実行し、実行した結果得られたデータをサーバー200に送信する。
なお、スクリプトファイルは、HMD1内のフラッシュメモリー122に予め記憶させておくようにしてもよい。この場合、行動履歴登録部309は、カメラ64が撮像した画像データからバーコードを抽出し、抽出したバーコードに埋め込まれているスクリプトファイルに対応する情報を抽出する。次に、行動履歴登録部309は、抽出したスクリプトファイルに対応する情報に基づいて、フラッシュメモリー122に記憶されているスクリプトファイルを読み出して、スクリプトを実行するようにしてもよい。
(Step S624) The action history registration unit 309 determines whether or not a script file for executing a predetermined operation on the HMD 1 is included from information related to the inspection target device acquired based on the barcode. When it is determined that the script file is included in the information related to the inspection target device, the action history registration unit 309 executes the script and transmits data obtained as a result of the execution to the server 200.
Note that the script file may be stored in advance in the flash memory 122 in the HMD 1. In this case, the action history registration unit 309 extracts a barcode from the image data captured by the camera 64, and extracts information corresponding to the script file embedded in the extracted barcode. Next, the action history registration unit 309 may read a script file stored in the flash memory 122 based on information corresponding to the extracted script file and execute the script.

本実施形態では、このようにバーコードに埋め込まれているスクリプトファイルに基づいて、HMD1に所定の動作を行わせる。すなわち、HMD1のユーザーが、検査対象装置に貼ってあるバーコードを、カメラ64を用いて撮像することで、HMD1は、検査対象装置が設置されている位置P(i)に関する情報、及び検査対象装置に対応したデータ等を取得して、サーバー200に自動的に送信することができる。従って、HMD1及びサーバー200を含むシステムの管理者は、検査対象装置が設置されている位置P(i)に関する情報、及び検査対象装置に対応したデータ等を自動的に取得することができる。
なお、HMD1に対して実行させる所定の動作は、前述したように、例えば、カメラ64による静止画または動画の撮像、集音マイク24による集音、温湿度センサー136による検査を行う位置の温度及び湿度の取得、GPSセンサー135による位置P(i)に関する情報の取得等である。
従って、本実施形態のHMD1は、HMD1を使用するユーザーの記憶や勘、及び経験などに頼らずに、検査対象装置が設置されている位置P(i)に関する情報、及び検査対象装置に対応したデータ等を収集できる。さらに、本実施形態のHMD1は、表示される情報に変更があった場合であっても、検査対象装置に貼ってあるバーコードに基づいて、HMD1を使用しているユーザーに更新された情報を通知することができるので、検査を行う環境や状況に応じた検査を行うことが可能になる。なお、サーバー200に記憶されている情報は、例えばシステムの管理者が、PC210を操作して、サーバー200の記憶部202に予め記憶させておくようにしてもよい。
In the present embodiment, the HMD 1 performs a predetermined operation based on the script file embedded in the barcode as described above. That is, the user of the HMD 1 images the barcode attached to the inspection target device using the camera 64, so that the HMD 1 has information on the position P (i) where the inspection target device is installed, and the inspection target. Data corresponding to the device can be acquired and automatically transmitted to the server 200. Therefore, the administrator of the system including the HMD 1 and the server 200 can automatically acquire information on the position P (i) where the inspection target device is installed, data corresponding to the inspection target device, and the like.
As described above, the predetermined operation to be executed by the HMD 1 includes, for example, the temperature of the position where the still image or moving image is captured by the camera 64, the sound is collected by the sound collecting microphone 24, and the inspection by the temperature / humidity sensor 136 is performed. For example, acquisition of humidity, acquisition of information on the position P (i) by the GPS sensor 135, and the like.
Therefore, the HMD 1 of the present embodiment corresponds to the information on the position P (i) where the inspection target device is installed and the inspection target device without depending on the memory, intuition, experience, etc. of the user who uses the HMD 1. Data can be collected. Further, the HMD 1 of the present embodiment can update the information updated to the user who is using the HMD 1 based on the barcode attached to the inspection target device even when the displayed information is changed. Since the notification can be made, it becomes possible to perform the inspection according to the environment and situation for the inspection. Note that the information stored in the server 200 may be stored in advance in the storage unit 202 of the server 200 by, for example, the system administrator operating the PC 210.

(ステップS625)図39に戻って、行動履歴登録部309は、例えばステップS611〜S624においてHMD1が処理した内容を示す全ての情報を観察ログとして、ユーザーIDと関連付けてサーバー200に送信する。この観察ログには、例えば、ステップS619において、HMD1を使用しているユーザーが表示パネル63に表示される情報を観察していたか否かを示す情報、ステップS620において、警告音を出力していた時間を示す情報等が含まれている。
次に、サーバー200は、観察ログ及びユーザーIDを受信し、受信した観察ログを、ユーザーIDと関連付けて記憶部202に記憶させる。
(ステップS626)行動履歴登録部309は、眼球照明ライト166及びバックライト62を消灯させる。
(Step S625) Returning to FIG. 39, the action history registration unit 309 transmits all information indicating the contents processed by the HMD 1 in steps S611 to S624 to the server 200 in association with the user ID as an observation log. In this observation log, for example, information indicating whether or not the user using the HMD 1 was observing information displayed on the display panel 63 in step S619, and a warning sound was output in step S620. Information indicating time is included.
Next, the server 200 receives the observation log and the user ID, and stores the received observation log in the storage unit 202 in association with the user ID.
(Step S626) The action history registration unit 309 turns off the eyeball illumination light 166 and the backlight 62.

(ステップS627)行動履歴登録部309は、記憶部303に記憶されているサフィックスの値を確認して、予め定められている全ての検査対象装置に対して検査が終了したか否かを判別する。行動履歴登録部309は、全ての検査対象装置に対して検査が終了していないと判別した場合(ステップS627;No)、ステップS602に戻り、以下、全ての検査対象装置の検査が終了するまで、ステップS602〜S627を繰り返す。行動履歴登録部309は、全ての検査対象装置に対して検査が終了したと判別した場合(ステップS627;Yes)、処理を終了する。 (Step S627) The action history registration unit 309 confirms the suffix value stored in the storage unit 303, and determines whether or not the inspection has been completed for all predetermined inspection target devices. . If the action history registration unit 309 determines that the inspection has not been completed for all the inspection target devices (step S627; No), the process returns to step S602, and hereinafter, until the inspection of all the inspection target devices is completed. , Steps S602 to S627 are repeated. If the action history registration unit 309 determines that the inspection has been completed for all the devices to be inspected (step S627; Yes), the action history registration unit 309 ends the process.

以上説明したように、本実施形態におけるHMD1は、情報を表示する表示部(表示パネル63)と、表示部がユーザーにより観察可能な状況であるか否かを判別する観察可否判定部(観察可否判定部310)と、音により報知を行う報知部(音響制御部305)と、観察可否判定部が判定した結果に基づいて、前記表示部がユーザーにより観察可能ではない状況であると判別された場合、前記報知部から報知するように制御する制御部(行動履歴登録部309)と、を備えている。この構成により、本実施形態におけるHMD1は、ユーザーが表示パネル63に表示される情報を観察可能ではない場合、表示パネル63に表示される情報を観察するようにユーザーに促すことが出来る。そのため、本実施形態のHMD1では、ユーザーは、表示パネル63に表示された情報を確認することができるので、ユーザーが表示部に表示された情報を見落とすことを防げる。   As described above, the HMD 1 in the present embodiment includes a display unit (display panel 63) that displays information, and an observation availability determination unit (observation availability) that determines whether the display unit is in a state that can be observed by the user. It is determined that the display unit is not observable by the user based on the determination unit 310), the notification unit (sound control unit 305) that performs notification by sound, and the result of determination by the observation availability determination unit. A control unit (behavior history registration unit 309) that controls to notify from the notification unit. With this configuration, the HMD 1 in the present embodiment can prompt the user to observe the information displayed on the display panel 63 when the user cannot observe the information displayed on the display panel 63. Therefore, in the HMD 1 of the present embodiment, the user can check the information displayed on the display panel 63, thereby preventing the user from overlooking the information displayed on the display unit.

また、本実施形態におけるHMD1において、行動履歴登録部309は、検査対象装置に貼られているバーコードに基づいて、サーバー200から検査対象装置に係わる情報を取得する。行動履歴登録部309は、取得した検査対象装置に係わる情報に基づいて、取得した検査対象装置に係わる情報を表示パネル63に表示する(報知する)必要があるか否かを判別する。取得した検査対象装置に係わる情報を表示パネル63に表示する必要があると判定された場合、かつ観察可否判定部310によりユーザーが表示パネル63に表示される情報を観察していないと判定された場合に、ユーザーに表示パネル63に表示される情報を観察するように促すための報知を行う。
これにより、本実施形態におけるHMD1は、表示パネル63に表示された情報を、ユーザーに観察するように促すことが出来る。そのため、本実施形態のHMD1では、ユーザーは、表示パネル63に表示された情報を見逃すことなく確認することができる。
Moreover, in HMD1 in this embodiment, the action history registration part 309 acquires the information regarding a test object apparatus from the server 200 based on the barcode stuck on the test object apparatus. The action history registration unit 309 determines whether or not it is necessary to display (notify) the information related to the acquired inspection target device on the display panel 63 based on the acquired information related to the inspection target device. When it is determined that it is necessary to display the acquired information related to the inspection target device on the display panel 63, and the observation availability determination unit 310 determines that the user does not observe the information displayed on the display panel 63. In such a case, a notification is made to prompt the user to observe the information displayed on the display panel 63.
Thereby, the HMD 1 in the present embodiment can prompt the user to observe the information displayed on the display panel 63. Therefore, in the HMD 1 of the present embodiment, the user can confirm without missing the information displayed on the display panel 63.

また、本実施形態におけるHMD1において、行動履歴登録部309は、検査対象装置に係わる情報に基づいてユーザーが表示パネル63に表示された情報を確認する必要がないと判定した場合、かつ観察可否判定部310によりユーザーが表示パネル63を観察していないと判定された場合に、表示パネル63用のバックライト62を消灯する。
これにより、本実施形態におけるHMD1は、ユーザーが表示パネル63に表示される情報を観察している場合にのみ、バックライトを点灯させるので、省電力化できる。
Further, in the HMD 1 in the present embodiment, the action history registration unit 309 determines that it is not necessary for the user to check the information displayed on the display panel 63 based on the information related to the inspection target device, and determines whether or not to observe. When the unit 310 determines that the user is not observing the display panel 63, the backlight 62 for the display panel 63 is turned off.
Thereby, since HMD1 in this embodiment lights a backlight only when the user is observing the information displayed on the display panel 63, it can save power.

また、本実施形態のHMD1において、行動履歴登録部309は、検査対象装置を検査中のユーザーの移動ログ、及び観察ログをサーバー200に送信する。本実施形態のHMD1において、行動履歴登録部309は、検査対象装置に係わる情報から抽出したスクリプトファイルに応じて、HMD1に所定の動作を行わせ、所定の動作により取得したデータを、サーバー200に送信する。サーバー200は、HMD1から受信した移動ログ、観察ログ、及びデータを、ユーザーIDと関連付けて記憶部202に記憶させる。
これにより、本実施形態におけるHMD1は、ユーザーがいつどこでどの装置を検査したかをサーバー200に記録することができる。そのため、本実施形態のHMD1では、システムの監督者がユーザーの検査作業の進捗状況を監視することができる。
In the HMD 1 of the present embodiment, the action history registration unit 309 transmits to the server 200 the movement log and the observation log of the user who is inspecting the inspection target device. In the HMD 1 of the present embodiment, the action history registration unit 309 causes the HMD 1 to perform a predetermined operation according to the script file extracted from the information related to the inspection target device, and causes the server 200 to store the data acquired through the predetermined operation. Send. The server 200 stores the movement log, the observation log, and the data received from the HMD 1 in the storage unit 202 in association with the user ID.
Thereby, the HMD 1 in the present embodiment can record in the server 200 when and where the user inspected which device. Therefore, in the HMD 1 of the present embodiment, the system supervisor can monitor the progress of the user's inspection work.

また、本実施形態のHMD1では、まず「左右の眼の検出処理」を行う。これにより、本実施形態のHMD1は、撮像画像に含まれるユーザーの片眼を含む領域の画像を用いて、表示部60に表示された画像を観察している眼が右眼と左眼とのうちいずれであるかを認識する。
この結果、ユーザーの頭部に装着されたHMDの姿勢に係わらず、ユーザーが表示部60に表示された画像を観察している眼が右眼と左眼とのうちいずれであるかを認識できるHMD1を実現できる。また、本実施形態のHMD1は、表示部60に表示された画像を観察している眼が右眼と左眼とのうちいずれであるかを判別するため、ユーザーの顔全体または両眼を含む領域の撮像を行わなくてよい。このため、本実施形態のHMD1は、自装置の大型化を抑えることができる。
さらに、本実施形態のHMD1は、このように表示部60に表示された画像を観察している眼が右眼と左眼とのうちいずれであるかを認識した結果に応じて、表示部60に表示する画像の表示角度を変更する。そして、本実施形態のHMD1は、この表示角度に応じて、表示部60に画像を表示する。この結果、本実施形態のHMD1によれば、ユーザーは、ユーザーの頭部に装着されたHMD1の姿勢に係わらず、適切な表示角度で表示部60に表示されている画像を観察できる。
In the HMD 1 of the present embodiment, first, “left and right eye detection processing” is performed. Thereby, the HMD 1 of the present embodiment uses the image of the region including the user's one eye included in the captured image, and the eyes observing the image displayed on the display unit 60 are the right eye and the left eye. Recognize which one of them.
As a result, regardless of the posture of the HMD mounted on the user's head, the user can recognize whether the eye observing the image displayed on the display unit 60 is the right eye or the left eye. HMD1 can be realized. Further, the HMD 1 of the present embodiment includes the entire face or both eyes of the user in order to determine whether the eye observing the image displayed on the display unit 60 is the right eye or the left eye. It is not necessary to image the area. For this reason, HMD1 of this embodiment can suppress the enlargement of an own apparatus.
Furthermore, the HMD 1 of the present embodiment displays the display unit 60 according to the result of recognizing which of the right eye and the left eye is observing the image displayed on the display unit 60 in this way. Change the display angle of the image to be displayed. And HMD1 of this embodiment displays an image on the display part 60 according to this display angle. As a result, according to the HMD 1 of the present embodiment, the user can observe the image displayed on the display unit 60 at an appropriate display angle regardless of the posture of the HMD 1 mounted on the user's head.

さらに、本実施形態のHMD1は、「左右の眼の検出処理」の後、「注視点のキャリブレーション処理」を行う。この「注視点のキャリブレーション処理」において、ユーザーは、表示パネル63に表示された表示画像に含まれる操作画像の操作を操作部(操作スイッチ30、タッチスイッチ34)により行う。実施形態のHMD1は、操作部により操作が行われているとき、表示部60に表示されている表示画像に含まれる操作画像を注視している撮像画像を取得する。
また、本実施形態のHMD1は、「左右の眼の検出処理」の判別結果に基づいて、選択された撮像範囲QまたはR(図19参照)の画像を選択する。すなわち、本実施形態のHMD1は、画像を観察している眼が右眼と左眼とのうちいずれであるかを認識した結果に基づいて、撮像画像から「注視点のキャリブレーション処理」に用いるユーザーの眼の領域を含む画像を選択する。そして、本実施形態のHMD1は、この選択された撮像範囲の画像を用いて「注視点のキャリブレーション処理」を行う。そして、本実施形態のHMD1は、ユーザーの視線に基づいて操作するためのパラメータである、操作された操作画像に基づく第1座標と撮像画像に基づく第2座標とを取得する。そして、実施形態のHMD1は、取得した第1座標と第2座標との組み合わせに基づいて、注視点検出のためのキャリブレーションを自動的に行う。
このため、本実施形態のHMD1では、ユーザーがキャリブレーション設定をメニュー等から選択して行わなくても、単に表示画像に含まれる操作画像の操作を行うことで、注視点検出のためのキャリブレーションを行うことができる。また、本実施形態のHMD1では、従来のように、図31に示したような注視点検出のためのキャリブレーション用の画像をユーザーに注視させて行う、注視点検出のためのキャリブレーションを行わなくても、単に表示画像に含まれる操作画像の操作を行うことで、注視点検出のためのキャリブレーションを行うことができる。この結果、本実施形態によれば、利便性を向上することができる。
Furthermore, the HMD 1 of the present embodiment performs “gaze point calibration processing” after “left and right eye detection processing”. In this “gaze point calibration process”, the user operates the operation image included in the display image displayed on the display panel 63 using the operation unit (the operation switch 30 and the touch switch 34). The HMD 1 according to the embodiment acquires a captured image in which an operation image included in a display image displayed on the display unit 60 is being watched when the operation unit is operated.
Further, the HMD 1 of the present embodiment selects an image in the selected imaging range Q or R (see FIG. 19) based on the determination result of “left and right eye detection processing”. That is, the HMD 1 according to the present embodiment uses the captured image for “gazing point calibration processing” based on the result of recognizing whether the eye observing the image is the right eye or the left eye. Select an image containing the user's eye area. Then, the HMD 1 of the present embodiment performs “gazing point calibration processing” using the image in the selected imaging range. And HMD1 of this embodiment acquires the 1st coordinate based on the operated operation image and the 2nd coordinate based on a captured image which are parameters for operating based on a user's look. Then, the HMD 1 of the embodiment automatically performs calibration for gazing point detection based on the acquired combination of the first coordinate and the second coordinate.
For this reason, in the HMD 1 of the present embodiment, the calibration for gaze point detection is performed by simply operating the operation image included in the display image without the user having to select the calibration setting from the menu or the like. It can be performed. Further, in the HMD 1 of the present embodiment, as in the past, calibration for gazing point detection is performed in which the user is gazing at a calibration image for gazing point detection as shown in FIG. Even if it is not necessary, calibration for detecting a gazing point can be performed by simply operating the operation image included in the display image. As a result, according to the present embodiment, convenience can be improved.

なお、実施形態のHMD1では、視線入力のアプリケーションを開始する前であっても、ならびに同アプリケーションを実行中であっても、操作部の操作によって操作画像が選択されたとき毎に、注視点検出のための計算式のキャリブレーションを行う。この結果、実施形態のHMD1によれば、ユーザーが操作部を操作したタイミングで注視点検出のためのキャリブレーションを、操作画像が選択されたとき毎に自動的に行うため、高い精度で視線入力が可能になっている。また、この注視点検出のためのキャリブレーションにおいて、上述したように、本実施形態のHMD1では、ユーザーの片眼を含む領域の画像を用いて行い、両眼を含む画像を撮影する必要がないため、HMD1を小型化できる。
また、本実施形態のHMD1では、「眼球照明ランプの選択処理」で設定された眼球照明ライト166を点灯及び消灯することで、ユーザーの眼に適切な光線を照射することができる。このため、注視点検出のためのキャリブレーションを精度良く行うことができる。
In the HMD 1 of the embodiment, even when the eye gaze input application is started and when the application is being executed, the gaze point detection is performed every time an operation image is selected by an operation of the operation unit. Calibrate the calculation formula for. As a result, according to the HMD 1 of the embodiment, the gaze point detection is automatically performed every time an operation image is selected at the timing when the user operates the operation unit. Is possible. Further, in the calibration for detecting the gazing point, as described above, the HMD 1 of the present embodiment uses the image of the region including the one eye of the user and does not need to capture the image including both eyes. Therefore, the HMD 1 can be downsized.
In the HMD 1 of the present embodiment, the user's eyes can be irradiated with appropriate light by turning on and off the eyeball illumination light 166 set in the “eyeball illumination lamp selection process”. For this reason, it is possible to accurately perform calibration for detecting a gazing point.

なお、図9〜図15を用いて説明したように、注視点検出のためのキャリブレーションの前に、画像の大きさを縮小させ、位置を移動させた場合、例えば、選択した表示領域Tに、パスワード入力画面400e、メニュー画面400f等を縮小して表示するようにしてもよい。また、注視点検出のためのキャリブレーションを行った後に、画像の大きさを縮小させ、位置を移動させた表示して視線入力を行う場合、表示位置、及び画像の縮小率に基づいて、記憶部303に記憶されている関係式の値を補正することで座標を変換するようにしてもよい。   As described with reference to FIGS. 9 to 15, when the size of the image is reduced and the position is moved before the calibration for detecting the gazing point, for example, in the selected display region T. The password input screen 400e, the menu screen 400f, and the like may be reduced and displayed. In addition, after performing calibration for gazing point detection, when a gaze input is performed by reducing the size of the image and moving the position, the memory is stored based on the display position and the reduction ratio of the image. The coordinates may be converted by correcting the value of the relational expression stored in the unit 303.

なお、本実施形態では、注視点検出のためのキャリブレーションに、図35に示したパスワード入力画面等を用いる例を説明したが、これに限られない。操作スイッチ30により選択可能なキー、ボタン、アイコン等を、表示パネル63に表示させるようにしてもよい。この場合においても、従来技術とは異なり、キャリブレーションのためだけの表示ではなく、ユーザーが操作を行う必然性がある操作に関するキー、ボタン、アイコン等を表示する。ユーザーは、操作時に、これらのキー、ボタン、アイコン等を注視している確率が非常に高いので、操作時の撮像画像に基づいて、注視点検出のためのキャリブレーションを行うことができる。   In this embodiment, the example in which the password input screen shown in FIG. 35 is used for calibration for detecting a point of interest has been described, but the present invention is not limited to this. Keys, buttons, icons, etc. that can be selected by the operation switch 30 may be displayed on the display panel 63. Also in this case, unlike the prior art, keys, buttons, icons, and the like relating to operations that the user is required to perform are displayed, not just for calibration. Since the user has a very high probability of gazing at these keys, buttons, icons, etc. during operation, the user can perform calibration for gazing point detection based on the captured image at the time of operation.

なお、処理部123は、ユーザーの眼の位置を撮像画像に基づいて検出する場合、眼球照明ライト166を点灯させてもよい。また、処理部123は、ユーザーの眼が表示部60から離れた場合(図12及び図14を参照)、表示領域の縮小率を算出するために、輝点604A及び輝点604Bの間隔(図11を参照)と、輝点604C及び輝点604Dの間隔(図12を参照)との比を測定する。
この処理により、図9に示すところの表示領域Sを表示領域Tに縮小することで、処理部123は、ユーザーが表示全体を見渡せるようにすることが可能である。さらに、輝点604Aと輝点604Bとの中間の位置よりも、輝点604Eと輝点604F(図14を参照)との中間の位置がずれていると判別される場合、処理部123は、ユーザーの眼がベクトルV1だけずれていることがわかる。このようにして、処理部123の画像切替部306(図22を参照)は、図9における表示領域Tを、表示領域Uまでシフトさせることが可能となっている。
Note that the processing unit 123 may turn on the eyeball illumination light 166 when detecting the position of the user's eye based on the captured image. In addition, when the user's eyes are separated from the display unit 60 (see FIGS. 12 and 14), the processing unit 123 calculates the interval between the bright spots 604A and the bright spots 604B (see FIG. 12) in order to calculate the reduction ratio of the display area. 11) and the distance between the bright spot 604C and the bright spot 604D (see FIG. 12).
By reducing the display area S shown in FIG. 9 to the display area T by this process, the processing unit 123 can allow the user to look over the entire display. Further, when it is determined that the intermediate position between the bright spot 604E and the bright spot 604F (see FIG. 14) is shifted from the intermediate position between the bright spot 604A and the bright spot 604B, the processing unit 123 It can be seen that the user's eyes are shifted by the vector V1. In this way, the image switching unit 306 (see FIG. 22) of the processing unit 123 can shift the display area T in FIG. 9 to the display area U.

[第2実施形態]
第2実施形態では、表示部60の位置600a及び位置600b(第1実施形態の図34を参照)を含む、表示部60の多くの位置について、眼球照明ライト166の点灯及び消灯を切り替える例を説明する。
[Second Embodiment]
In the second embodiment, the eyeball illumination light 166 is switched on and off for many positions on the display unit 60, including the position 600a and the position 600b of the display unit 60 (see FIG. 34 of the first embodiment). explain.

図43は、本実施形態に係るヘッドマウントディスプレイ(第2表示モード、待避モード)の装着形態を示す図である。図43では、装置本体部21は、ユーザーの左右の眼を仮想的に結んだ線を含むXY平面に対して、角度αだけ下側に傾いた姿勢となっている。   FIG. 43 is a diagram illustrating a mounting form of the head mounted display (second display mode, save mode) according to the present embodiment. In FIG. 43, the apparatus main body 21 is inclined downward by an angle α with respect to the XY plane including a line that virtually connects the left and right eyes of the user.

図43(A)は、右眼観察形態の第1表示モードから、表示部60を時計回り方向に90度回転させた装着形態を示す図である。この装着形態を、第2表示モードと称する。第2表示モードでは、表示部60の先端部が上側に位置するよう、表示部60は、収容部61a及び球状部61bを回転軸として、Y’軸回り(図3を参照)で時計回り方向に90度だけ回転される。これにより、表示部60及びファインダー開口部67は、ユーザー側から見ると、Z軸方向に縦長に配置される。また、表示パネル63は、アスペクト比が縦長の画像を表示する。   FIG. 43A is a diagram illustrating a mounting form in which the display unit 60 is rotated 90 degrees clockwise from the first display mode of the right-eye observation form. This mounting form is referred to as a second display mode. In the second display mode, the display unit 60 rotates clockwise about the Y ′ axis (see FIG. 3), with the storage unit 61 a and the spherical unit 61 b as rotation axes, so that the tip of the display unit 60 is located on the upper side. Rotated by 90 degrees. Thereby, the display part 60 and the finder opening part 67 are vertically arranged in the Z-axis direction when viewed from the user side. Further, the display panel 63 displays an image having an aspect ratio that is vertically long.

つまり、第2表示モードでは、表示部60の表示パネル63に表示される画像は、ユーザーの右眼に対して、斜め右前方向の位置に表示されることになる。また、第2表示モードでは、右眼の近傍にある眼球照明ライト166c及び166dが点灯し、眼球照明ライト166a及び166bが消灯する。   That is, in the second display mode, the image displayed on the display panel 63 of the display unit 60 is displayed at a position in the diagonally forward right direction with respect to the user's right eye. In the second display mode, the eyeball illumination lights 166c and 166d in the vicinity of the right eye are turned on, and the eyeball illumination lights 166a and 166b are turned off.

図43(B)は、右眼観察形態の第1表示モードから、表示部60を反時計回り方向に90度回転させた装着形態を示す図である。この装着形態を、待避モードと称する。待避モードでは、表示部60の先端部が下側に位置するよう、収容部61a及び球状部61bを回転軸として、表示部60をY’軸回り(図3を参照)で90度だけ反時計回り方向に回転される。これにより、表示部60及びファインダー開口部67は、ユーザーの右眼の視野から待避することになる。また、待避モードでは、眼球照明ライト166a〜166dは、全て消灯してもよい。   FIG. 43B is a diagram illustrating a mounting form in which the display unit 60 is rotated 90 degrees counterclockwise from the first display mode of the right-eye observation form. This wearing form is referred to as a save mode. In the evacuation mode, the display unit 60 is rotated counterclockwise by 90 degrees around the Y ′ axis (see FIG. 3), with the accommodating portion 61 a and the spherical portion 61 b as rotation axes so that the tip of the display portion 60 is positioned on the lower side. It is rotated in the turning direction. Thereby, the display unit 60 and the viewfinder opening 67 are retracted from the visual field of the user's right eye. In the retreat mode, the eyeball illumination lights 166a to 166d may all be turned off.

第1表示モード、第2表示モード、及び待避モードにおいて、表示部60の回転軸は共通である。このため、第2表示モード又は待避モードから、表示部60を90度回転させれば、第1表示モードに戻すことができる。すなわち、ユーザーは、HMD1を外したり、装置本体部21の角度を変えたりせずに、表示部60をユーザーの右眼の視野から待避させたり、観察位置に戻したりすることができる。   The rotation axis of the display unit 60 is common in the first display mode, the second display mode, and the save mode. For this reason, if the display part 60 is rotated 90 degree | times from 2nd display mode or save mode, it can return to 1st display mode. That is, the user can retract the display unit 60 from the visual field of the right eye of the user or return it to the observation position without removing the HMD 1 or changing the angle of the apparatus main body unit 21.

なお、図43(A)及び図43(B)に示した例では、右眼観察形態の第1表示モードから、表示部60を縦に配置させる例を説明したが、図5(B)に示した左眼観察形態の第1表示モードからも同様に、表示部60を縦に配置させることができる。すなわち、左眼観察形態の第1表示モードから、収容部61a及び球状部61bを中心軸として、XZ平面で反時計回り方向に90度だけ、表示部60を回転させることで、ユーザーは、左眼観察形態の第2表示モードに、HMD1を切り替え可能である。同様に、右眼観察形態の第1表示モードから、収容部61a及び球状部61bを中心軸として、Y’軸回り(図3を参照)で時計回り方向に90度だけ、表示部60を回転させることで、ユーザーは、左眼観察形態の待避モードに、HMD1を切り替え可能である。   In the example shown in FIGS. 43A and 43B, the example in which the display unit 60 is arranged vertically from the first display mode of the right-eye observation mode has been described, but FIG. Similarly, from the first display mode of the left-eye observation mode shown, the display unit 60 can be arranged vertically. That is, from the first display mode of the left-eye observation mode, the display unit 60 is rotated by 90 degrees in the counterclockwise direction on the XZ plane with the accommodating portion 61a and the spherical portion 61b as the central axes, so that the user can The HMD 1 can be switched to the second display mode of the eye observation form. Similarly, from the first display mode of the right-eye observation mode, the display unit 60 is rotated by 90 degrees in the clockwise direction around the Y ′ axis (see FIG. 3), with the accommodating portion 61a and the spherical portion 61b as the central axes. By doing so, the user can switch the HMD 1 to the save mode of the left-eye observation mode.

制御部302は、加速度センサー132が検出した検出値、及び撮像素子72(以上、図22を参照)による撮像画像(図26、図27参照)に基づいて、右眼観察形態又は右眼観察形態と、第1表示モード、第2表示モード又は待避モードとを判別する。ここで、制御部302は、撮像素子72による撮像画像については、例えば、眉毛と眼との相対位置、瞬きでの瞼の挙動、眉毛の輪郭、眼の輪郭、眼の左右の目尻の下がり方等に基づいて、右眼観察形態又は右眼観察形態と、第1表示モード、第2表示モード又は待避モードとを判別する。また、制御部302は、撮像素子72による撮像画像にユーザーの眼球が撮像されていない場合、待避モードであると判別する。   Based on the detection value detected by the acceleration sensor 132 and an image (see FIGS. 26 and 27) captured by the image sensor 72 (see FIG. 22), the control unit 302 uses the right-eye observation form or the right-eye observation form. And the first display mode, the second display mode, or the save mode. Here, with respect to the image captured by the image sensor 72, the control unit 302, for example, the relative position between the eyebrows and the eye, the behavior of eyelids in blinking, the eyebrow contour, the eye contour, and the lowering of the left and right corners of the eye Based on the above, the right-eye observation form or the right-eye observation form and the first display mode, the second display mode, or the save mode are determined. In addition, when the user's eyeball is not captured in the image captured by the image sensor 72, the control unit 302 determines that the mode is the save mode.

図44は、本実施形態に係る表示部60の位置と眼球照明ライト166の関係を説明する図であり、ユーザーの顔を正面から水平に見た場合の図である。図44において、一点鎖線の四角形で示された位置600a〜600hは、表示部60が配置される位置の例である。   FIG. 44 is a diagram for explaining the relationship between the position of the display unit 60 and the eyeball illumination light 166 according to the present embodiment, and is a diagram when the user's face is viewed horizontally from the front. 44, positions 600a to 600h indicated by alternate long and short dashed lines are examples of positions where the display unit 60 is arranged.

<第1表示モード>
位置600aは、ユーザーの右眼の下側に、横向きに配置されている表示部60の位置である。また、位置600bは、ユーザーの左眼の下側に、横向きに配置されている表示部60の位置である。また、位置600cは、ユーザーの右眼の上側に、横向きに配置されている表示部60の位置である。また、位置600dは、ユーザーの左眼の上側に、横向きに配置されている表示部60の位置である。
<First display mode>
The position 600a is a position of the display unit 60 that is disposed sideways below the right eye of the user. In addition, the position 600b is a position of the display unit 60 that is disposed sideways below the left eye of the user. The position 600c is a position of the display unit 60 that is disposed sideways above the right eye of the user. The position 600d is a position of the display unit 60 that is disposed sideways above the left eye of the user.

<第2表示モード>
位置600eは、ユーザーの右眼の右側に、縦向きに配置されている表示部60の位置である。また、位置600fは、ユーザーの左眼の左側に、縦向きに配置されている表示部60の位置である。
<Second display mode>
The position 600e is the position of the display unit 60 that is arranged vertically on the right side of the user's right eye. The position 600f is the position of the display unit 60 that is arranged vertically on the left side of the user's left eye.

HMD1の制御部302(図22を参照)は、位置600a、600d又は600fのいずれかに表示部60がある場合、この位置でユーザーの眼のより近傍に位置する眼球照明ライト166a及び166bを点灯させ、眼球照明ライト166c及び166dを消灯させる。一方、位置600b、600c又は600eのいずれかに表示部60がある場合、この位置でユーザーの眼のより近傍に位置する眼球照明ライト166c及び166dを点灯させ、眼球照明ライト166a及び166bを消灯させる。   When the display unit 60 is located at any of the positions 600a, 600d, and 600f, the control unit 302 (see FIG. 22) of the HMD1 lights the eyeball illumination lights 166a and 166b located closer to the user's eyes at this position. The eyeball illumination lights 166c and 166d are turned off. On the other hand, when the display unit 60 is in any of the positions 600b, 600c, or 600e, the eyeball illumination lights 166c and 166d located closer to the user's eyes are turned on at this position, and the eyeball illumination lights 166a and 166b are turned off. .

このように、制御部302は、ファインダー開口部67の隅の近傍(予め定められた距離以内)に配置されている眼球照明ライト166a〜166dのうち、ユーザーの眼をより正面から照射する眼球照明ライトが点灯するように、ユーザーと表示部60との位置関係に応じて点灯状態を制御する。   As described above, the control unit 302 irradiates the user's eyes from the front among the eyeball illumination lights 166a to 166d arranged in the vicinity of the corner of the finder opening 67 (within a predetermined distance). The lighting state is controlled according to the positional relationship between the user and the display unit 60 so that the light is turned on.

<待避モード>
位置600gは、ユーザーの右眼の右下側に、縦向きに配置されている表示部60の位置である。また、位置600hは、ユーザーの左眼の左下側に、縦向きに配置されている表示部60の位置である。
位置600g及び600hの位置に表示部60がある場合、制御部302は、眼球照明ライト166a〜166dを、全て消灯させる。
<Evacuation mode>
The position 600g is the position of the display unit 60 that is arranged vertically on the lower right side of the user's right eye. The position 600h is the position of the display unit 60 that is arranged vertically on the lower left side of the user's left eye.
When the display unit 60 is located at the positions 600g and 600h, the control unit 302 turns off all of the eyeball illumination lights 166a to 166d.

次に、注視点検出のためのキャリブレーション時、又は業務ロギングの処理時に点灯させる眼球照明ライトを選択する選択処理について説明する。
図45は、本実施形態に係るHMD1の眼球照明ライトの選択処理手順のフローチャートである。
Next, a selection process for selecting an eyeball illumination light to be turned on at the time of calibration for detecting a gazing point or at the time of business logging process will be described.
FIG. 45 is a flowchart of the selection processing procedure of the eyeball illumination light of the HMD 1 according to this embodiment.

(ステップS801)制御部302は、眼球照明部304を介して、眼球照明ライト166a及び166bを点灯させる。次に、制御部302は、撮像素子72を駆動して撮像画像を取得し、取得した撮像画像を記憶部303に記憶させる。 (Step S801) The control unit 302 turns on the eyeball illumination lights 166a and 166b via the eyeball illumination unit 304. Next, the control unit 302 drives the image sensor 72 to acquire a captured image, and stores the acquired captured image in the storage unit 303.

(ステップS802)制御部302は、眼球照明部304を介して、眼球照明ライト166a及び166bを消灯させ、眼球照明ライト166c及び166dを点灯させる。次に、制御部302は、撮像素子72を駆動して撮像画像を取得し、取得した撮像画像を記憶部303に記憶させる。 (Step S802) The control unit 302 turns off the eyeball illumination lights 166a and 166b and turns on the eyeball illumination lights 166c and 166d via the eyeball illumination unit 304. Next, the control unit 302 drives the image sensor 72 to acquire a captured image, and stores the acquired captured image in the storage unit 303.

(ステップS803)制御部302は、ステップS801で記憶させた撮像画像を読み出し、読み出した撮像画像から、眼球照明ライト166a及び166bに対応する輝点の画像を抽出する。次に、制御部302は、抽出した輝点の画像の輝度を算出する。次に、制御部302は、ステップS802で記憶させた撮像画像を読み出し、読み出した撮像画像から、眼球照明ライト166c及び166dに対応する輝点の画像を抽出する。次に、制御部302は、抽出した輝点の画像の輝度を算出する。
次に、制御部302は、眼球照明ライト166a及び166bに対応する輝点の輝度の方が、眼球照明ライト166c及び166dに対応する輝点の輝度より高いか否かを判別する。眼球照明ライト166a及び166bに対応する輝点の輝度の方が、眼球照明ライト166c及び166dに対応する輝点の輝度より高いと判別された場合(ステップS803;Yes)、ステップS804に進む。眼球照明ライト166a及び166bに対応する輝点の輝度の方が、眼球照明ライト166c及び166dに対応する輝点の輝度より高くないと判別された場合(ステップS803;No)、ステップS805に進む。
(Step S803) The control unit 302 reads the captured image stored in step S801, and extracts images of bright spots corresponding to the eyeball illumination lights 166a and 166b from the read captured image. Next, the control unit 302 calculates the luminance of the extracted bright spot image. Next, the control unit 302 reads the captured image stored in step S802, and extracts bright spot images corresponding to the eyeball illumination lights 166c and 166d from the read captured image. Next, the control unit 302 calculates the luminance of the extracted bright spot image.
Next, the control unit 302 determines whether the brightness of the bright spot corresponding to the eyeball illumination lights 166a and 166b is higher than the brightness of the bright spot corresponding to the eyeball illumination lights 166c and 166d. When it is determined that the brightness of the bright spot corresponding to the eyeball illumination lights 166a and 166b is higher than the brightness of the bright spot corresponding to the eyeball illumination lights 166c and 166d (step S803; Yes), the process proceeds to step S804. When it is determined that the brightness of the bright spot corresponding to the eyeball illumination lights 166a and 166b is not higher than the brightness of the bright spot corresponding to the eyeball illumination lights 166c and 166d (step S803; No), the process proceeds to step S805.

(ステップS804)眼球照明ライト166a及び166bに対応する輝点の輝度の方が、眼球照明ライト166c及び166dに対応する輝点の輝度より高いと判別された場合、制御部302は、眼球照明ライト166a及び166bを選択し、選択した結果を記憶部303に記憶させる。制御部302は、眼球照明ライト166c及び166dを消灯させて、眼球照明ライトの選択処理を終了する。 (Step S804) When it is determined that the brightness of the bright spot corresponding to the eyeball illumination lights 166a and 166b is higher than the brightness of the bright spot corresponding to the eyeball illumination lights 166c and 166d, the control unit 302 166a and 166b are selected, and the selected result is stored in the storage unit 303. The control unit 302 turns off the eyeball illumination lights 166c and 166d and ends the eyeball illumination light selection process.

(ステップS805)眼球照明ライト166a及び166bに対応する輝点の輝度の方が、眼球照明ライト166c及び166dに対応する輝点の輝度より高くないと判別された場合、制御部302は、眼球照明ライト166c及び166dを選択し、選択した結果を記憶部303に記憶させる。制御部302は、眼球照明ライト166c及び166dを消灯させて、眼球照明ライトの選択処理を終了する。 (Step S805) When it is determined that the brightness of the bright spot corresponding to the eyeball illumination lights 166a and 166b is not higher than the brightness of the bright spot corresponding to the eyeball illumination lights 166c and 166d, the control unit 302 performs the eyeball illumination. The lights 166c and 166d are selected, and the selected result is stored in the storage unit 303. The control unit 302 turns off the eyeball illumination lights 166c and 166d and ends the eyeball illumination light selection process.

第2実施形態においても、制御部302は、注視点検出のためのキャリブレーション時、図31のステップS502又はS503の代わりに、上述したようにユーザーと表示部60との位置関係に応じて眼球照明ライト166の点灯と消灯を制御する。また、制御部302は、業務ロギングの処理時、図39のステップS604及びステップS617において、上述したようにユーザーと表示部60との位置関係に応じて眼球照明ライト166の点灯と消灯を制御する。
上述したように、眼球照明ライト166の輝度に基づいて、眼球照明ライト166を制御するようにしたので、本実施形態のHMD1は、ユーザーと表示部60との位置関係に応じて眼球を照明するライトの選択が適宜行うことが可能となる。さらに、本実施形態のHMD1は、使用しない眼球照明ライト166を消灯することで、効率的な省電力対策が可能となっている。
Also in the second embodiment, the controller 302 adjusts the eyeball according to the positional relationship between the user and the display unit 60 as described above, instead of step S502 or S503 in FIG. The lighting light 166 is turned on and off. Further, the control unit 302 controls the turning on and off of the eyeball illumination light 166 according to the positional relationship between the user and the display unit 60 as described above in step S604 and step S617 in FIG. .
As described above, since the eyeball illumination light 166 is controlled based on the luminance of the eyeball illumination light 166, the HMD 1 of the present embodiment illuminates the eyeball according to the positional relationship between the user and the display unit 60. The light can be selected as appropriate. Further, the HMD 1 of the present embodiment can efficiently take measures for power saving by turning off the unused eyeball illumination light 166.

なお、本実施形態では、眼球照明ライト166の輝度と、ユーザーと表示部60との位置関係とに応じて、眼球照明ライト166の点灯及び消灯を制御する例を説明したが、眼球照明ライト166の点灯及び消灯を制御する例は、これに限られない。例えば、制御部302は、取得した撮像画像と記憶部303に記憶されている判別用画像とを、パターンマッチングにより比較し、比較した結果に基づいて、ユーザーと表示部60との位置関係に応じて、眼球照明ライト166の点灯と消灯を制御するようにしてもよい。   In the present embodiment, the example in which turning on and off of the eyeball illumination light 166 is controlled according to the luminance of the eyeball illumination light 166 and the positional relationship between the user and the display unit 60 has been described. An example of controlling the turning on and off of light is not limited to this. For example, the control unit 302 compares the acquired captured image with the discrimination image stored in the storage unit 303 by pattern matching, and according to the positional relationship between the user and the display unit 60 based on the comparison result. Thus, the turning on and off of the eyeball illumination light 166 may be controlled.

以上のように、本実施形態のHMD1は、ユーザーの眼に対してユーザーの下側もしくは上側や外側に表示部60が配置された場合であっても、ユーザーと表示部60との位置関係に応じて、眼球照明ライト166の点灯と消灯を制御する。この結果、本実施形態のHMD1は、ユーザーと表示部60との位置関係に応じて、ユーザーの眼に適切な眼球照明ライト166の光による輝点に基づいてユーザーの視点を精度良く検出できるので、注視点検出のためのキャリブレーションを精度良く行うことができる。従って、第1実施形態と同様に、「業務ロギングの処理」において、本実施形態のHMD1は、ユーザーは表示パネル63に表示されている選択項目を注視により選択することで、両手を使った作業をしながらでも、業務遂行に係るログを記録することができる。
さらに、本実施形態のHMD1は、ユーザーの眼に適切な眼球照明ライト166を点灯させるため、「業務ロギングの処理」において、ユーザーが表示パネル63に表示される情報を観察しているか否かを精度良く判別することができる。この結果、本実施形態のHMD1は、第1実施形態と同様に、ユーザーが表示パネル63に表示される情報を観察可能ではない場合、ユーザーに表示パネル63に表示される情報を観察するように促すことができる。
また、本実施形態のHMD1は、第1実施形態と同様に、ユーザーと表示部60との位置関係に応じて、眼球照明ライト166を消灯できるので、消費電力を削減することができる。
As described above, the HMD 1 of the present embodiment is in a positional relationship between the user and the display unit 60 even when the display unit 60 is disposed below, above or outside the user with respect to the user's eyes. In response, the turning on and off of the eyeball illumination light 166 is controlled. As a result, according to the positional relationship between the user and the display unit 60, the HMD 1 of the present embodiment can accurately detect the user's viewpoint based on the bright spot by the light of the eyeball illumination light 166 appropriate for the user's eyes. Thus, calibration for detecting a gazing point can be performed with high accuracy. Accordingly, as in the first embodiment, in the “business logging process”, the HMD 1 of the present embodiment allows the user to work with both hands by selecting the selection items displayed on the display panel 63 by gazing. Even while doing so, it is possible to record logs related to business execution.
Furthermore, since the HMD 1 of the present embodiment turns on the appropriate eyeball illumination light 166 for the user's eyes, it is determined whether or not the user is observing information displayed on the display panel 63 in the “business logging process”. It can be determined with high accuracy. As a result, as in the first embodiment, the HMD 1 of the present embodiment observes the information displayed on the display panel 63 when the user cannot observe the information displayed on the display panel 63. Can be urged.
In addition, the HMD 1 of the present embodiment can reduce the power consumption because the eyeball illumination light 166 can be turned off according to the positional relationship between the user and the display unit 60 as in the first embodiment.

なお、表示部60がユーザーの顔の正面にあり、眼球照明ライト166a〜166dの全てがユーザーの水平視線からほぼ等距離な位置にあると判別される場合、HMD1は、原理的にはどの眼球照明ライト166を点灯してもよい。しかしながら、通常は眼の上方向には、天井の照明や空や太陽などがあり、これらの光源による輝点が眼球上に存在する可能性がある。そして、これらの輝点と眼球照明ライト166の輝点とが識別がしづらくなることから、表示部60がユーザーの顔のほぼ正面にあると判別される場合、HMD1は、眼の鉛直下方向に配置された眼球照明ライト166を点灯するように制御を行うようにしてもよい。   Note that if the display unit 60 is in front of the user's face and all of the eyeball illumination lights 166a to 166d are determined to be at an approximately equidistant position from the user's horizontal line of sight, the HMD 1 is in principle which eyeball. The illumination light 166 may be turned on. However, normally, there are ceiling lighting, sky, sun, and the like above the eyes, and bright spots from these light sources may exist on the eyeball. Since these bright spots and the bright spot of the eyeball illumination light 166 are difficult to discriminate, when it is determined that the display unit 60 is substantially in front of the user's face, the HMD 1 Control may be performed to turn on the eyeball illumination light 166 arranged at.

なお、表示部60を含むファインダー開口部67の長辺の近傍に眼球照明ライト166a〜166dを備える例を説明したが(図2を参照)、眼球照明ライト166a〜166dを備える例は、これに限られない。すなわち、眼球照明ライト166は、ファインダー開口部67の短辺の近傍に配置されてもよい。   In addition, although the example provided with the eyeball illumination lights 166a to 166d near the long side of the finder opening 67 including the display unit 60 (see FIG. 2), the example provided with the eyeball illumination lights 166a to 166d Not limited. That is, the eyeball illumination light 166 may be disposed in the vicinity of the short side of the finder opening 67.

[第3実施形態]
次に、表示部がシースルー光学系の場合について説明する。
第1及び第2実施形態との差異は、表示部60の構成のみである。
図46は、本実施形態に係る本実施形態に係る光学系を説明するための表示部60aの断面図である。図8と同じ機能の部材には同じ番号を設けてあるので説明は省略する。
[Third Embodiment]
Next, the case where the display unit is a see-through optical system will be described.
The difference from the first and second embodiments is only the configuration of the display unit 60.
FIG. 46 is a cross-sectional view of the display unit 60a for describing the optical system according to the present embodiment. The members having the same functions as those in FIG.

図46に示すように、本実施形態の表示部60aは、バックライト62、表示パネル63、第1プリズム65a、第2プリズム65b、反射ミラー66、ファインダー開口部67、結像レンズ71、撮像素子72、1/4波長板75、偏光板90、凹レンズ91、1/4波長板92、液晶93、偏光板94、開口部95を含んで構成されている。図46において、符号H、I、J、K、O、Tは、各々、光線を表し、符号Sは、ユーザーの眼から出た光束を表す。   As shown in FIG. 46, the display unit 60a of the present embodiment includes a backlight 62, a display panel 63, a first prism 65a, a second prism 65b, a reflection mirror 66, a viewfinder opening 67, an imaging lens 71, and an image sensor. 72, a quarter-wave plate 75, a polarizing plate 90, a concave lens 91, a quarter-wave plate 92, a liquid crystal 93, a polarizing plate 94, and an opening 95. In FIG. 46, symbols H, I, J, K, O, and T each represent a light beam, and symbol S represents a light beam emitted from the user's eye.

図46に示すように、ユーザーの前面の景色は、光線Oとなって開口部95に入射する。次に、光線Oは、開口部95を抜けて、偏光板94を透過する。次に、光線Oは、S偏光のみが透過する。
次に、光線Oは、液晶93に入射する。なお、光線Oは、液晶93の働きにより偏光方向が変わる。すなわち、液晶93に通電した場合(オン状態)、光線Oは、液晶93に入射したS偏光がP偏光となって、1/4波長板92に入射する。次に、光線Oは、1/4波長板92の働きにより左回りの偏光となる。
As shown in FIG. 46, the scene in front of the user becomes a light ray O and enters the opening 95. Next, the light beam O passes through the opening 95 and passes through the polarizing plate 94. Next, the light beam O transmits only S-polarized light.
Next, the light beam O enters the liquid crystal 93. Note that the polarization direction of the light beam O is changed by the action of the liquid crystal 93. That is, when the liquid crystal 93 is energized (ON state), the light beam O enters the quarter-wave plate 92 with the S-polarized light incident on the liquid crystal 93 becoming P-polarized light. Next, the light beam O becomes counterclockwise polarized light by the action of the quarter-wave plate 92.

本実施形態において反射ミラー66は、半透過タイプとなっており、例えば、50%の光線を透過し、50%の光を反射する。反射ミラー66が、50%の光線を透過するとして以下を説明する。この結果、光線Oの50%が、1/4波長板75に入射する。
なお、凹レンズ91は、反射ミラー66を構成する凸レンズとペアとなって、パワーゼロの平行平板となるようにするための部材である。
In the present embodiment, the reflection mirror 66 is a semi-transmissive type, for example, transmits 50% light and reflects 50% light. The following description will be made on the assumption that the reflection mirror 66 transmits 50% of light. As a result, 50% of the light beam O enters the quarter-wave plate 75.
The concave lens 91 is a member that is paired with a convex lens constituting the reflection mirror 66 to become a parallel plate with zero power.

次に、光線Oは、1/4波長板75の作用で、P偏光となり、第1プリズム65aに入射する。次に、光線Oは、接合面65cをそのまま透過して、第2プリズム65bを透過して偏光板90に入射する。偏光板90は、P偏光を透過するように構成されている。
以上の構成により、ユーザーによって外界の画像(開口部95を通して見る画像)が、表示パネル63から投影される画像とともに観察可能となっている。
Next, the light beam O becomes P-polarized light by the action of the quarter-wave plate 75 and enters the first prism 65a. Next, the light beam O passes through the bonding surface 65 c as it is, passes through the second prism 65 b, and enters the polarizing plate 90. The polarizing plate 90 is configured to transmit P-polarized light.
With the above configuration, an image of the outside world (an image viewed through the opening 95) can be observed together with an image projected from the display panel 63 by the user.

次に、外界の画像を消し、表示パネル63から投影される画像のみを観察する場合について説明する。
図46において、液晶93を無通電の状態(オフ状態)にすると、光線Oは、液晶93により光線Oの偏光方向が変化されない。このため、光線Oは、偏光板94でS偏光となる。次に、光線Oは、そのままが1/4波長板92に入射する。次に、光線Oは、1/4波長板の働きにより右回りの偏光となる。
Next, a case where the image of the outside world is erased and only the image projected from the display panel 63 is observed will be described.
In FIG. 46, when the liquid crystal 93 is turned off (off state), the polarization direction of the light beam O is not changed by the liquid crystal 93. For this reason, the light beam O becomes S-polarized light at the polarizing plate 94. Next, the light beam O is incident on the quarter-wave plate 92 as it is. Next, the light beam O becomes clockwise polarized light by the action of the quarter wave plate.

次に、反射ミラー66を透過した光線Oの50%が、1/4波長板75に入射する。次に、光線Oは、1/4波長板75の作用で、S偏光となる。次に、S偏光になった光線Oは、第1プリズム65aに入射する。接合面65cに設けられた偏光反射膜は、S偏光を反射する。この結果、ユーザーの眼に外界の光線が、入射しない。   Next, 50% of the light beam O transmitted through the reflection mirror 66 enters the quarter-wave plate 75. Next, the light beam O becomes S-polarized light by the action of the quarter-wave plate 75. Next, the light beam O that has become S-polarized light enters the first prism 65a. The polarization reflection film provided on the bonding surface 65c reflects S-polarized light. As a result, external light rays do not enter the user's eyes.

このように、液晶93のオン状態とオフ状態の切り替えによって、外界の画像をファインダー内に透過して使用者によって観察可能か否かを制御することが可能である。なお、液晶93のオン状態とオフ状態の切り替えは、例えば処理部123が行う。   In this way, by switching the liquid crystal 93 between the on state and the off state, it is possible to control whether or not the image of the outside world can be transmitted through the finder and observed by the user. Note that the processing unit 123 performs switching between the ON state and the OFF state of the liquid crystal 93, for example.

図46において、偏光板90の働きは、反射ミラー66によってユーザーが自分の眼を拡大して観察しないように配置している。ユーザーが自分の眼を拡大して観察しない理由について、説明する。
ユーザーの眼から出た光束Sは、偏光板90でP偏光のみが透過し、第2プリズム65b、接合面65c、第1プリズム65aを透過して、1/4波長板75に入射する。ここで、光線Sは、1/4波長板75の作用により左回りの円偏光となり、反射ミラー66で光線Tとして反射される。次に、光線Tは、反射によって右回りの円偏光となり、1/4波長板75を透過する際にS偏光となる。
次に、光線Tは、第1プリズム65aを透過して接合面65cに入射する。ここで、接合面65cはS偏光を反射して透過しない。従って、ユーザーの眼には、自分自身の眼からでた光束が入射することはなく、表示画面中に自分の眼が見えることは無い。
In FIG. 46, the action of the polarizing plate 90 is arranged so that the user does not enlarge and observe his / her eyes by the reflecting mirror 66. Explain why users do not observe their eyes enlarged.
The light beam S emitted from the user's eyes transmits only the P-polarized light through the polarizing plate 90, passes through the second prism 65 b, the bonding surface 65 c, and the first prism 65 a and enters the quarter-wave plate 75. Here, the light beam S becomes counterclockwise circularly polarized light by the action of the quarter-wave plate 75, and is reflected as the light beam T by the reflection mirror 66. Next, the light beam T becomes clockwise circularly polarized light by reflection, and becomes S-polarized light when passing through the quarter-wave plate 75.
Next, the light beam T passes through the first prism 65a and enters the joint surface 65c. Here, the joint surface 65c reflects and does not transmit S-polarized light. Therefore, the user's eyes do not receive the luminous flux from his / her own eyes, and his / her eyes cannot be seen on the display screen.

また、眼の周辺画像を撮影するための結像レンズ71ならびに撮像素子72は、ファインダー開口部67に隣接して設けられている。このため、結像レンズ71ならびに撮像素子72系の光線は、第2プリズム65bを透過せずに、直接ユーザーの眼の近傍を撮影可能となっている。   Further, the imaging lens 71 and the image sensor 72 for taking a peripheral image of the eye are provided adjacent to the finder opening 67. For this reason, the light rays of the imaging lens 71 and the imaging element 72 system can directly photograph the vicinity of the user's eyes without passing through the second prism 65b.

図47は、本実施形態に係る観察範囲と撮像範囲を説明する図である。図47において、符号67aは、表示パネル63から投影された画像の観察範囲を表している。符号67bは、撮像素子72の撮像範囲を表している。
また、図47は、図10等と同様に、反射ミラー66を凸レンズに置き換えて、等価的に表した図である。
FIG. 47 is a diagram for explaining an observation range and an imaging range according to the present embodiment. In FIG. 47, reference numeral 67a represents the observation range of the image projected from the display panel 63. Reference numeral 67 b represents an imaging range of the imaging element 72.
FIG. 47 is an equivalent view in which the reflecting mirror 66 is replaced with a convex lens, as in FIG.

図47において、結像レンズ71の焦点距離は、反射ミラー66の焦点距離より短く作られている。このため、図46を紙面とは垂直に断面を切り取った場合、図47で示すように、ユーザーの眼を含むその周囲の様子が撮影可能となっている。
なお、図47において、結像レンズ71ならびに撮像素子72は、反射ミラー66の光学中心とはオフセットしている。しかしながら、ユーザーは、表示部60aを眼の正面ではなく、口元の方向へ下げることでファインダー開口部67から眼を十分に離すことが可能となっており、図47に示すようにユーザーの眼は観察距離L81の位置にある。このため、ユーザーが表示パネル63を観察している場合、本実施形態によれば、撮像素子72は、問題なくユーザーの眼ならびにその周囲を撮影可能となっている。
In FIG. 47, the focal length of the imaging lens 71 is made shorter than the focal length of the reflection mirror 66. For this reason, when FIG. 46 is cut in a cross section perpendicular to the paper surface, as shown in FIG.
In FIG. 47, the imaging lens 71 and the image sensor 72 are offset from the optical center of the reflection mirror 66. However, the user can sufficiently separate his / her eyes from the viewfinder opening 67 by lowering the display unit 60a not toward the front of the eyes but toward the mouth, and the user's eyes can be removed as shown in FIG. It is at the position of the observation distance L81. For this reason, when the user is observing the display panel 63, according to this embodiment, the image sensor 72 can photograph the user's eyes and the surroundings without any problem.

上述した構成を備えることで、ユーザーの眼を含む撮像を行い、第1実施形態と同様に、撮像素子72が撮像した画像に基づいて、HMD1の装着状態、視線キャリブレーションを行うことができるシースルー光学系の表示部を備えるヘッドマウントディスプレイを提供することができる。
なお、第2実施形態においても、第1実施形態で説明したように、眼球照明ライトを、ファインダー開口部67の4辺のうち、対向する2辺の近傍に各々配置するようにしてもよい。
By providing the above-described configuration, it is possible to perform imaging including the user's eyes, and to see through the HMD 1 wearing state and line-of-sight calibration based on the image captured by the image sensor 72 as in the first embodiment. A head-mounted display including an optical system display unit can be provided.
In the second embodiment, as described in the first embodiment, the eyeball illumination light may be arranged in the vicinity of two opposing sides of the four sides of the finder opening 67.

第3実施形態のHMD1は、第1実施形態と同様に、ユーザーが表示パネル63に表示される情報を観察可能ではないと判定した場合、ユーザーに表示部を観察するように促すための報知を音により行う。この結果、第3実施形態のHMD1は、第1実施形態と同様に、ユーザーが表示パネル63に表示される情報を観察可能ではない場合、表示パネル63に表示される情報を観察するようにユーザーに音により促すことが出来る。従って、第3実施形態のHMD1は、ユーザーが表示パネル63に表示された情報を確認することができるシースルー光学系の表示部60aを備えるヘッドマウントディスプレイを提供する。
また、第3実施形態のHMD1は、第1実施形態のHMD1の場合と同様に、検査対象装置に係わる情報に基づいてユーザーが表示パネル63に表示された情報を確認する必要があると判定した場合、かつ観察可否判定部310によりユーザーが表示パネル63に表示される情報を観察可能ではないと判定された場合に、ユーザーに表示パネル63に表示される情報を観察するように促すための報知を音により行う。この結果、第3実施形態のHMD1は、第1実施形態と同様に、表示パネル63に表示された情報が重要な場合に、ユーザーに表示パネル63に表示されている情報を観察するように促すことが出来る。従って、第3実施形態のHMD1は、ユーザーが表示パネル63に表示された情報を確認させることができるシースルー光学系の表示部60aを備えるヘッドマウントディスプレイを提供できる。
Similarly to the first embodiment, the HMD 1 of the third embodiment provides a notification for prompting the user to observe the display unit when the user determines that the information displayed on the display panel 63 is not observable. Perform by sound. As a result, as in the first embodiment, the HMD 1 of the third embodiment allows the user to observe the information displayed on the display panel 63 when the user cannot observe the information displayed on the display panel 63. Can be prompted by sound. Therefore, the HMD 1 of the third embodiment provides a head mounted display including a display unit 60a of a see-through optical system that allows a user to check information displayed on the display panel 63.
Further, the HMD 1 of the third embodiment determines that the user needs to confirm the information displayed on the display panel 63 based on the information related to the inspection target device, as in the case of the HMD 1 of the first embodiment. If the user determines that the information displayed on the display panel 63 is not observable by the observability determination unit 310, a notification for prompting the user to observe the information displayed on the display panel 63 Perform by sound. As a result, the HMD 1 of the third embodiment prompts the user to observe the information displayed on the display panel 63 when the information displayed on the display panel 63 is important, as in the first embodiment. I can do it. Therefore, the HMD 1 of the third embodiment can provide a head mounted display including the display unit 60a of the see-through optical system that allows the user to check the information displayed on the display panel 63.

なお、第1〜第3実施形態では、ヘッドマウントディスプレイの例として、右眼観察形態と左眼観察形態を切り替えて使用できるヘッドマウントディスプレイの例を説明したが、これに限られない。例えば、右眼観察形態専用、または左眼観察形態専用のヘッドマウントディスプレイであってもよい。この場合、本実施形態で説明した処理の内、右眼観察形態、または左眼観察形態に関する処理のみを行うようにしてもよい。   In the first to third embodiments, an example of a head-mounted display that can be used by switching between a right-eye observation mode and a left-eye observation mode has been described as an example of a head-mounted display. For example, it may be a head-mounted display dedicated to the right-eye observation form or dedicated to the left-eye observation form. In this case, among the processes described in the present embodiment, only the process relating to the right eye observation form or the left eye observation form may be performed.

なお、第1〜第3実施形態において、表示部60(または表示部60a)の画像を観察している眼を認識する際に、制御部302は、バックライト62を点灯させるようにしてもよい。これにより、さらに撮像画像に含まれるユーザーの眼の領域を含む画像が鮮明になり、「左右の眼の検出処理」における演算処理が簡単になる。または、制御部302は、バックライト62を消灯させた撮像画像と、バックライト62を点灯させた撮像画像の両方を用いて「左右の眼の検出処理」を行うようにしてもよい。この場合、制御部302は、撮像画像において、ユーザーの眼を含む領域がより鮮明な方を用いて、「左右の眼の検出処理」を行うようにしてもよい。   In the first to third embodiments, the controller 302 may turn on the backlight 62 when recognizing an eye observing the image of the display unit 60 (or the display unit 60a). . As a result, the image including the region of the user's eye included in the captured image becomes clearer, and the arithmetic processing in the “left and right eye detection processing” is simplified. Alternatively, the control unit 302 may perform the “left and right eye detection process” using both the captured image in which the backlight 62 is turned off and the captured image in which the backlight 62 is turned on. In this case, the control unit 302 may perform the “left and right eye detection process” using a captured image in which the region including the user's eyes is clearer.

なお、第1〜第3実施形態では、撮像画像の例として、図11、図12、図14、図26、図27、及び図28に示したように、ユーザーの片眼を含む領域が撮像された例を説明したがこれに限られない。撮像画像にはユーザーの両眼のうち、片眼を含む領域のみならず、ユーザーの他の片眼の一部を含む領域が撮像されていてもよい。この場合、制御部302は、撮像画像において占める面積が多い方の眼の画像領域を抽出して、抽出した画像領域をユーザーの片眼を含む領域とする。そして、制御部302は、この抽出したユーザーの片眼を含む領域に基づいて「左右の眼の検出処理」を行うようにしてもよい。あるいは、制御部302は、撮像画像において眼球の画像が撮像画像の中心により近い方の眼の画像領域を抽出して、抽出した画像領域に基づいて「左右の眼の検出処理」を行うようにしてもよい。また、制御部302は、眉毛の画像を抽出し、抽出した眉毛の画像の近傍にある眼の画像を抽出して、「左右の眼の検出処理」を行う。このように眉毛の画像の近傍にある眼の画像を抽出することで、本発明に係るHMD1では、ユーザーの片眼を含む領域の画像に、ユーザーの両眼のうち他の片眼の一部の画像又はその眼に対応する眉毛の画像が含まれていても、ユーザーの片眼の画像およびその眼に対応する眉毛の画像を適切に抽出できる。この結果、本発明に係るHMD1では、ユーザーの片眼を含む領域に基づいて、表示部60に表示された画像を観察している眼が右眼と左眼とのいずれかであるかを適切に認識できる。   In the first to third embodiments, as an example of the captured image, an area including one eye of the user is captured as illustrated in FIGS. 11, 12, 14, 26, 27, and 28. However, the present invention is not limited to this. In the captured image, not only a region including one eye but also a region including a part of one other eye of the user may be captured in both eyes of the user. In this case, the control unit 302 extracts the image area of the eye that occupies the larger area in the captured image, and sets the extracted image area as the area including one eye of the user. Then, the control unit 302 may perform “left and right eye detection processing” based on the extracted region including one eye of the user. Alternatively, the control unit 302 extracts the image region of the eye whose eyeball image is closer to the center of the captured image in the captured image, and performs “left and right eye detection processing” based on the extracted image region. May be. Further, the control unit 302 extracts an eyebrow image, extracts an eye image in the vicinity of the extracted eyebrow image, and performs a “left and right eye detection process”. Thus, by extracting the image of the eye in the vicinity of the image of the eyebrows, in the HMD 1 according to the present invention, a part of the other eye of the user's eyes is added to the image of the region including the user's one eye Even if the image of the eyebrows corresponding to the eye or the image of the eyebrows corresponding to the eye is included, the image of the eye of the user and the image of the eyebrows corresponding to the eye can be appropriately extracted. As a result, the HMD 1 according to the present invention appropriately determines whether the eye observing the image displayed on the display unit 60 is the right eye or the left eye based on the region including one eye of the user. Can be recognized.

また、第1〜第3実施形態において、図2では、表示部60及びファインダー開口部67が長方形である例を示したが、表示部60及びファインダー開口部67は、正方形、楕円形、円形等であってもよい。表示部60及びファインダー開口部67が、このような形状であっても、複数の眼球照明ライトを、図2に示したように、ファインダー開口部67の4辺のうち、対向する2辺の近傍に各々配置するようにしてもよい。   In the first to third embodiments, FIG. 2 illustrates an example in which the display unit 60 and the finder opening 67 are rectangular. However, the display unit 60 and the finder opening 67 are square, oval, circular, or the like. It may be. Even if the display unit 60 and the viewfinder opening 67 have such a shape, a plurality of eyeball illumination lights are arranged in the vicinity of two opposing sides of the four sides of the viewfinder opening 67 as shown in FIG. May be arranged respectively.

なお、第1〜第3実施形態では、眼球照明ライト166a〜166d、または166e〜166hを、例えば図2に示したように、ファインダー開口部67の上下または左右に、各々2個ずつ設ける例を説明したが、これに限られない。例えば、ファインダー開口部67の上下または左右に、各々1個ずつ設けるようにしてもよい、ファインダー開口部67の上下または左右に、各々3個以上ずつ設けるようにしてもよい。
さらに、眼球照明ライト166a〜166dを設ける位置は、図2に示したようなファインダー開口部67の上下でなくてもよい。ユーザーの眼球に照射できる位置であればよく、例えば、眼球照明ライト166a〜166dは、ファインダー開口部67の内側の上下に設けるようにしてもよい。すなわち、ユーザーが、HMD1をユーザーの眼の近傍に表示部60が配置したとき、眼球照明ライト166a〜166dのいずれかがユーザーの眼の近傍に配置されればよい。このため、眼球照明ライト166a〜166dは、ファインダー開口部67が配置された表示部60の一面の範囲、または、ファインダー開口部67の内側の範囲に配置されるようにしてもよい。また、表示部60が配置されるユーザーの眼の近傍とは、例えば、図45に示した位置600a〜600fのように、ユーザーの眼の下、上、外側等であり、撮像素子72によりユーザーの眼の周辺画像を撮像できる範囲であればよい。
In the first to third embodiments, an example in which two eyeball illumination lights 166a to 166d or 166e to 166h are provided on each of the upper and lower sides or the left and right sides of the finder opening 67 as shown in FIG. Although explained, it is not limited to this. For example, one each may be provided above and below or right and left of the finder opening 67, or three or more may be provided above and below or right and left of the finder opening 67.
Further, the positions where the eyeball illumination lights 166a to 166d are provided may not be above and below the finder opening 67 as shown in FIG. Any position that irradiates the user's eyeball may be used. For example, the eyeball illumination lights 166 a to 166 d may be provided above and below the viewfinder opening 67. In other words, when the user places the HMD 1 in the vicinity of the user's eyes, the eyeball illumination lights 166a to 166d may be arranged in the vicinity of the user's eyes. For this reason, the eyeball illumination lights 166a to 166d may be arranged in a range of one surface of the display unit 60 where the finder opening 67 is arranged, or a range inside the finder opening 67. Further, the vicinity of the user's eye where the display unit 60 is arranged is, for example, below, above, outside, or the like of the user's eye, such as positions 600a to 600f shown in FIG. As long as it is within a range where a peripheral image of the eye can be captured.

なお、第1〜第3実施形態では、右眼観察形態であるか左眼観察形態であるかを、加速度センサー132の検出値、または撮像素子72が撮像した画像を用いる例を説明したが、これに限られない。例えば、眼球照明ライト166a〜166dに受光部を備えるタイプを使用し、各眼球照明ライト166a〜166dによる反射光を検出するようにしてもよい。例えば、右眼観察形態の場合、図34に示したように、眼球照明ライト166a及び166bは、眼球照明ライト166c及び166dよりも、ユーザーの眼のより正面に配置される。このため、眼球照明ライト166c及び166dによる反射光の輝度は、眼球照明ライト166a及び166bによる反射光の輝度よりも低い。
このように、処理部123は、各眼球照明ライト166a〜166dによる反射光を検出し、検出した結果に基づいて観察形態を判別するようにしてもよい。
In the first to third embodiments, the example in which the detection value of the acceleration sensor 132 or the image captured by the image sensor 72 is used to determine whether the observation mode is the right eye observation mode or the left eye observation mode is described. It is not limited to this. For example, a type including a light receiving unit may be used for the eyeball illumination lights 166a to 166d, and the reflected light from each of the eyeball illumination lights 166a to 166d may be detected. For example, in the case of the right-eye observation form, as shown in FIG. 34, the eyeball illumination lights 166a and 166b are arranged in front of the user's eye rather than the eyeball illumination lights 166c and 166d. For this reason, the brightness of the reflected light from the eyeball illumination lights 166c and 166d is lower than the brightness of the reflected light from the eyeball illumination lights 166a and 166b.
As described above, the processing unit 123 may detect the reflected light from each of the eyeball illumination lights 166a to 166d and determine the observation form based on the detected result.

また、撮像素子72は、所定の時間間隔で、撮像画像を撮像してもよい。この場合、処理部123は、メインスイッチ28をオフ状態にせずに、ユーザーがヘッドマウントディスプレイを頭部から外しているのか否かを、撮像素子72が撮像した画像に基づいて判別するようにしてもよい。メインスイッチ28をオフ状態にせずに、所定の時間以上、ユーザーがヘッドマウントディスプレイを頭部から外していると判別した場合、処理部123は、カメラ64及び撮像素子72による撮像を、停止させてもよい。また、処理部123は、眼球照明ライト166a〜166dを消灯させてもよい。さらに、処理部123は、省電力状態になるように、各通信回路等を制御するようにしてもよい。なお、これらの制御を行うか否かは、例えば、タッチスイッチ34を操作することにより、ユーザーが設定してもよい。
または、処理部123は、ヘッドマウントディスプレイが頭部から外されているか否かを、例えば、心拍数センサー137の検出値に基づいて判別するようにしてもよい。
さらに、処理部123は、装置本体部21がヘッドバンド40に装着されていないことを検出スイッチ(不図示)が検出した場合、装置本体部21が頭部から外されていると判別し、眼球照明ライト166a〜166dを全て消灯させてもよい。
これにより、処理部123は、ヘッドマウントディスプレイの消費電力を低減させることができる。
The image sensor 72 may capture a captured image at a predetermined time interval. In this case, the processing unit 123 determines whether the user has removed the head-mounted display from the head without turning the main switch 28 based on the image captured by the image sensor 72. Also good. If it is determined that the user has removed the head-mounted display from the head for a predetermined time or longer without turning off the main switch 28, the processing unit 123 stops imaging by the camera 64 and the imaging element 72. Also good. The processing unit 123 may turn off the eyeball illumination lights 166a to 166d. Further, the processing unit 123 may control each communication circuit or the like so as to enter a power saving state. Whether or not to perform these controls may be set by the user by operating the touch switch 34, for example.
Alternatively, the processing unit 123 may determine whether or not the head mounted display is removed from the head based on the detection value of the heart rate sensor 137, for example.
Further, when a detection switch (not shown) detects that the apparatus main body 21 is not attached to the headband 40, the processing unit 123 determines that the apparatus main body 21 is removed from the head, and the eyeball All of the illumination lights 166a to 166d may be turned off.
Thereby, the process part 123 can reduce the power consumption of a head mounted display.

なお、第1〜第3実施形態では、ヘッドマウントディスプレイの例として単眼タイプについて説明したが、ヘッドマウントディスプレイは、両眼タイプでもよい。この場合、処理部123は、撮像素子72が撮像した画像に基づいて、例えば、図45に示したように眼の上の位置600c及び600dに表示部が配置されている状態か、眼の下の位置600a及び600bに表示部が配置されている状態かを判別するようにしてもよい。処理部123は、判別した結果に基づいて、左右の眼に対応した表示部に各々設けられている眼球照明ライト166の点灯または消灯を制御するようにしてもよい。   In the first to third embodiments, the monocular type has been described as an example of the head mounted display. However, the head mounted display may be a binocular type. In this case, based on the image captured by the image sensor 72, the processing unit 123 may be in a state where the display unit is disposed at positions 600c and 600d on the eye as illustrated in FIG. It may be determined whether or not the display unit is located at the positions 600a and 600b. The processing unit 123 may control lighting or extinguishing of the eyeball illumination lights 166 provided in the display units corresponding to the left and right eyes, based on the determined result.

また、眼球照明ライト166及び撮像素子72は、ヘッドマウントディスプレイが両眼タイプの場合、左右それぞれの表示部のうち、片方の表示部60だけに設けられてもよいし、両方の表示部60に設けられてもよい。片方の表示部60だけに、眼球照明ライト166を設けてもよい理由は、人が物を見る場合、一般的に、両眼の眼球が同じ方向を向くからである。   Further, when the head mounted display is a binocular type, the eyeball illumination light 166 and the image sensor 72 may be provided only on one display unit 60 of the left and right display units, or on both display units 60. It may be provided. The reason why the eyeball illumination light 166 may be provided only on one display unit 60 is that, when a person looks at an object, the eyeballs of both eyes generally face the same direction.

なお、第1〜第3実施形態では、HMD1は、図21に示した機能を備える例を説明したが、全ての機能を備えていなくてもよい。用途に応じて、例えば、温湿度センサー136、心拍数センサー137等を備えなくてもよい。逆に、HMD1は、必要に応じて、図22に示した以外の他の機能部を備えるようにしてもよい。   In the first to third embodiments, the example in which the HMD 1 includes the functions illustrated in FIG. 21 has been described. However, the HMD 1 may not have all the functions. Depending on the application, for example, the temperature / humidity sensor 136 and the heart rate sensor 137 may not be provided. Conversely, the HMD 1 may include other functional units other than those shown in FIG. 22 as necessary.

なお、第1〜第3実施形態では、ディスプレイ本体20をヘッドバンド40に装着して使用する例を説明したが、これに限られない。ユーザーは、ディスプレイ本体20をヘッドバンド40に装着せずに、用途に応じて単体で使用してもよい。   In the first to third embodiments, the example in which the display main body 20 is mounted on the headband 40 has been described, but the present invention is not limited to this. The user may use the display body 20 alone without depending on the headband 40 depending on the application.

なお、本発明の技術範囲は上記の実施形態に限定されるものではない。上記の実施形態で説明した要件のうち少なくとも1つの要件は、省略される場合がある。上記の実施形態で説明した各要件は、適宜、組み合わせることができる。   The technical scope of the present invention is not limited to the above embodiment. At least one of the requirements described in the above embodiments may be omitted. The requirements described in the above embodiments can be combined as appropriate.

なお、上述のHMD1は、内部にコンピュータシステム(例えば、処理部123)を有している。そして、各機能部の動作の過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータシステムが読み出して実行することによって、上記処理が行われる。ここでいうコンピュータシステムとは、CPU及び各種メモリーやOS、周辺機器等のハードウェアを含むものである。   The HMD 1 described above has a computer system (for example, the processing unit 123) inside. The operation process of each functional unit is stored in a computer-readable recording medium in the form of a program, and the above processing is performed by the computer system reading and executing the program. Here, the computer system includes a CPU, various memories, an OS, and hardware such as peripheral devices.

また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバーやクライアントとなるコンピュータシステム内部の揮発性メモリーのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。   Further, the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used. The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, it also includes those that hold a program for a certain period of time, such as volatile memory inside a computer system that serves as a server or client in that case. The program may be a program for realizing a part of the functions described above, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system.

1…ヘッドマウントディスプレイ、20…ディスプレイ本体、26…オーディオコネクター、34…タッチスイッチ、60…表示部、63…表示パネル(表示部)、64…カメラ、72…撮像素子(撮像部)、100…イヤホン、103…第1スピーカー、104…第2スピーカー、121…デコーダー、123…処理部、131…WiFi通信回路、132…加速度センサー、133…地磁気センサー、137…心拍数センサー、138…3G/LTE通信回路、166a〜166h…眼球照明ライト、301…入力検出部、302…制御部、303…記憶部、304…眼球照明部、305…音響制御部、306…画像切替部、307…画像表示部、308…送受信部、309…行動履歴登録部、310…観察可否判定部 DESCRIPTION OF SYMBOLS 1 ... Head mounted display, 20 ... Display main body, 26 ... Audio connector, 34 ... Touch switch, 60 ... Display part, 63 ... Display panel (display part), 64 ... Camera, 72 ... Imaging element (imaging part), 100 ... Earphone, 103 ... first speaker, 104 ... second speaker, 121 ... decoder, 123 ... processing unit, 131 ... WiFi communication circuit, 132 ... acceleration sensor, 133 ... geomagnetic sensor, 137 ... heart rate sensor, 138 ... 3G / LTE Communication circuit, 166a to 166h ... eyeball illumination light, 301 ... input detection unit, 302 ... control unit, 303 ... storage unit, 304 ... eyeball illumination unit, 305 ... acoustic control unit, 306 ... image switching unit, 307 ... image display unit 308 ... Transmission / reception unit 309 ... Behavior history registration unit 310 ... Observability determination unit

Claims (1)

情報を表示する表示部と、
前記表示部がユーザーにより観察可能な状況であるか否かを判定する観察可否判定部と、
音により報知を行う報知部と、
前記観察可否判定部が判定した結果に基づいて、前記表示部が前記ユーザーにより観察可能ではない状況であると判定された場合、前記報知部から報知するように制御する制御部と、
を備えることを特徴とする情報入出力装置。
A display for displaying information;
An observability determination unit that determines whether or not the display unit is observable by a user;
An informing unit for informing by sound;
Based on the result determined by the observability determination unit, when it is determined that the display unit is not observable by the user, a control unit that controls to notify from the notification unit;
An information input / output device comprising:
JP2018073433A 2018-04-05 2018-04-05 Information input/output device and information input/output method Pending JP2018146966A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018073433A JP2018146966A (en) 2018-04-05 2018-04-05 Information input/output device and information input/output method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018073433A JP2018146966A (en) 2018-04-05 2018-04-05 Information input/output device and information input/output method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2013015798A Division JP6318462B2 (en) 2013-01-30 2013-01-30 Display device

Publications (2)

Publication Number Publication Date
JP2018146966A true JP2018146966A (en) 2018-09-20
JP2018146966A5 JP2018146966A5 (en) 2018-11-01

Family

ID=63589977

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018073433A Pending JP2018146966A (en) 2018-04-05 2018-04-05 Information input/output device and information input/output method

Country Status (1)

Country Link
JP (1) JP2018146966A (en)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000111828A (en) * 1998-10-06 2000-04-21 Sharp Corp Mounting type picture display device
JP2001018717A (en) * 1999-07-06 2001-01-23 Matsushita Electric Ind Co Ltd Device for monitoring ambient condition of vehicle in operation
JP2002345756A (en) * 2001-05-25 2002-12-03 Canon Inc Visual line detector and optical equipment
JP2004233780A (en) * 2003-01-31 2004-08-19 Nikon Corp Head-mounted display
JP2005245791A (en) * 2004-03-04 2005-09-15 Olympus Corp Direction detector for line of vision
WO2007145122A1 (en) * 2006-06-14 2007-12-21 Nikon Corporation Image display device
JP2009150866A (en) * 2007-11-29 2009-07-09 Toshiba Corp Appearance inspection apparatus, appearance inspection system, and appearance inspection method
WO2012172719A1 (en) * 2011-06-16 2012-12-20 パナソニック株式会社 Head-mounted display and misalignment correction method thereof
WO2014006757A1 (en) * 2012-07-06 2014-01-09 Necディスプレイソリューションズ株式会社 Display device, and control method for display device

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000111828A (en) * 1998-10-06 2000-04-21 Sharp Corp Mounting type picture display device
JP2001018717A (en) * 1999-07-06 2001-01-23 Matsushita Electric Ind Co Ltd Device for monitoring ambient condition of vehicle in operation
JP2002345756A (en) * 2001-05-25 2002-12-03 Canon Inc Visual line detector and optical equipment
JP2004233780A (en) * 2003-01-31 2004-08-19 Nikon Corp Head-mounted display
JP2005245791A (en) * 2004-03-04 2005-09-15 Olympus Corp Direction detector for line of vision
WO2007145122A1 (en) * 2006-06-14 2007-12-21 Nikon Corporation Image display device
JP2009150866A (en) * 2007-11-29 2009-07-09 Toshiba Corp Appearance inspection apparatus, appearance inspection system, and appearance inspection method
WO2012172719A1 (en) * 2011-06-16 2012-12-20 パナソニック株式会社 Head-mounted display and misalignment correction method thereof
WO2014006757A1 (en) * 2012-07-06 2014-01-09 Necディスプレイソリューションズ株式会社 Display device, and control method for display device

Similar Documents

Publication Publication Date Title
JP6318462B2 (en) Display device
US20200374508A1 (en) Display apparatus and method for controlling display apparatus
JP6123180B2 (en) Display device
JP2013190941A (en) Information input output device, and head-mounted display device
US10838205B2 (en) Head mounted display, control method thereof, and computer program
JP6011072B2 (en) Control device and program
JP2014021707A (en) Information input/output device and information input/output method
US20150009309A1 (en) Optical Frame for Glasses and the Like with Built-In Camera and Special Actuator Feature
JP2014123883A (en) Head-mounted type information input output apparatus, and head-mounted type information input output method
JP6719418B2 (en) Electronics
US20180164983A1 (en) Display system, display apparatus, control method for display apparatus
KR20160001178A (en) Glass type terminal and control method thereof
JP6136090B2 (en) Electronic device and display device
JP2014212473A (en) Communication device and head-mounted display device
JP2019164420A (en) Transmission type head-mounted display device, control method of transmission type head-mounted display device, and computer program for control of transmission type head-mounted display device
US11558711B2 (en) Precision 6-DoF tracking for wearable devices
JP2014044654A (en) Information input and output device
JP6015223B2 (en) Electronic device and display device
JP2014021272A (en) Information input/output device and information input/output method
JP2014022937A (en) Head-mounted information input/output device and head-mounted information input/output method
JP2014147033A (en) Information input/output device and information input/output method
JP2013175909A (en) Head-mounted device
JP2014022942A (en) Head-mounted device
JP2013174730A (en) Information display device
JP2018146966A (en) Information input/output device and information input/output method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180405

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180910

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190108

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190507

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191015

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200407