Nothing Special   »   [go: up one dir, main page]

JP6701631B2 - Display device, display device control method, display system, and program - Google Patents

Display device, display device control method, display system, and program Download PDF

Info

Publication number
JP6701631B2
JP6701631B2 JP2015124440A JP2015124440A JP6701631B2 JP 6701631 B2 JP6701631 B2 JP 6701631B2 JP 2015124440 A JP2015124440 A JP 2015124440A JP 2015124440 A JP2015124440 A JP 2015124440A JP 6701631 B2 JP6701631 B2 JP 6701631B2
Authority
JP
Japan
Prior art keywords
display
information
unit
user
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015124440A
Other languages
Japanese (ja)
Other versions
JP2017009777A (en
Inventor
辰典 ▲高▼橋
辰典 ▲高▼橋
高野 正秀
正秀 高野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2015124440A priority Critical patent/JP6701631B2/en
Priority to US14/878,545 priority patent/US20160116740A1/en
Publication of JP2017009777A publication Critical patent/JP2017009777A/en
Application granted granted Critical
Publication of JP6701631B2 publication Critical patent/JP6701631B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、表示装置、表示装置の制御方法、表示システム、及び、プログラムに関する。   The present invention relates to a display device, a display device control method, a display system, and a program.

従来、頭部装着型の表示装置が知られている。この種の表示装置の中に、装置を装着する使用者が、装置の動作に関する設定を行うことが可能なものがある(例えば、特許文献1参照)。特許文献1は、使用者であるプレイヤーの頭部に装着する表示装置において、画像の表示位置の位置合わせを行うことで、より自然な表示を行うことが可能な構成を開示している。   Conventionally, a head-mounted display device is known. Among display devices of this type, there is one in which a user wearing the device can make settings relating to the operation of the device (for example, refer to Patent Document 1). Patent Literature 1 discloses a configuration in which a display device mounted on the head of a player who is a user can perform a more natural display by aligning the display positions of images.

特開2002−159019号公報JP, 2002-15919, A

上述のように、頭部装着型の表示装置は、調整を行うことで、例えば使用者の個人差による使用感の低下を防止できる。しかしながら、表示装置を使用するごとに調整を行うことは煩雑である。また、例えば、複数の使用者が表示装置を共用する場合、それぞれの使用者が表示装置を装着するごとに調整を行わなければならず、操作の負担が大きい。
本発明は上記事情に鑑みてなされたものであり、表示装置を使用者に合わせて設定する際の、使用者の負担を軽減することを目的とする。
As described above, by adjusting the head-mounted display device, it is possible to prevent deterioration in the feeling of use due to individual differences among users. However, it is complicated to make adjustments each time the display device is used. Further, for example, when a plurality of users share the display device, adjustments must be made each time each user wears the display device, which imposes a heavy operational burden.
The present invention has been made in view of the above circumstances, and an object of the present invention is to reduce the burden on the user when setting the display device according to the user.

上記目的を達成するために、本発明の表示装置は、頭部装着型の表示部を備える表示装置であって、前記表示部の表示に関する設定情報を、使用者を識別する識別情報に対応付けて記憶する記憶部と、前記識別情報を入力する入力部と、入力した前記識別情報に対応する設定情報に基づいて、前記表示部の表示を制御する制御部とを備えることを特徴とする。
本発明によれば、設定情報に基づき表示装置の表示に係る設定を行えるので、使用者に合わせた設定を、速やかに行うことができる。
In order to achieve the above object, the display device of the present invention is a display device including a head-mounted display unit, wherein the setting information regarding the display of the display unit is associated with identification information for identifying a user. And a storage unit for storing the identification information, an input unit for inputting the identification information, and a control unit for controlling display of the display unit based on setting information corresponding to the input identification information.
According to the present invention, since the setting relating to the display of the display device can be performed based on the setting information, the setting suitable for the user can be promptly performed.

また、本発明は、上記表示装置において、撮像部を備え、前記入力部は、前記撮像部の撮像画像に基づく前記識別情報を入力し、前記制御部は、前記記憶部に記憶した前記識別情報のうち、前記入力部が入力する前記識別情報に対応する前記識別情報を特定し、特定した前記識別情報に対応付けて記憶された前記設定情報に基づいて、前記表示部の表示を制御する、ことを特徴とする。
本発明によれば、撮像画像を利用して、表示装置の表示に係る設定を行えるので、使用者に合わせた設定を、速やかに行うことができる。
Further, the present invention is, in the above display device, comprising an imaging section, wherein the input section inputs the identification information based on a captured image of the imaging section, and the control section stores the identification information stored in the storage section. Of the above, the identification information corresponding to the identification information input by the input unit is specified, and based on the setting information stored in association with the specified identification information, the display of the display unit is controlled, It is characterized by
According to the present invention, since the setting relating to the display of the display device can be performed using the captured image, the setting suitable for the user can be promptly performed.

また、本発明は、上記表示装置において、前記記憶部が記憶する前記識別情報は、前記使用者の生体情報に含まれる特徴の一部を含む、ことを特徴とする。
本発明によれば、識別情報として生体情報を用いることで使用者を識別が可能であり、使用者の生体情報に含まれる特徴の一部を含むことで情報量を削減し、身体的な特徴に応じた簡易な設定が可能になる。
The present invention is also characterized in that, in the display device, the identification information stored in the storage unit includes a part of the features included in the biometric information of the user.
According to the present invention, it is possible to identify a user by using biometric information as identification information, reduce the amount of information by including a part of the features included in the biometric information of the user, and It enables simple settings according to.

また、本発明は、上記表示装置において、前記制御部は、前記入力部により前記識別情報として入力される生体情報の特徴の一部と、前記記憶部が記憶する前記生体情報の特徴の一部とを照合して、前記設定情報を特定することを特徴とする。
本発明によれば、身体的な特徴に応じた簡易な設定が可能になる。
In the display device according to the present invention, the control unit may include some of the characteristics of the biometric information input as the identification information by the input unit and some of the characteristics of the biometric information stored in the storage unit. And setting information is specified by collating with.
According to the present invention, it is possible to make simple settings according to physical characteristics.

また、本発明は、上記表示装置において、前記識別情報は、前記撮像部の撮像画像から抽出される画像に係る画像情報を含む、ことを特徴とする。
本発明によれば、撮像画像から抽出される画像を利用して、表示装置の表示に係る設定を行うことができる。
Further, in the display device according to the present invention, the identification information includes image information regarding an image extracted from a captured image of the imaging unit.
According to the present invention, an image extracted from a captured image can be used to make settings relating to display on the display device.

また、本発明は、上記表示装置において、前記制御部は、前記入力部により入力される前記識別情報に含まれる前記画像情報と、前記記憶部が記憶する前記画像情報とを照合することにより、前記設定情報を特定する、ことを特徴とする。
本発明によれば、撮像画像から抽出される画像を利用して簡易に認証を実行し、表示装置の表示に係る設定を行うことができる。
Further, in the display device according to the present invention, the control unit collates the image information included in the identification information input by the input unit with the image information stored in the storage unit, The setting information is specified.
According to the present invention, it is possible to easily perform authentication by using an image extracted from a captured image and set the display of the display device.

また、本発明は、上記表示装置において、前記識別情報は、前記使用者の生体情報に含まれる特徴の一部を含む第1識別情報、及び、前記画像情報で構成される第2識別情報を含み、前記記憶部は、前記第1識別情報と、前記第2識別情報と、前記設定情報とを対応付けて記憶する、ことを特徴とする。
本発明によれば、生体情報と、撮像画像から抽出される画像に係る情報とを利用して、表示装置の表示に係る設定を行うことができる。また、複数の情報を組み合わせることによって、より多くの設定情報を使い分けることが可能となる。
Further, in the display device according to the present invention, the identification information includes first identification information including a part of characteristics included in the biological information of the user, and second identification information including the image information. The storage unit is characterized in that the storage unit stores the first identification information, the second identification information, and the setting information in association with each other.
According to the present invention, it is possible to perform the setting related to the display of the display device by using the biometric information and the information related to the image extracted from the captured image. Further, by combining a plurality of pieces of information, it is possible to use more setting information properly.

また、本発明は、上記表示装置において、前記制御部は、前記入力部により入力される前記識別情報に含まれる前記第1識別情報及び前記第2識別情報に基づいて、前記記憶部に記憶された前記設定情報を特定する、ことを特徴とする。
本発明によれば、生体情報と、撮像画像から抽出される画像に係る情報とを組み合わせることによって、より多くの設定を使い分けることが可能となる。
In the display device according to the present invention, the control unit may be stored in the storage unit based on the first identification information and the second identification information included in the identification information input by the input unit. The setting information is specified.
According to the present invention, it is possible to use more settings properly by combining biometric information and information related to an image extracted from a captured image.

また、本発明は、上記表示装置において、前記制御部は、前記入力部により入力される前記識別情報に含まれる前記第1識別情報及び前記第2識別情報の組合せに対応付けて前記記憶部に記憶された前記設定情報を特定する、ことを特徴とする。
本発明によれば、生体情報と、撮像画像から抽出される画像に係る情報とを組み合わせることによって、より多くの設定を使い分けることが可能となる。
Further, in the display device according to the present invention, the control unit stores in the storage unit in association with a combination of the first identification information and the second identification information included in the identification information input by the input unit. It is characterized in that the stored setting information is specified.
According to the present invention, it is possible to use more settings properly by combining biometric information and information related to an image extracted from a captured image.

また、本発明は、上記表示装置において、前記制御部は、前記入力部により入力される前記識別情報に含まれる前記第1識別情報及び前記第2識別情報のいずれか一方に基づいて、前記記憶部に記憶された前記設定情報から複数の前記設定情報を選択し、選択した前記設定情報のうち、前記入力部により入力される前記識別情報に含まれる前記第1識別情報及び前記第2識別情報のうちの他方に対応する前記設定情報を特定する、ことを特徴とする。
本発明によれば、複数の情報を利用して2段階で設定情報を特定することができ、より多くの設定を効率よく使い分けることが可能となる。
Further, in the display device according to the present invention, the control unit stores the memory based on one of the first identification information and the second identification information included in the identification information input by the input unit. Selecting a plurality of the setting information from the setting information stored in the unit, and among the selected setting information, the first identification information and the second identification information included in the identification information input by the input unit The setting information corresponding to the other of the above is specified.
According to the present invention, setting information can be specified in two stages using a plurality of pieces of information, and more settings can be used efficiently.

また、本発明は、上記表示装置において、前記画像情報は、前記撮像画像から抽出または検出可能な情報であって、それ単独で生体の個体識別が可能な情報を含まない非生体固有情報である、ことを特徴とする。
本発明によれば、単独で生体の個体識別が可能な情報を含まない情報を利用して、予め記憶した設定を選択し、表示装置の表示に係る設定を行える。
Further, in the display device according to the present invention, the image information is non-living body specific information that is information that can be extracted or detected from the captured image and that does not include information that can individually identify a living body. , Is characterized.
According to the present invention, it is possible to select a pre-stored setting and make a setting related to the display of the display device by using information that does not include information that can individually identify a living body.

また、本発明は、上記表示装置において、前記画像情報は、建物を含む前記撮像画像から建物の形状を含む情報を抽出した外景情報、識別用の非生物の物体を撮像した前記撮像画像から抽出される識別用物体情報、及び、移動する物体を撮影した複数の前記撮像画像から抽出される物体の軌跡に係る軌跡情報のいずれかを含むこと、を特徴とする。
本発明によれば、建物を含む撮像画像、識別用の非生物の物体を撮像した撮像画像、或いは、移動する物体を撮影した複数の撮像画像を利用して、予め記憶した設定を選択し、表示装置の表示に係る設定を行える。
Further, in the display device according to the present invention, the image information is extracted from outside image information in which information including a shape of a building is extracted from the captured image including a building, and the captured image in which an inanimate object for identification is captured. And the locus information relating to the locus of the object extracted from the plurality of captured images of the moving object.
According to the present invention, a captured image including a building, a captured image of a non-living object for identification, or a plurality of captured images of a moving object is used to select a prestored setting, Settings related to display on the display device can be performed.

また、本発明は、上記表示装置において、前記表示部は、前記使用者の右眼及び左眼に対応して画像を表示する両眼表示と、前記使用者の右眼及び左眼のいずれかに対応して画像を表示する片眼表示とを切り替えて実行可能であり、前記制御部は、前記入力部により入力する前記識別情報に対応する前記設定情報に基づいて、前記表示部の表示を制御するまでの間は前記表示部に片眼表示を行わせ、前記設定情報に基づいて表示が制御される際に前記表示部を両眼表示に切り替える、ことを特徴とする。
本発明によれば、表示部の表示に対し設定が反映されない間、使用者の違和感を軽減できる。
Further, the present invention is the display device, wherein the display unit is a binocular display for displaying an image corresponding to the right eye and the left eye of the user, and either the right eye or the left eye of the user. It is possible to switch between and execute the single-eye display for displaying an image corresponding to, and the control unit displays the display unit based on the setting information corresponding to the identification information input by the input unit. Until the control is performed, the display unit is caused to perform a single-eye display, and when the display is controlled based on the setting information, the display unit is switched to the binocular display.
According to the present invention, it is possible to reduce the user's discomfort while the setting is not reflected on the display of the display unit.

また、本発明は、上記表示装置において、前記表示部は、外景を透過し、前記外景とともに視認できるように画像を表示し、前記制御部は、前記画像の表示位置及び表示サイズの少なくともいずれかを、前記設定情報に対応して複数段階に変更することを特徴とする。
本発明によれば、画像の表示位置及び表示サイズを、使用者に合わせて段階的に設定できる。
Further, in the display device according to the present invention, the display unit displays an image so that the outside scene is transparent and can be visually recognized together with the outside scene, and the control unit includes at least one of a display position and a display size of the image. Is changed in a plurality of steps corresponding to the setting information.
According to the present invention, the display position and display size of an image can be set in stages according to the user.

また、本発明は、上記表示装置において、前記表示部は、外景を透過し、前記外景とともに視認できるように画像光を前記使用者の眼に入射する光学素子と、前記使用者の視線方向の対象物を検出する対象検出部と、前記表示部の表示領域に対する前記対象物の位置を検出する位置検出部と、を備え、前記制御部は、前記位置検出部で検出した前記対象物の位置、及び、前記光学素子と前記使用者の瞳孔の位置との位置関係に応じて、前記光学素子による前記画像の表示位置を変更することを特徴とする。
本発明によれば、画像の表示位置を使用者に合わせて設定できる。
Further, in the display device according to the present invention, the display unit transmits an outside scene, and an optical element that allows image light to enter the eye of the user so that the image can be visually recognized together with the outside scene, and a line of sight of the user. An object detection unit that detects an object, and a position detection unit that detects the position of the object with respect to the display area of the display unit, and the control unit is the position of the object detected by the position detection unit. Further, the display position of the image by the optical element is changed according to the positional relationship between the optical element and the position of the pupil of the user.
According to the present invention, the display position of an image can be set according to the user.

また、本発明は、上記表示装置において、前記設定情報は、言語の設定に関する情報を含み、前記制御部は、前記表示部に、文字を含むコンテンツを表示する場合に、前記設定情報に対応した言語の文字を前記表示部に表示させることを特徴とする。
本発明によれば、表示部に表示する文字の言語を、使用者に合わせて設定できる。
Further, in the display device according to the present invention, the setting information includes information about language setting, and the control unit corresponds to the setting information when displaying content including characters on the display unit. Characters of a language are displayed on the display unit.
According to the present invention, the language of characters displayed on the display unit can be set according to the user.

また、本発明は、上記表示装置において、通信部を備え、前記制御部は、前記記憶部に記憶する前記設定情報と前記識別情報とを対応付けて、前記通信部により外部の装置に送信し、前記通信部により前記設定情報と前記識別情報とを受信し、受信した前記設定情報と前記識別情報とを対応付けて前記記憶部に記憶することを特徴とする。
本発明によれば、設定情報と識別情報とを外部の装置に送信し、或いは、外部の装置から受信できる。これにより、設定情報と識別情報とを容易に取得して記憶でき、外部の装置と設定情報及び識別情報を共有できる。
In the display device according to the present invention, a communication unit may be provided, and the control unit may associate the setting information and the identification information stored in the storage unit with each other and transmit the setting information and the identification information to an external device. The communication unit receives the setting information and the identification information, and stores the received setting information and the identification information in the storage unit in association with each other.
According to the present invention, the setting information and the identification information can be transmitted to or received from an external device. Thus, the setting information and the identification information can be easily acquired and stored, and the setting information and the identification information can be shared with an external device.

また、上記目的を達成するために、本発明の表示システムは、頭部装着型の表示部をそれぞれ備える複数の表示装置を備え、前記表示装置は、前記表示部の表示に関する設定情報を、使用者を識別する識別情報に対応付けて記憶する記憶部と、前記識別情報を入力する入力部と、入力した前記識別情報に対応する設定情報に基づいて、前記表示部の表示を制御する制御部と、他の前記表示装置と通信する通信部と、を備え、前記制御部は、前記記憶部に記憶する前記設定情報と前記識別情報とを対応付けて、前記通信部により送信し、前記通信部により前記設定情報と前記識別情報とを受信し、受信した前記設定情報と前記識別情報とを対応付けて前記記憶部に記憶することを特徴とする。
本発明によれば、設定情報に基づき表示装置の表示に係る設定を行えるので、使用者に合わせた設定を、速やかに行うことができる。また、設定情報と識別情報とを表示装置間で送受信するので、設定情報と識別情報とを、複数の表示装置間で共有できる。
Further, in order to achieve the above-mentioned object, the display system of the present invention includes a plurality of display devices each including a head-mounted display unit, and the display device uses setting information regarding display of the display unit. A storage unit that stores the identification information for identifying a person in association with the identification information, an input unit that inputs the identification information, and a control unit that controls the display of the display unit based on the setting information corresponding to the input identification information. And a communication unit that communicates with another display device, wherein the control unit associates the setting information and the identification information stored in the storage unit with each other and transmits the communication information by the communication unit. A unit receives the setting information and the identification information, and stores the received setting information and the identification information in the storage unit in association with each other.
According to the present invention, since the setting relating to the display of the display device can be performed based on the setting information, the setting suitable for the user can be promptly performed. Moreover, since the setting information and the identification information are transmitted and received between the display devices, the setting information and the identification information can be shared between the plurality of display devices.

また、上記目的を達成するために、本発明の表示装置の制御方法は、頭部装着型の表示部を備える表示装置の制御方法であって、識別情報を入力するステップと、前記表示部の表示に関する設定情報を、使用者を識別する識別情報に対応付けて記憶する記憶部を参照して、入力した前記識別情報に対応する設定情報に基づいて、前記表示部の表示を制御するステップと、を備えることを特徴とする。
本発明によれば、設定情報に基づき表示装置の表示に係る設定を行えるので、使用者に合わせた設定を、速やかに行うことができる。
Further, in order to achieve the above object, a control method of a display device of the present invention is a control method of a display device including a head-mounted display unit, the step of inputting identification information, and the display unit A step of controlling the display of the display section based on the setting information corresponding to the input identification information, by referring to a storage section that stores the setting information relating to the display in association with the identification information for identifying the user; , Are provided.
According to the present invention, since the setting relating to the display of the display device can be performed based on the setting information, the setting suitable for the user can be promptly performed.

また、上記目的を達成するために、本発明のプログラムは、頭部装着型の表示部を備える表示装置を制御するコンピューターが実行可能なプログラムであって、コンピューターを、識別情報を入力する入力部と、前記表示部の表示に関する設定情報を、使用者を識別する識別情報に対応付けて記憶する記憶部を参照して、入力した前記識別情報に対応する設定情報に基づいて、前記表示部の表示を制御する制御部として機能させる。
本発明によれば、設定情報に基づき表示装置の表示に係る設定を行えるので、使用者に合わせた設定を、速やかに行うことができる。
In order to achieve the above object, the program of the present invention is a program executable by a computer that controls a display device having a head-mounted display unit, and the computer is an input unit that inputs identification information. With reference to the storage unit that stores the setting information regarding the display of the display unit in association with the identification information for identifying the user, based on the setting information corresponding to the input identification information, the display unit of the display unit It functions as a control unit that controls the display.
According to the present invention, since the setting relating to the display of the display device can be performed based on the setting information, the setting suitable for the user can be promptly performed.

第1実施形態の通信システム及び表示システムの概略構成図。1 is a schematic configuration diagram of a communication system and a display system according to a first embodiment. 頭部装着型表示装置の外観構成を示す説明図。Explanatory drawing which shows the external appearance structure of a head mounted display device. 導光板の構成を示す平面図。The top view which shows the structure of a light-guide plate. 頭部装着型表示装置を構成する各部の機能ブロック図。The functional block diagram of each part which comprises a head mounted display device. 使用者情報テーブルの構成例を示す模式図。The schematic diagram which shows the structural example of a user information table. 情報登録モードにおける頭部装着型表示装置の動作を示すフローチャート。9 is a flowchart showing the operation of the head-mounted display device in the information registration mode. 情報登録モードで頭部装着型表示装置が表示する画像の例を示し、(A)はシルエット画像の例を示し、(B)はシルエット画像を用いた調整の例を示す。An example of an image displayed by the head-mounted display device in the information registration mode is shown, (A) shows an example of a silhouette image, and (B) shows an example of adjustment using the silhouette image. 使用者情報を登録する頭部装着型表示装置の動作を示すフローチャート。6 is a flowchart showing the operation of the head-mounted display device for registering user information. 頭部装着型表示装置が表示する画像の例として、シルエット画像に追加ガイドを表示した例を示す。As an example of an image displayed by the head-mounted display device, an example in which an additional guide is displayed on a silhouette image is shown. 通信データの構成例を示す模式図。The schematic diagram which shows the structural example of communication data. 第2実施形態の頭部装着型表示装置の動作を示すフローチャート。9 is a flowchart showing the operation of the head-mounted display device according to the second embodiment. 頭部装着型表示装置が出力するメッセージの例を示す図。The figure which shows the example of the message which a head mounted display device outputs. 第3実施形態の頭部装着型表示装置の動作を示すフローチャート。9 is a flowchart showing the operation of the head-mounted display device according to the third embodiment. 第4実施形態の頭部装着型表示装置の動作を示すフローチャート。The flowchart which shows operation|movement of the head mounted display apparatus of 4th Embodiment. 第4実施形態の頭部装着型表示装置の表示例を示す図。The figure which shows the example of a display of the head mounted display apparatus of 4th Embodiment. 第5実施形態の頭部装着型表示装置の動作を示すフローチャート。The flowchart which shows operation|movement of the head mounted display apparatus of 5th Embodiment. 第5実施形態の頭部装着型表示装置が記憶する使用者情報テーブルの例を示す図。The figure which shows the example of the user information table which the head mounted display device of 5th Embodiment memorize|stores. 第5実施形態の頭部装着型表示装置が認識する画像の例を示す図。The figure which shows the example of the image which the head mounted display apparatus of 5th Embodiment recognizes. 第6実施形態の頭部装着型表示装置の動作を示すフローチャート。The flowchart which shows operation|movement of the head mounted display apparatus of 6th Embodiment. 第6実施形態の頭部装着型表示装置が記憶する使用者情報テーブルの例を示す図。The figure which shows the example of the user information table which the head mounted display device of 6th Embodiment memorize|stores.

図1は、本発明を適用した実施形態として、通信システム1の構成を示す概略構成図である。通信システム1は、複数の頭部装着型表示装置100を備えた表示システム2を、通信ネットワーク4を介してサーバー5に接続したシステムである。   FIG. 1 is a schematic configuration diagram showing a configuration of a communication system 1 as an embodiment to which the present invention is applied. The communication system 1 is a system in which a display system 2 including a plurality of head-mounted display devices 100 is connected to a server 5 via a communication network 4.

頭部装着型表示装置100は、図1に示すように使用者が頭部に装着する表示装置であり、ヘッドマウントディスプレイ(Head Mounted Display、HMD)とも呼ばれる。頭部装着型表示装置100は、使用者が、虚像を視認すると同時に外景も直接視認可能な光学透過型の頭部装着型表示装置である。
なお、以下の説明では、頭部装着型表示装置100によって使用者が視認する虚像を便宜的に「表示画像」とも呼ぶ。また、画像データに基づいて生成された画像光を射出することを「画像を表示する」ともいう。
図1には、表示システム2が備える複数の頭部装着型表示装置100を、それぞれ、頭部装着型表示装置100A、100Bとする。以下では、頭部装着型表示装置100A、100Bを区別する必要のない場合、頭部装着型表示装置100と記載する。
The head-mounted display device 100 is a display device that a user wears on the head as shown in FIG. 1, and is also called a head mounted display (HMD). The head-mounted display device 100 is an optically transmissive head-mounted display device that allows a user to visually recognize a virtual image and at the same time directly visually recognize an outside scene.
In the following description, the virtual image visually recognized by the user by the head-mounted display device 100 is also referred to as “display image” for convenience. In addition, emitting the image light generated based on the image data is also referred to as “displaying an image”.
In FIG. 1, a plurality of head-mounted display devices 100 included in the display system 2 are referred to as head-mounted display devices 100A and 100B, respectively. Below, when it is not necessary to distinguish between the head-mounted display devices 100A and 100B, the head-mounted display device 100 is referred to.

通信ネットワーク4は、公衆回線網、専用線、携帯電話回線を含む無線通信回線、及び、これらの回線のバックボーン通信回線など、各種の通信回線またはその組合せで実現され、その具体的構成は限定されない。通信ネットワーク4は、遠隔地を接続できる広域通信回線網であってもよいし、特定の施設や建物内に敷設されたLAN(Local Area Network)であってもよい。また、通信ネットワーク4、上記各種通信回線を接続するサーバー装置、ゲートウェイ装置、ルーター装置等のネットワーク機器を含んでもよい。また、通信ネットワーク4が複数の通信回線で構成されてもよい。   The communication network 4 is realized by various communication lines such as a public line network, a dedicated line, a wireless communication line including a mobile phone line, and a backbone communication line of these lines, or a combination thereof, and its specific configuration is not limited. .. The communication network 4 may be a wide area communication line network capable of connecting remote locations, or may be a LAN (Local Area Network) laid in a specific facility or building. Further, the communication network 4 may include network devices such as a server device, a gateway device, and a router device that connect the various communication lines. Further, the communication network 4 may be composed of a plurality of communication lines.

表示システム2は、建物内等に設置されるLAN等を利用して構成される。表示システム2は、無線通信を行う無線アクセスポイント3と、複数の頭部装着型表示装置100A、100Bとを備える。無線アクセスポイント3は、アクセスポイントやルーター等の通信装置であり、頭部装着型表示装置100Aと頭部装着型表示装置100Bとの間のデータ通信、及び、頭部装着型表示装置100A、100Bと通信ネットワーク4とのデータ通信を中継する。   The display system 2 is configured using a LAN or the like installed in a building or the like. The display system 2 includes a wireless access point 3 that performs wireless communication, and a plurality of head-mounted display devices 100A and 100B. The wireless access point 3 is a communication device such as an access point or a router, and performs data communication between the head-mounted display device 100A and the head-mounted display device 100B, and the head-mounted display devices 100A and 100B. And data communication with the communication network 4.

頭部装着型表示装置100Aは、無線アクセスポイント3を介して他の頭部装着型表示装置100Bとデータ通信を実行できる。また、頭部装着型表示装置100A、100Bは、無線アクセスポイント3を介して、サーバー5との間でデータ通信を実行する。なお、それぞれの頭部装着型表示装置100Aは、他の頭部装着型表示装置100Bとの間で、例えばアドホックモードで直接、無線通信を実行してもよい。また、有線の通信回線により頭部装着型表示装置100A、100Bが接続されてもよい。
すなわち、表示システム2は、頭部装着型表示装置100Aが頭部装着型表示装置100Bと通信可能であれば、その構成は特に限定されない。また、通信システム1は、表示システム2が備える頭部装着型表示装置100A、100Bと、サーバー5との通信が可能な構成であればよい。
The head-mounted display device 100A can perform data communication with another head-mounted display device 100B via the wireless access point 3. In addition, the head-mounted display devices 100A and 100B perform data communication with the server 5 via the wireless access point 3. Note that each head-mounted display device 100A may directly perform wireless communication with another head-mounted display device 100B in, for example, an ad hoc mode. Further, the head-mounted display devices 100A and 100B may be connected by a wired communication line.
That is, the configuration of the display system 2 is not particularly limited as long as the head-mounted display device 100A can communicate with the head-mounted display device 100B. Further, the communication system 1 may have a configuration capable of communicating with the server 5 and the head-mounted display devices 100A and 100B included in the display system 2.

図2は、頭部装着型表示装置100の外観構成を示す説明図である。上述の頭部装着型表示装置100A、100Bは共通の構成を有するため、以下に頭部装着型表示装置100として説明する。
頭部装着型表示装置100は、使用者の頭部に装着された状態で使用者に虚像を視認させる画像表示部20と、画像表示部20を制御する制御装置10と、を備えている。制御装置10は、使用者が頭部装着型表示装置100を操作するコントローラーとしても機能する。
FIG. 2 is an explanatory diagram showing an external configuration of the head-mounted display device 100. Since the head-mounted display devices 100A and 100B described above have a common configuration, the head-mounted display device 100 will be described below.
The head-mounted display device 100 includes an image display unit 20 that allows the user to visually recognize a virtual image while being mounted on the head of the user, and a control device 10 that controls the image display unit 20. The control device 10 also functions as a controller for the user to operate the head-mounted display device 100.

画像表示部20は、使用者の頭部に装着される装着体であり、本実施形態では眼鏡形状を有している。画像表示部20は、右保持部21と、右表示駆動部22と、左保持部23と、左表示駆動部24と、右光学像表示部26と、左光学像表示部28と、第1カメラ61と、第2カメラ62と、マイク63とを備える。右光学像表示部26及び左光学像表示部28は、それぞれ、使用者が画像表示部20を装着した際に使用者の右及び左の眼前に位置するように配置されている。右光学像表示部26の一端と左光学像表示部28の一端とは、使用者が画像表示部20を装着した際の使用者の眉間に対応する位置で、互いに接続されている。   The image display unit 20 is a mounting body mounted on the head of the user, and has a spectacle shape in the present embodiment. The image display unit 20 includes a right holding unit 21, a right display driving unit 22, a left holding unit 23, a left display driving unit 24, a right optical image display unit 26, a left optical image display unit 28, and a first display unit. The camera 61, the second camera 62, and the microphone 63 are provided. The right optical image display unit 26 and the left optical image display unit 28 are arranged so as to be positioned in front of the right and left eyes of the user when the user wears the image display unit 20, respectively. One end of the right optical image display unit 26 and one end of the left optical image display unit 28 are connected to each other at a position corresponding to the eyebrows of the user when the user wears the image display unit 20.

右保持部21は、右光学像表示部26の他端である端部ERから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。同様に、左保持部23は、左光学像表示部28の他端である端部ELから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。右保持部21及び左保持部23は、眼鏡のテンプル(つる)のようにして、使用者の頭部に画像表示部20を保持する。   The right holding portion 21 is provided by extending from the end portion ER which is the other end of the right optical image display portion 26 to a position corresponding to the user's temporal region when the user wears the image display portion 20. It is a member. Similarly, the left holding unit 23 extends from the end EL, which is the other end of the left optical image display unit 28, to a position corresponding to the user's temporal region when the user wears the image display unit 20. It is a member provided by. The right holding unit 21 and the left holding unit 23 hold the image display unit 20 on the user's head like a temple (vine) of glasses.

右表示駆動部22と左表示駆動部24とは、使用者が画像表示部20を装着した際の使用者の頭部に対向する側に配置されている。なお、右表示駆動部22及び左表示駆動部24を総称して単に「表示駆動部」とも呼び、右光学像表示部26及び左光学像表示部28を総称して単に「光学像表示部」とも呼ぶ。   The right display drive unit 22 and the left display drive unit 24 are arranged on the side facing the head of the user when the user wears the image display unit 20. The right display driving unit 22 and the left display driving unit 24 are collectively referred to simply as “display driving unit”, and the right optical image display unit 26 and the left optical image display unit 28 are collectively referred to as “optical image display unit”. Also called.

表示駆動部22,24は、液晶ディスプレイ241,242(Liquid Crystal Display、以下「LCD241,242」とも呼ぶ)や投写光学系251,252等を含む(図4参照)。表示駆動部22,24の構成の詳細は後述する。光学部材としての光学像表示部26,28は、導光板261,262(図4参照)と調光板20Aとを備える。導光板261,262は、光透過性の樹脂等によって形成され、表示駆動部22,24から出力された画像光を使用者の眼に導く。調光板20Aは、薄板状の光学素子であり、使用者の眼の側とは反対の側である画像表示部20の表側を覆うように配置されている。調光板20Aは、光透過性がほぼゼロのもの、透明に近いもの、光量を減衰させて光を透過するもの、特定の波長の光を減衰又は反射するもの等、種々のものを用いることができる。調光板20Aの光学特性(光透過率など)を適宜選択することにより、外部から右光学像表示部26及び左光学像表示部28に入射する外光量を調整して、虚像の視認のしやすさを調整できる。本実施形態では、少なくとも、頭部装着型表示装置100を装着した使用者が外の景色を視認できる程度の光透過性を有する調光板20Aを用いる場合について説明する。調光板20Aは、右導光板261及び左導光板262を保護し、右導光板261及び左導光板262の損傷や汚れの付着等を抑制する。
調光板20Aは、右光学像表示部26及び左光学像表示部28に対し着脱可能としてもよく、複数種類の調光板20Aを交換して装着可能としてもよいし、省略してもよい。
The display drive units 22 and 24 include liquid crystal displays 241, 242 (Liquid Crystal Display, hereinafter also referred to as “LCDs 241 and 242”), projection optical systems 251, 252, and the like (see FIG. 4). The details of the configuration of the display drive units 22 and 24 will be described later. The optical image display units 26 and 28 as optical members include light guide plates 261 and 262 (see FIG. 4) and a light control plate 20A. The light guide plates 261 and 262 are formed of a light transmissive resin or the like, and guide the image light output from the display drive units 22 and 24 to the eyes of the user. The light control plate 20A is a thin plate-shaped optical element, and is arranged so as to cover the front side of the image display unit 20, which is the side opposite to the eye side of the user. As the light control plate 20A, various ones such as one having almost zero light transmittance, one nearly transparent, one that attenuates the amount of light and transmits light, one that attenuates or reflects light of a specific wavelength, etc. are used. You can By appropriately selecting the optical characteristics (light transmittance or the like) of the light control plate 20A, the amount of external light incident on the right optical image display unit 26 and the left optical image display unit 28 from the outside is adjusted to visually recognize the virtual image. You can adjust the ease. In the present embodiment, a case will be described in which at least a light control plate 20A having a light transmissive property that allows a user wearing the head-mounted display device 100 to visually recognize an outside scene is used. The dimming plate 20A protects the right light guide plate 261 and the left light guide plate 262, and suppresses damage and stains on the right light guide plate 261 and the left light guide plate 262.
The light control plate 20A may be attachable to and detachable from the right optical image display unit 26 and the left optical image display unit 28, and may be attachable by exchanging a plurality of types of light control plates 20A, or may be omitted. ..

入力部としての第1カメラ61は、右光学像表示部26の他端である端部ERに配置される。第1カメラ61は、使用者の眼の側とは反対側方向の外部の景色である外景を撮像し、外景画像を取得する。第1カメラ61は、単眼カメラであってもステレオカメラであってもよい。
第1カメラ61の撮像方向すなわち画角は、頭部装着型表示装置100の表側方向、換言すれば、頭部装着型表示装置100を装着した状態における使用者の視界方向の少なくとも一部の外景を撮像する方向である。また、第1カメラ61の画角の広さは適宜設定可能であるが、第1カメラ61の撮像範囲が、使用者が右光学像表示部26、左光学像表示部28を通して視認する外界を含む範囲であることが好ましい。さらに、調光板20Aを通した使用者の視界の全体を撮像できるように第1カメラ61の撮像範囲が設定されているとより好ましい。
The first camera 61 as an input unit is arranged at the end ER which is the other end of the right optical image display unit 26. The first camera 61 captures an outside scene, which is an outside scene in the direction opposite to the side of the user's eyes. The first camera 61 may be a monocular camera or a stereo camera.
The image capturing direction of the first camera 61, that is, the angle of view is the front side direction of the head-mounted display device 100, in other words, at least a part of the external view in the visual direction of the user with the head-mounted display device 100 mounted. Is the direction to image. In addition, although the width of the angle of view of the first camera 61 can be set as appropriate, the imaging range of the first camera 61 is set to the outside world that the user visually recognizes through the right optical image display unit 26 and the left optical image display unit 28. It is preferably within the range. Furthermore, it is more preferable that the imaging range of the first camera 61 is set so that the entire field of view of the user through the light control plate 20A can be imaged.

第2カメラ62は、右光学像表示部26と左光学像表示部28との境目部分、すなわち、使用者の左右の眼の中間位置に配置される。第2カメラ62は、画像表示部20の内側を向いており、使用者の眼の側を撮像する。第2カメラ62は、単眼カメラであってもステレオカメラであってもよい。   The second camera 62 is arranged at the boundary between the right optical image display unit 26 and the left optical image display unit 28, that is, at the intermediate position between the left and right eyes of the user. The second camera 62 faces the inside of the image display unit 20 and images the side of the user's eyes. The second camera 62 may be a monocular camera or a stereo camera.

図3は、左導光板262の構成を平面図により示す。使用者の左眼と右眼に虚像を視認させる構成は左右対称である。このため、ここでは左導光板262についてのみ説明し、右導光板261は図3の左導光板262と左右対称の構成であるため図示及び説明を省略する。
画像表示部20の左表示駆動部24は、LED等の光源と拡散板とを有する左バックライト222と、左バックライト222の拡散板から発せられる光の光路上に配置される透過型の左LCD242とを備える。また、画像表示部20の左表示駆動部24は、及び左LCD242を透過した画像光Lを導くレンズ群等を備えた左投写光学系252を備える。
左投写光学系252は、左LCD242から射出された画像光Lを並行状態の光束にするコリメートレンズによって構成される。コリメートレンズにより並行状態の光束にされた画像光Lは、左導光板262に入射される。左導光板262は、画像光Lを反射する複数の反射面が形成されたプリズムであり、画像光Lは、左導光板262の内部において複数回の反射を経て左眼LE側に導かれる。そして、左眼LEの眼前に位置するハーフミラー262Aで反射した画像光Lは左眼LEに向けて左光学像表示部28から射出され、この画像光Lが左眼LEの網膜に像を結び、使用者に画像を視認させる。
なお、左投写光学系252と左導光板262とを総称して「導光部」とも呼ぶ。この導光部は、画像光を用いて使用者の眼前に虚像を形成する限りにおいて任意の方式を用いることができ、例えば、回折格子を用いても良いし、半透過反射膜を用いても良い。
FIG. 3 is a plan view showing the configuration of the left light guide plate 262. The configuration in which the virtual image is visually recognized by the left and right eyes of the user is symmetrical. Therefore, only the left light guide plate 262 will be described here, and the right light guide plate 261 has a configuration symmetrical to the left light guide plate 262 in FIG.
The left display drive unit 24 of the image display unit 20 includes a left backlight 222 having a light source such as an LED and a diffusion plate, and a transmissive left arranged on the optical path of light emitted from the diffusion plate of the left backlight 222. And an LCD 242. The left display drive unit 24 of the image display unit 20 also includes a left projection optical system 252 including a lens group that guides the image light L transmitted through the left LCD 242.
The left projection optical system 252 is configured by a collimator lens that converts the image light L emitted from the left LCD 242 into a parallel light flux. The image light L converted into a parallel light flux by the collimator lens is incident on the left light guide plate 262. The left light guide plate 262 is a prism in which a plurality of reflection surfaces that reflect the image light L are formed, and the image light L is guided to the left eye LE side through a plurality of reflections inside the left light guide plate 262. Then, the image light L reflected by the half mirror 262A located in front of the left eye LE is emitted from the left optical image display unit 28 toward the left eye LE, and this image light L forms an image on the retina of the left eye LE. , Allow the user to view the image.
The left projection optical system 252 and the left light guide plate 262 are collectively referred to as “light guide unit”. This light guide unit can use any method as long as a virtual image is formed in front of the user's eyes by using image light. For example, a diffraction grating or a semi-transmissive reflective film may be used. good.

使用者の左眼LEには、ハーフミラー262Aで反射した画像光Lだけでなく、調光板20Aを透過した外光OLが入射する。つまり、頭部装着型表示装置100は、内部で処理した画像の画像光Lと外光OLとを重ねて使用者の眼に入射させ、使用者にとっては、頭部装着型表示装置100の調光板20Aを透かして外景が見え、この外景に重ねて、画像光Lによる画像が視認される。つまり、頭部装着型表示装置100は、シースルー型の表示装置といえる。
また、図示はしないが、右導光板261は、ハーフミラー261Aを備える。ハーフミラー261Aの構成は、図3のハーフミラー262Aと左右対称である。
The user's left eye LE receives not only the image light L reflected by the half mirror 262A but also external light OL transmitted through the light control plate 20A. That is, the head-mounted display device 100 causes the image light L of the internally processed image and the external light OL to overlap and enter the user's eye, and the user can adjust the head-mounted display device 100. An external view is visible through the light plate 20A, and an image formed by the image light L is visually recognized by being superimposed on the external view. That is, it can be said that the head-mounted display device 100 is a see-through display device.
Although not shown, the right light guide plate 261 includes a half mirror 261A. The configuration of the half mirror 261A is symmetrical with the half mirror 262A of FIG.

図2に示す第2カメラ62の撮像方向すなわち画角は、頭部装着型表示装置100の裏側方向、換言すれば、頭部装着型表示装置100を装着した状態における使用者の顔を撮像する方向である。第2カメラ62は、使用者の眼の位置、眼間の距離、使用者の顔の画像(顔画像)を撮像できる。また、第2カメラ62の画角の広さは適宜設定可能であるが、頭部装着型表示装置100を装着した使用者の顔と、ハーフミラー261A、262Aとを撮像可能な範囲であることが好ましい。なお、第2カメラ62の画角は、ハーフミラー261A、262Aを撮像可能な画角でなくても、例えば、調光板20A等の光学素子を撮像可能な画角を有していればよい。後述する制御部140は、撮像された調光板20Aの角度に基づき、ハーフミラー261A、262Aの角度を算出する。   The image capturing direction of the second camera 62 shown in FIG. 2, that is, the angle of view, is the back side direction of the head-mounted display device 100, in other words, the face of the user with the head-mounted display device 100 mounted is imaged. Direction. The second camera 62 can capture the position of the eyes of the user, the distance between the eyes, and an image of the face of the user (face image). Further, although the width of the angle of view of the second camera 62 can be set as appropriate, it must be within a range in which the face of the user wearing the head-mounted display device 100 and the half mirrors 261A and 262A can be imaged. Is preferred. The angle of view of the second camera 62 does not have to be an angle of view capable of imaging the half mirrors 261A and 262A, but may be an angle of view capable of imaging an optical element such as the light control plate 20A. .. The control unit 140, which will be described later, calculates the angles of the half mirrors 261A and 262A based on the captured angle of the light control plate 20A.

図2に戻り、頭部装着型表示装置100は、画像表示部20を制御装置10に接続するための接続部40を有している。接続部40は、制御装置10に接続される本体コード48と、右コード42と、左コード44と、連結部材46とを備える。右コード42と左コード44とは、本体コード48が2本に分岐したコードである。右コード42は、右保持部21の延伸方向の先端部APから右保持部21の筐体内に挿入され、右表示駆動部22に接続されている。同様に、左コード44は、左保持部23の延伸方向の先端部APから左保持部23の筐体内に挿入され、左表示駆動部24に接続される。   Returning to FIG. 2, the head-mounted display device 100 has a connection unit 40 for connecting the image display unit 20 to the control device 10. The connecting portion 40 includes a main body cord 48 connected to the control device 10, a right cord 42, a left cord 44, and a connecting member 46. The right cord 42 and the left cord 44 are cords in which the main body cord 48 is branched into two. The right cord 42 is inserted into the housing of the right holding unit 21 from the front end portion AP of the right holding unit 21 in the extending direction, and is connected to the right display drive unit 22. Similarly, the left cord 44 is inserted into the housing of the left holding unit 23 from the front end portion AP of the left holding unit 23 in the extending direction, and is connected to the left display driving unit 24.

連結部材46は、本体コード48と、右コード42及び左コード44との分岐点に設けられ、イヤホンプラグ30を接続するためのジャックを有している。イヤホンプラグ30からは、右イヤホン32及び左イヤホン34が延伸している。イヤホンプラグ30の近傍にはマイク63が設けられている。イヤホンプラグ30からマイク63までは一本のコードにまとめられ、マイク63からコードが分岐して、右イヤホン32と左イヤホン34のそれぞれに繋がっている。   The connecting member 46 is provided at a branch point between the main body cord 48 and the right cord 42 and the left cord 44, and has a jack for connecting the earphone plug 30. A right earphone 32 and a left earphone 34 extend from the earphone plug 30. A microphone 63 is provided near the earphone plug 30. The earphone plug 30 to the microphone 63 are integrated into one cord, and the cord branches from the microphone 63 and is connected to each of the right earphone 32 and the left earphone 34.

マイク63は、例えば図2に示すように、マイク63の集音部が使用者の視線方向を向くように配置され、音声を集音して、音声信号を音声処理部187(図4)に出力する。マイク63は、例えばモノラルマイクであってもステレオマイクであってもよく、指向性を有するマイクであってもよいし、無指向性のマイクであってもよい。   As shown in FIG. 2, for example, the microphone 63 is arranged such that the sound collecting unit of the microphone 63 faces the direction of the user's line of sight, collects sound, and outputs the sound signal to the sound processing unit 187 (FIG. 4). Output. The microphone 63 may be, for example, a monaural microphone or a stereo microphone, a directional microphone, or an omnidirectional microphone.

また、右コード42と左コード44とを一本のコードにまとめることも可能である。具体的には、右コード42の内部の導線を、画像表示部20の本体内部を通して左保持部23側に引き込み、左コード44内部の導線とともに樹脂で被覆して、一本のコードにまとめてもよい。   It is also possible to combine the right cord 42 and the left cord 44 into one cord. Specifically, the conducting wire inside the right cord 42 is drawn into the left holding portion 23 side through the inside of the main body of the image display unit 20, covered with resin together with the conducting wire inside the left cord 44, and collected into one cord. Good.

画像表示部20と制御装置10とは、接続部40を介して各種信号の伝送を行なう。本体コード48における連結部材46とは反対側の端部と、制御装置10とのそれぞれには、互いに嵌合するコネクター(図示略)が設けられている。本体コード48のコネクターと制御装置10のコネクターとの嵌合/嵌合解除により、制御装置10と画像表示部20とが接続されたり切り離されたりする。右コード42と、左コード44と、本体コード48とには、例えば、金属ケーブルや光ファイバーを採用できる。   The image display unit 20 and the control device 10 transmit various signals via the connection unit 40. A connector (not shown) that fits with each other is provided at each of the end of the body cord 48 on the opposite side of the connecting member 46 and the control device 10. By mating/unmating the connector of the body cord 48 and the connector of the control device 10, the control device 10 and the image display unit 20 are connected or disconnected. For the right cord 42, the left cord 44, and the body cord 48, for example, a metal cable or an optical fiber can be adopted.

制御装置10は、頭部装着型表示装置100を制御する。制御装置10は、決定キー11、点灯部12、表示切替キー13、輝度切替キー15、方向キー16、メニューキー17、及び電源スイッチ18を含むスイッチ類を備える。また、制御装置10は、使用者が指によりタッチ操作するトラックパッド14を備える。   The control device 10 controls the head-mounted display device 100. The control device 10 includes switches including an enter key 11, a lighting unit 12, a display switching key 13, a brightness switching key 15, a direction key 16, a menu key 17, and a power switch 18. The control device 10 also includes a track pad 14 that is touch-operated by a user with a finger.

決定キー11は、押下操作を検出して、制御装置10で操作された内容を決定する信号を出力する。点灯部12は、頭部装着型表示装置100の動作状態を、その発光状態によって通知する。頭部装着型表示装置100の動作状態としては、例えば、電源のON/OFF等がある。点灯部12としては、例えば、LED(Light Emitting Diode)が用いられる。表示切替キー13は、押下操作を検出して、例えば、コンテンツ動画の表示モードを3Dと2Dとに切り替える信号を出力する。   The enter key 11 detects a pressing operation and outputs a signal for determining the content operated by the control device 10. The lighting unit 12 notifies the operating state of the head-mounted display device 100 by its light emitting state. The operating state of the head-mounted display device 100 includes, for example, turning on/off a power source. As the lighting unit 12, for example, an LED (Light Emitting Diode) is used. The display switching key 13 detects a pressing operation and outputs, for example, a signal for switching the display mode of the content moving image between 3D and 2D.

トラックパッド14は、トラックパッド14の操作面上での使用者の指の操作を検出して、検出内容に応じた信号を出力する。トラックパッド14としては、静電式や圧力検出式、光学式といった種々のトラックパッドを採用できる。輝度切替キー15は、押下操作を検出して、画像表示部20の輝度を増減する信号を出力する。方向キー16は、上下左右方向に対応するキーへの押下操作を検出して、検出内容に応じた信号を出力する。電源スイッチ18は、スイッチのスライド操作を検出することで、頭部装着型表示装置100の電源投入状態を切り替える。   The track pad 14 detects the operation of the user's finger on the operation surface of the track pad 14 and outputs a signal according to the detected content. As the track pad 14, various track pads such as an electrostatic type, a pressure detection type, and an optical type can be adopted. The brightness switching key 15 detects a pressing operation and outputs a signal for increasing or decreasing the brightness of the image display unit 20. The direction key 16 detects a pressing operation on a key corresponding to the up, down, left, and right directions and outputs a signal according to the detected content. The power switch 18 switches the power-on state of the head-mounted display device 100 by detecting the slide operation of the switch.

図4は、頭部装着型表示装置100を構成する各部の機能ブロック図である。
図4に示すように、頭部装着型表示装置100は、インターフェイス125を介して外部機器OAに接続される。インターフェイス125は、制御装置10に対して、コンテンツの供給元となる種々の外部機器OAを接続するためのインターフェイスである。インターフェイス125としては、例えば、USBインターフェイス、マイクロUSBインターフェイス、メモリーカード用インターフェイス等の有線接続に対応したインターフェイスを用いることができる。
外部機器OAは、頭部装着型表示装置100に画像を供給する画像供給装置として用いられ、例えば、パーソナルコンピューター(PC)や携帯電話端末、ゲーム端末等が用いられる。
FIG. 4 is a functional block diagram of each part constituting the head-mounted display device 100.
As shown in FIG. 4, the head-mounted display device 100 is connected to the external device OA via the interface 125. The interface 125 is an interface for connecting the control device 10 to various external devices OA that are content supply sources. As the interface 125, for example, a USB interface, a micro USB interface, an interface for a memory card, or the like compatible with wired connection can be used.
The external device OA is used as an image supply device that supplies an image to the head-mounted display device 100, and for example, a personal computer (PC), a mobile phone terminal, a game terminal, or the like is used.

頭部装着型表示装置100の制御装置10は、制御部140と、操作部111と、入力情報取得部110と、記憶部120と、インターフェイス125と、送信部(Tx)51及び送信部(Tx)52とを有している。
操作部111は、使用者による操作を検出する。操作部111は、図1に示した決定キー11、表示切替キー13、トラックパッド14、輝度切替キー15、方向キー16、メニューキー17及び電源スイッチ18の各部を備える。
The control device 10 of the head-mounted display device 100 includes a control unit 140, an operation unit 111, an input information acquisition unit 110, a storage unit 120, an interface 125, a transmission unit (Tx) 51, and a transmission unit (Tx). ) 52 and.
The operation unit 111 detects an operation performed by the user. The operation unit 111 includes the determination key 11, the display switching key 13, the track pad 14, the brightness switching key 15, the direction key 16, the menu key 17, and the power switch 18 shown in FIG.

入力情報取得部110は、使用者による操作入力に応じた信号を取得する。操作入力に応じた信号としては、例えば、トラックパッド14、方向キー16、電源スイッチ18、に対する操作入力がある。また、制御装置10は、電源部(図示略)を備え、制御装置10及び画像表示部20の各部に電源を供給する。   The input information acquisition unit 110 acquires a signal according to an operation input by the user. The signals corresponding to the operation inputs include, for example, operation inputs to the track pad 14, the direction keys 16, and the power switch 18. Further, the control device 10 includes a power supply unit (not shown), and supplies power to each unit of the control device 10 and the image display unit 20.

記憶部120は、不揮発性の記憶装置であって、種々のコンピュータープログラムを格納する。また、記憶部120には、頭部装着型表示装置100の画像表示部20に表示する画像データが格納されていても良い。   The storage unit 120 is a non-volatile storage device and stores various computer programs. Further, the storage unit 120 may store image data to be displayed on the image display unit 20 of the head-mounted display device 100.

また、記憶部120は、使用者情報を登録する使用者情報テーブルを記憶する。使用者情報テーブルは、生体情報(識別情報)と、設定情報とを各使用者を識別する使用者IDに対応付けて登録したテーブルである。生体情報は、使用者を特定可能な、使用者本人に固有の生体に関する情報である。また、設定情報は、画像表示部20の表示に関する設定や、頭部装着型表示装置100の動作に関する設定の情報である。使用者情報テーブルの詳細については後述する。   The storage unit 120 also stores a user information table for registering user information. The user information table is a table in which biometric information (identification information) and setting information are registered in association with user IDs that identify each user. The biometric information is information on the biometric body that is unique to the user and that can identify the user. In addition, the setting information is information regarding the setting regarding the display of the image display unit 20 and the setting regarding the operation of the head-mounted display device 100. Details of the user information table will be described later.

例えば、使用者の眼とハーフミラー261A、262Aとの距離は、使用者の鼻の高さ、眼窩や眼球の大きさ等によって個人差がある。また、使用者の中には、左右の耳の高さが異なる人もおり、頭部装着型表示装置100を装着した場合に、画像表示部20が水平にならない場合もある。このように、使用者の頭部の解剖学的構造の個人差により、画像表示部20を装着したときの画像表示部20の各部と使用者の眼との相対的な位置関係が影響される。従って、使用者の身体に合うように、使用者の眼と光学素子との距離や、頭部装着型表示装置100を装着した際の光学素子の角度等を調整すれば、個人差を吸収して、良好な使用感を実現できる。   For example, the distance between the user's eyes and the half mirrors 261A and 262A has individual differences depending on the height of the user's nose, the size of the eye socket or eyeball, and the like. In addition, some users have different left and right ear heights, and when the head-mounted display device 100 is worn, the image display unit 20 may not be horizontal. As described above, due to individual differences in the anatomical structure of the user's head, the relative positional relationship between each part of the image display unit 20 and the user's eyes when the image display unit 20 is mounted is affected. .. Therefore, if the distance between the user's eyes and the optical element, the angle of the optical element when the head-mounted display device 100 is worn, or the like is adjusted so as to fit the user's body, individual differences are absorbed. Therefore, a good usability can be realized.

そこで、本実施形態の頭部装着型表示装置100は、使用者が初めて頭部装着型表示装置100を装着する際に、制御部140の制御によりキャリブレーションを行う。そして、頭部装着型表示装置100は、使用者の眼と光学素子との距離や、頭部装着型表示装置100を装着した際の光学素子の角度等を測定する。制御部140は、測定された使用者の設定情報を使用者情報テーブルに登録する。また、制御部140は、使用者情報テーブルには、使用者を特定可能な生体情報を、使用者の設定情報に対応付けて登録する。そして、使用者が頭部装着型表示装置100を実際に使用する際には、制御部140は、第1カメラ61の撮像画像から検出した生体情報に基づいて使用者を特定する。頭部装着型表示装置100は、特定した使用者の設定情報に応じて、画像表示部20が表示する画像の表示位置やサイズを調整する。   Therefore, the head-mounted display device 100 of the present embodiment performs calibration under the control of the control unit 140 when the user first wears the head-mounted display device 100. Then, the head-mounted display device 100 measures the distance between the user's eyes and the optical element, the angle of the optical element when the head-mounted display device 100 is mounted, and the like. The control unit 140 registers the measured setting information of the user in the user information table. The control unit 140 also registers biometric information that can identify the user in the user information table in association with the setting information of the user. Then, when the user actually uses the head-mounted display device 100, the control unit 140 identifies the user based on the biometric information detected from the image captured by the first camera 61. The head-mounted display device 100 adjusts the display position and size of the image displayed by the image display unit 20 according to the specified setting information of the user.

頭部装着型表示装置100が使用する生体情報としては、指紋、掌紋、掌線、網膜の血管パターン、顔の撮像画像、全身の撮像画像、声などが挙げられる。これらは頭部装着型表示装置100が備える入力部としての第1カメラ61、第2カメラ62、マイク63等で検出可能な情報である。掌線は、掌に表れる線状の皺(凹部)またはその組合せで構成される図形であり、いわゆる、手相の線をいう。また、使用者の手の絶対長、指の長さ、指の長さの比等を用いることも可能である。
本実施形態では、入力部として第1カメラ61を用い、画像として処理可能な生体情報を処理する例を示す。頭部装着型表示装置100は、指紋、掌紋、掌線、網膜の血管パターン、顔の撮像画像、全身の撮像画像等の生体情報そのものから、生体的な特徴である1つ又は複数の特徴情報を抽出し、抽出した特徴情報を使用する。例えば、生体情報が掌線である場合、特徴情報には、掌線の始点及び終点の位置座標、長さ比、曲率といった生体情報の特徴を表す複数の情報が含まれる。本実施形態では、手の絶対長、指の長さ比、掌線、及び、掌線を生体情報として利用する例を示す。
The biometric information used by the head-mounted display device 100 includes a fingerprint, a palm print, a palm line, a blood vessel pattern of the retina, a face image, a whole body image, a voice, and the like. These are information that can be detected by the first camera 61, the second camera 62, the microphone 63, and the like, which are input sections of the head-mounted display device 100. The palm line is a figure composed of linear wrinkles (recesses) appearing on the palm or a combination thereof, and is a so-called palm line. It is also possible to use the absolute length of the user's hand, the length of the finger, the ratio of the length of the finger, and the like.
In the present embodiment, an example is shown in which the first camera 61 is used as an input unit and biometric information that can be processed as an image is processed. The head-mounted display device 100 includes one or a plurality of biometric feature information based on biometric information itself such as a fingerprint, a palm print, a palm line, a blood vessel pattern of a retina, a captured image of a face, and a captured image of a whole body. Is extracted and the extracted characteristic information is used. For example, when the biometric information is a palm line, the feature information includes a plurality of pieces of information representing the features of the biometric information such as the position coordinates of the starting point and the ending point of the palm line, the length ratio, and the curvature. In the present embodiment, an example is shown in which the absolute length of the hand, the length ratio of the finger, the palm line, and the palm line are used as biometric information.

頭部装着型表示装置100が使用する生体情報は、記憶部120が記憶する使用者情報テーブルに登録される。
図5は、本実施形態で記憶部120が記憶する使用者情報テーブルの具体的な例を示す模式図である。図5(A)は、使用者情報テーブル120Aを示し、図5(B)は使用者情報テーブル120Aの情報を補完する掌線情報テーブル120Bを示す。使用者情報テーブル120Aに掌線情報テーブル120Bを加えたものが本実施形態の使用者情報テーブルに相当する。
The biometric information used by the head-mounted display device 100 is registered in the user information table stored in the storage unit 120.
FIG. 5 is a schematic diagram showing a specific example of the user information table stored in the storage unit 120 in this embodiment. FIG. 5A shows a user information table 120A, and FIG. 5B shows a palm line information table 120B that complements the information of the user information table 120A. The user information table 120A plus the palm line information table 120B corresponds to the user information table of this embodiment.

使用者情報テーブル120A及び掌線情報テーブル120Bは、生体情報として、手の絶対長情報と、指の長さ比情報と、掌の面の角度情報と、掌線情報と含む。これらの生体情報は、第1カメラ61の撮像した使用者の手の撮像画像に基づいて、制御部140が検出する。使用者情報テーブル120A及び掌線情報テーブル120Bに登録された生体情報を、特に、登録生体情報と呼ぶ。
手の絶対長情報には、使用者の手の長手方向の長さと、短手向の長さ(単位:cm)とが含まれる。手の長手方向の長さは、例えば、手首から中指までの長さであり、短手方向の長さは、例えば、掌の幅である。また、指の長さ比は、手の長手方向の長さを基準とした指の長さである。指の長さ比は、使用者の各指の長さ比を登録してもよいし、例えば、人差し指の長さ比だけを登録してもよい。
The user information table 120A and the palm line information table 120B include absolute length information of the hand, length ratio information of the finger, angle information of the surface of the palm, and palm line information as biometric information. The biometric information is detected by the control unit 140 based on the captured image of the user's hand captured by the first camera 61. The biometric information registered in the user information table 120A and the palm line information table 120B is particularly referred to as registered biometric information.
The absolute hand length information includes the length of the user's hand in the longitudinal direction and the length in the lateral direction (unit: cm). The length in the longitudinal direction of the hand is, for example, the length from the wrist to the middle finger, and the length in the lateral direction is, for example, the width of the palm. The finger length ratio is the length of the finger based on the length in the longitudinal direction of the hand. As the finger length ratio, the length ratio of each finger of the user may be registered, or only the length ratio of the index finger may be registered, for example.

掌の面の角度情報は、使用者が第1カメラ61に掌をかざした場合の掌の角度を示す情報である。この角度は、第1カメラ61の撮像面、或いは、導光板261,262や調光板20Aを基準とした角度である。例えば、撮像面に平行な場合を0度とした角度、導光板261、262のハーフミラー261A、262Aの画像光Lの光軸に対する角度、或いは、調光板20Aに平行な場合を0度とする角度である。掌の面の角度の測定は、例えば、第1カメラ61がステレオカメラである場合や、頭部装着型表示装置100が距離センサーを備えている場合に、第1カメラ61や距離センサーにより掌上の複数の測定点までの距離を測定することで実現できる。   The angle information of the palm surface is information indicating the angle of the palm when the user holds the palm over the first camera 61. This angle is an angle based on the image pickup surface of the first camera 61, or the light guide plates 261 and 262 and the light control plate 20A. For example, an angle of 0° when parallel to the image pickup surface, an angle of the half mirrors 261A and 262A of the light guide plates 261 and 262 with respect to the optical axis of the image light L, or 0° when parallel to the light control plate 20A is set. It is the angle to do. For example, when the first camera 61 is a stereo camera or when the head-mounted display device 100 includes a distance sensor, the angle of the palm surface is measured by the first camera 61 or the distance sensor. This can be achieved by measuring the distances to multiple measurement points.

掌線情報は、掌線の長さや掌線が構成する図形の形状に関する情報である。掌線情報は情報量が多いため、別のテーブルである掌線情報テーブル120Bに登録される。使用者情報テーブル120Aと掌線情報テーブル120Bとは、掌線情報IDにより紐付けられる。頭部装着型表示装置100は、第1カメラ61の撮像画像をもとに、使用者の掌の複数の掌線情報を得ることができる。図5(B)の掌線情報テーブル120Bでは、主な掌線に掌線IDが付され、各掌線の位置及び長さに関する情報が対応付けて格納され、この掌線を検出した使用者の使用者IDが対応付けて登録される。
掌線の始点及び終点座標は、原点を基準とした掌線の開始座標及び終了座標である。原点は、任意の位置に設定することができる。例えば、使用者の手を撮影した撮影画像の左上を原点としてもよいし、撮影画像から所定サイズで検出した使用者の手の領域の左上を原点としてもよい。また、掌線の長さ比は、手の長手方向の長さを基準にした掌線の長さであり、曲率は、例えば、1つの掌線の中で曲率が最大の値である。
登録生体情報として使用する生体情報は、図5(A)に挙げたものに限られず、眼間距離、瞳の色、顔の撮像画像等、簡易に計測可能な生体情報を簡易生体情報として使用者情報テーブル120Aに登録してもよい。
The palm line information is information about the length of the palm line and the shape of the figure formed by the palm line. Since the palm line information has a large amount of information, it is registered in the palm line information table 120B which is another table. The user information table 120A and the palm line information table 120B are linked by the palm line information ID. The head-mounted display device 100 can obtain a plurality of palm line information of the palm of the user based on the image captured by the first camera 61. In the palm line information table 120B of FIG. 5B, a palm line ID is attached to each main palm line, information regarding the position and length of each palm line is stored in association with each other, and the user who has detected this palm line User IDs of are registered in association with each other.
The starting and ending coordinates of the palm line are the starting and ending coordinates of the palm line with respect to the origin. The origin can be set at any position. For example, the upper left corner of the photographed image of the user's hand may be the origin, or the upper left corner of the region of the user's hand detected from the photographed image with a predetermined size may be the origin. Further, the length ratio of the palm line is the length of the palm line based on the length in the longitudinal direction of the hand, and the curvature is, for example, the maximum value of the curvature in one palm line.
The biometric information used as the registered biometric information is not limited to that shown in FIG. 5A, and biometric information that can be easily measured, such as the inter-eye distance, the color of the pupil, and the captured image of the face, is used as the simple biometric information. It may be registered in the person information table 120A.

使用者情報テーブル120Aの設定情報は、眼間距離と、輻輳角と、眼と光学素子との相対位置と、光学素子の角度と、利き眼と、色彩情報と、明るさと、使用言語と、表示位置調整情報とを含む。眼間距離は、使用者の両眼の内側、すなわち目頭間の距離であってもよいし、瞳孔の中心間の距離であってもよい。   The setting information of the user information table 120A includes an inter-eye distance, a convergence angle, a relative position between the eye and an optical element, an angle of the optical element, a dominant eye, color information, brightness, and a language used. And display position adjustment information. The inter-eye distance may be the distance between the inner eyes of the user, that is, the distance between the inner or inner corners of the eyes, or the distance between the centers of the pupils.

眼と光学素子との相対位置は、例えば、瞳孔の中心と、光学素子としてのハーフミラー261A,262Aの中心とのずれを表す値である。この値は、左右の平均値であってもよいし、左右の眼の中心の位置の値であってもよい。すなわち、使用者の右眼の瞳孔中心と右側のハーフミラー261Aの中心とのずれ、及び、使用者の左眼の瞳孔中心と左側のハーフミラー262Aの中心とのずれを、平均した値であってもよい。また、使用者の左右の眼の瞳孔の中央位置と、ハーフミラー261Aの中心とハーフミラー262Aの中心との中央位置と、について、ずれを求めた値であってもよい。   The relative position between the eye and the optical element is, for example, a value that represents the deviation between the center of the pupil and the center of the half mirrors 261A and 262A as the optical element. This value may be the average value of the left and right sides, or may be the value of the center position of the left and right eyes. That is, it is the average value of the deviation between the center of the pupil of the right eye of the user and the center of the right half mirror 261A, and the deviation of the center of the pupil of the left eye of the user and the center of the left half mirror 262A. May be. Further, it may be a value obtained by calculating a shift between the center positions of the pupils of the left and right eyes of the user and the center positions of the center of the half mirror 261A and the center of the half mirror 262A.

制御部140は、第2カメラ62の撮像画像に基づいて、瞳孔の中心と、ハーフミラー261A,262Aの中心とのずれを算出し、算出結果を使用者情報テーブルに登録する。この処理において、瞳孔の中心は、撮像画像における瞳孔の中心位置のX、Y座標値で表される。X座標は、撮像画像の水平方向を示し、Y座標は、撮像画像の垂直方向を示す。また、ハーフミラー261A,262Aの中心は、撮像画像におけるハーフミラー261A,262Aの中心位置のX、Y座標値で表される。制御部140は、例えば、瞳孔の中心位置を基準として、ハーフミラー261A,262Aの中心位置がX座標の方向、及びY座標の方向にどの程度ずれているのかを算出する。   The control unit 140 calculates the deviation between the center of the pupil and the centers of the half mirrors 261A and 262A based on the image captured by the second camera 62, and registers the calculation result in the user information table. In this process, the center of the pupil is represented by the X and Y coordinate values of the center position of the pupil in the captured image. The X coordinate indicates the horizontal direction of the captured image, and the Y coordinate indicates the vertical direction of the captured image. Further, the centers of the half mirrors 261A and 262A are represented by X and Y coordinate values of the center positions of the half mirrors 261A and 262A in the captured image. The control unit 140 calculates how much the center positions of the half mirrors 261A and 262A deviate in the X coordinate direction and the Y coordinate direction with reference to the pupil center position, for example.

また、光学素子の角度は、9軸センサー66の測定値に基づいて算出される。光学素子の角度は、画像表示部20を使用者の頭部に装着した際の、ハーフミラー262Aの回転角度(θr,θp,θy)により表される。なお、回転角度(θr,θp,θy)は、例えば、ハーフミラー262Aの中心を原点とし、その原点において互いに直交するロール軸、ピッチ軸、及びヨー軸を定義した場合、ハーフミラー262Aの光軸方向と、ロール軸との成す角度をロール角θrで表す。また、ハーフミラー262Aの光軸方向と、ピッチ軸との成す角度をピッチ角θp、ハーフミラー262Aの光軸方向と、ヨー軸との成す角度をヨー角θyで表す。   The angle of the optical element is calculated based on the measurement value of the 9-axis sensor 66. The angle of the optical element is represented by the rotation angle (θr, θp, θy) of the half mirror 262A when the image display unit 20 is mounted on the head of the user. The rotation angles (θr, θp, θy) are, for example, when the center of the half mirror 262A is the origin and the roll axis, the pitch axis, and the yaw axis that are orthogonal to each other at the origin are defined, the optical axis of the half mirror 262A. The angle formed by the direction and the roll axis is represented by the roll angle θr. Further, the angle formed by the optical axis direction of the half mirror 262A and the pitch axis is represented by the pitch angle θp, and the angle formed by the optical axis direction of the half mirror 262A and the yaw axis is represented by the yaw angle θy.

明るさは、画像表示部20の表示領域に表示される画像の明るさを示す情報である。色彩情報は、使用者が色覚に対して異常があるか否かを示す情報である。使用言語は、使用者が使用する、日本語、英語等の言語情報である。   The brightness is information indicating the brightness of the image displayed in the display area of the image display unit 20. The color information is information indicating whether the user has a color vision abnormality. The used language is language information such as Japanese and English used by the user.

インターフェイス125は、制御装置10に対して、コンテンツの供給元となる種々の外部機器OAを接続するためのインターフェイスである。インターフェイス125としては、例えば、USBインターフェイス、マイクロUSBインターフェイス、メモリーカード用インターフェイス等の有線接続に対応したインターフェイスを用いることができる。   The interface 125 is an interface for connecting the control device 10 to various external devices OA that are content supply sources. As the interface 125, for example, a USB interface, a micro USB interface, an interface for a memory card, or the like that supports wired connection can be used.

また、制御部140には、3軸センサー113、GPS115、通信部117及び音声認識部114が接続される。3軸センサー113は3軸の加速度センサーであり、3軸センサー113の検出値を制御部140が取得可能である。GPS115は、アンテナ(図示略)を備え、GPS(Global Positioning System)信号を受信し、制御装置10の現在位置を求める。GPS115は、GPS信号に基づいて求めた現在位置や現在時刻を制御部140に出力する。また、GPS115はGPS信号に含まれる情報に基づいて現在時刻を取得し、制御装置10の制御部140が計時する時刻を修正させる機能を備えていてもよい。   Further, the control unit 140 is connected with the triaxial sensor 113, the GPS 115, the communication unit 117, and the voice recognition unit 114. The triaxial sensor 113 is a triaxial acceleration sensor, and the control unit 140 can acquire the detection value of the triaxial sensor 113. The GPS 115 includes an antenna (not shown), receives a GPS (Global Positioning System) signal, and obtains the current position of the control device 10. The GPS 115 outputs the current position and current time obtained based on the GPS signal to the control unit 140. In addition, the GPS 115 may have a function of acquiring the current time based on the information included in the GPS signal and correcting the time measured by the control unit 140 of the control device 10.

通信部117は、無線LAN(WiFi(登録商標))、Miracast(登録商標)、Bluetooth(登録商標)等の規格に準じた無線データ通信を実行する。
外部機器OAが、通信部117に無線接続された場合には、制御部140は、コンテンツデータを通信部117より取得して、画像表示部20に画像を表示するための制御を行う。一方、外部機器OAが、インターフェイス125に有線接続された場合には、制御部140は、コンテンツデータをインターフェイス125より取得して、画像表示部20に画像を表示するための制御を行う。よって、通信部117及びインターフェイス125を、以下総称してデータ取得部DAと呼ぶ。
データ取得部DAは、外部機器OAからコンテンツデータを取得する。データ取得部DAは、頭部装着型表示装置100が表示する画像のデータ(以下、「表示画像データ」という)を、外部機器OAから取得する。
The communication unit 117 executes wireless data communication in accordance with standards such as wireless LAN (WiFi (registered trademark)), Miracast (registered trademark), and Bluetooth (registered trademark).
When the external device OA is wirelessly connected to the communication unit 117, the control unit 140 acquires content data from the communication unit 117 and performs control for displaying an image on the image display unit 20. On the other hand, when the external device OA is wire-connected to the interface 125, the control unit 140 acquires the content data from the interface 125 and performs control for displaying an image on the image display unit 20. Therefore, the communication unit 117 and the interface 125 are generically referred to as a data acquisition unit DA hereinafter.
The data acquisition unit DA acquires content data from the external device OA. The data acquisition unit DA acquires data of an image displayed by the head-mounted display device 100 (hereinafter, referred to as “display image data”) from the external device OA.

音声認識部114は、マイク63により集音され、後述する音声処理部187によりディジタルデータに変換されたディジタル音声データから特徴を抽出してモデル化する。音声認識部114は、音声の特徴を抽出してモデル化することで、複数の人の声を別々に認識して、声ごとに話している人を特定する話者認識や、音声をテキストに変換するテキスト変換を行う。また、音声認識部114は、音声認識の処理において、音声データの言語の種類を識別できる構成であってもよい。   The voice recognition unit 114 extracts a feature from the digital voice data collected by the microphone 63 and converted into digital data by the voice processing unit 187, which will be described later, and models it. The voice recognition unit 114 recognizes the voices of a plurality of persons separately by extracting the features of the voice and modeling them, and performs speaker recognition for identifying the person who is speaking for each voice, or converting the voice into a text. Perform text conversion. Further, the voice recognition unit 114 may be configured to be able to identify the language type of voice data in the voice recognition process.

制御部140は、記憶部120に格納されているコンピュータープログラムを読み出して実行することにより、オペレーティングシステム(OS)150、画像処理部160、表示制御部170、生体情報検出部181、設定情報検出部182として機能する。また、制御部140は、設定部183、対象検出部184、位置検出部185、情報表示制御部186、音声処理部187として機能する。   The control unit 140 reads out and executes the computer program stored in the storage unit 120 to thereby execute the operating system (OS) 150, the image processing unit 160, the display control unit 170, the biometric information detection unit 181, and the setting information detection unit. Function as 182. The control unit 140 also functions as the setting unit 183, the target detection unit 184, the position detection unit 185, the information display control unit 186, and the voice processing unit 187.

画像処理部160は、コンテンツに含まれる画像信号を取得する。画像処理部160は、取得した画像信号から、垂直同期信号VSyncや水平同期信号HSync等の同期信号を分離する。また、画像処理部160は、分離した垂直同期信号VSyncや水平同期信号HSyncの周期に応じて、PLL(Phase Locked Loop)回路等(図示略)を利用してクロック信号PCLKを生成する。画像処理部160は、同期信号が分離されたアナログ画像信号を、A/D変換回路等(図示略)を用いてディジタル画像信号に変換する。画像処理部160は、変換後のディジタル画像信号を、対象画像の画像データ(図中、Data)として、1フレームごとに記憶部120内のDRAMに格納する。この画像データは、例えばRGBデータである。
なお、画像処理部160は、必要に応じて、画像データに対して、解像度変換処理や、輝度、彩度の調整といった種々の色調補正処理、キーストーン補正処理等の画像処理を実行してもよい。
The image processing unit 160 acquires the image signal included in the content. The image processing unit 160 separates synchronization signals such as the vertical synchronization signal VSync and the horizontal synchronization signal HSync from the acquired image signal. The image processing unit 160 also generates a clock signal PCLK by using a PLL (Phase Locked Loop) circuit or the like (not shown) in accordance with the cycle of the separated vertical synchronization signal VSync or horizontal synchronization signal HSync. The image processing unit 160 converts the analog image signal from which the sync signal has been separated into a digital image signal using an A/D conversion circuit or the like (not shown). The image processing unit 160 stores the converted digital image signal in the DRAM in the storage unit 120 for each frame as image data (Data in the figure) of the target image. This image data is, for example, RGB data.
The image processing unit 160 may perform image processing such as resolution conversion processing, various color tone correction processing such as adjustment of brightness and saturation, and keystone correction processing on the image data as necessary. Good.

画像処理部160は、生成されたクロック信号PCLK、垂直同期信号VSync、水平同期信号HSync、記憶部120内のDRAMに格納された画像データDataのそれぞれを、送信部51、52を介して送信する。なお、送信部51を介して送信される画像データDataを「右眼用画像データ」とも呼び、送信部52を介して送信される画像データDataを「左眼用画像データ」とも呼ぶ。送信部51、52は、制御装置10と画像表示部20との間におけるシリアル伝送のためのトランシーバーとして機能する。   The image processing unit 160 transmits the generated clock signal PCLK, the vertical synchronization signal VSync, the horizontal synchronization signal HSync, and the image data Data stored in the DRAM in the storage unit 120 via the transmission units 51 and 52, respectively. .. The image data Data transmitted via the transmission unit 51 is also referred to as “right-eye image data”, and the image data Data transmitted via the transmission unit 52 is also referred to as “left-eye image data”. The transmission units 51 and 52 function as transceivers for serial transmission between the control device 10 and the image display unit 20.

表示制御部170は、右表示駆動部22及び左表示駆動部24を制御する制御信号を生成する。具体的には、表示制御部170は、制御信号により、右LCD制御部211による右LCD241の駆動ON/OFF、右バックライト制御部201による右バックライト221の駆動ON/OFFを個別に制御する。また、表示制御部170は、左LCD制御部212による左LCD242の駆動ON/OFF、左バックライト制御部202による左バックライト222の駆動ON/OFFを個別に制御する。これにより、表示制御部170は、右表示駆動部22及び左表示駆動部24のそれぞれによる画像光の生成及び射出を制御する。例えば、表示制御部170は、制御信号により右表示駆動部22及び左表示駆動部24を制御して、右表示駆動部22と左表示駆動部24との両方に画像光を生成させたり、一方のみに画像光を生成させたりする。また、表示制御部170は、制御信号により右表示駆動部22及び左表示駆動部24を制御して、右表示駆動部22及び左表示駆動部24の両方に画像光を生成させないようにすることもできる。
また、表示制御部170は、右LCD制御部211と左LCD制御部212とに対する制御信号のそれぞれを、送信部51及び52を介して送信する。また、表示制御部170は、右バックライト制御部201と左バックライト制御部202とに対する制御信号のそれぞれを送信する。
The display controller 170 generates a control signal for controlling the right display driver 22 and the left display driver 24. Specifically, the display control unit 170 individually controls the driving ON/OFF of the right LCD 241 by the right LCD control unit 211 and the driving ON/OFF of the right backlight 221 by the right backlight control unit 201 according to the control signal. .. Further, the display control unit 170 individually controls ON/OFF driving of the left LCD 242 by the left LCD control unit 212 and ON/OFF driving of the left backlight 222 by the left backlight control unit 202. Accordingly, the display control unit 170 controls the generation and emission of image light by the right display drive unit 22 and the left display drive unit 24, respectively. For example, the display control unit 170 controls the right display driving unit 22 and the left display driving unit 24 by a control signal to cause both the right display driving unit 22 and the left display driving unit 24 to generate image light, or Only generate image light. In addition, the display control unit 170 controls the right display driving unit 22 and the left display driving unit 24 by the control signal so that both the right display driving unit 22 and the left display driving unit 24 do not generate image light. You can also
Further, the display control unit 170 transmits the control signals to the right LCD control unit 211 and the left LCD control unit 212, respectively, via the transmission units 51 and 52. In addition, the display control unit 170 transmits respective control signals to the right backlight control unit 201 and the left backlight control unit 202.

入力部としての生体情報検出部181は、動作モードとして、情報登録モードと、使用者特定モードとを有している。情報登録モードは、使用者の生体情報や設定情報を検出して、検出した生体情報や設定情報を使用者情報テーブルに登録するモードである。使用者特定モードは、使用者の生体情報を検出し、検出した生体情報と一致する生体情報が使用者情報テーブルに登録されているか否かを判定するモードである。
生体情報検出部181は、情報登録モードでは、第1カメラ61の撮像画像から、使用者の生体情報を抽出する。設定情報検出部182は、情報登録モードでは、第2カメラ62の撮像画像や、9軸センサー66の測定値に基づいて、設定情報を算出する。なお、情報登録モードで使用者情報テーブルに登録された生体情報を登録生体情報と呼ぶ。
The biometric information detection unit 181 as an input unit has an information registration mode and a user identification mode as operation modes. The information registration mode is a mode in which biometric information or setting information of the user is detected and the detected biometric information or setting information is registered in the user information table. The user identification mode is a mode in which the biometric information of the user is detected and it is determined whether or not the biometric information that matches the detected biometric information is registered in the user information table.
In the information registration mode, the biometric information detection unit 181 extracts the biometric information of the user from the image captured by the first camera 61. In the information registration mode, the setting information detection unit 182 calculates the setting information based on the captured image of the second camera 62 and the measurement value of the 9-axis sensor 66. The biometric information registered in the user information table in the information registration mode is called registered biometric information.

図6は、情報登録モードにおける頭部装着型表示装置100の動作を示すフローチャートであり、特に、生体情報検出部181と、設定情報検出部182との処理手順を示す。また、図7は情報登録モードで頭部装着型表示装置100が表示する画像の例を示し、図7(A)はシルエット画像Sの例を示し、図7(B)はシルエット画像Sを用いた調整の例を示す。   FIG. 6 is a flowchart showing the operation of the head-mounted display device 100 in the information registration mode, and particularly shows the processing procedure of the biometric information detection unit 181 and the setting information detection unit 182. Further, FIG. 7 shows an example of an image displayed by the head-mounted display device 100 in the information registration mode, FIG. 7(A) shows an example of the silhouette image S, and FIG. 7(B) uses the silhouette image S. An example of the adjustment that was performed is shown below.

生体情報検出部181は、情報登録モードでは、手の形状の画像(以下、シルエット画像Sという)を表示制御部170に出力して、画像表示部20により表示させる(ステップS1)。図7(A)に、画像表示部20により表示されるシルエット画像Sを示す。使用者が見る視野VAと、画像表示部20が画像を表示する表示領域Tと、表示領域Tに表示されたシルエット画像Sとが画像表示部20により表示される。なお、画像表示部20の表示領域Tは、右光学像表示部26及び左光学像表示部28が表示する画像が使用者に見える範囲である。この表示領域Tは、画像表示部20が画像を視認させることができる最大の範囲であり、画像表示部20は表示領域Tの全部又は一部に画像を表示する。
使用者は、画像表示部20に表示されたシルエット画像Sを視認しながら、自身の手がシルエット画像に合致するように手の位置を調整する。図7(B)には、表示領域Tに表示されたシルエット画像Sに合致するように、使用者の手Rの位置調整を行う様子を示す。使用者は、手Rの位置を調整すると、もう一方の手で操作部111を操作して、手Rの画像の撮像を指示する。生体情報検出部181は、操作部111の操作が入力されると、第1カメラ61に、使用者の手Rの画像を撮像させる(ステップS2)。第1カメラ61の撮像画像は、生体情報検出部181に入力される。
In the information registration mode, the biometric information detection unit 181 outputs a hand-shaped image (hereinafter, referred to as a silhouette image S) to the display control unit 170 and causes the image display unit 20 to display the image (step S1). FIG. 7A shows the silhouette image S displayed by the image display unit 20. The image display unit 20 displays the visual field VA viewed by the user, the display region T in which the image display unit 20 displays an image, and the silhouette image S displayed in the display region T. The display area T of the image display unit 20 is a range in which the images displayed by the right optical image display unit 26 and the left optical image display unit 28 are visible to the user. The display area T is the maximum range in which the image display unit 20 can visually recognize the image, and the image display unit 20 displays the image in all or part of the display area T.
The user adjusts the position of the hand so that his or her hand matches the silhouette image while visually recognizing the silhouette image S displayed on the image display unit 20. FIG. 7B shows how the position of the user's hand R is adjusted so as to match the silhouette image S displayed in the display area T. After adjusting the position of the hand R, the user operates the operation unit 111 with the other hand to instruct to capture an image of the hand R. When the operation of the operation unit 111 is input, the biological information detection unit 181 causes the first camera 61 to capture an image of the hand R of the user (step S2). The captured image of the first camera 61 is input to the biological information detection unit 181.

生体情報検出部181は、入力された撮像画像を画像処理して、生体情報を抽出する(ステップS3)。生体情報検出部181は、まず、撮像画像をグレースケール化して、グレースケール後の撮像画像に対しエッジ検出を行う。生体情報検出部181は、検出したエッジの形状と、シルエット画像Sの輪郭形状とを対比して、使用者の手Rが写った領域(以下、手領域)を検出する。なお、ガイドとしてのシルエット画像Sを表示領域Tの所定の位置に表示しているため、第1カメラ61の撮像画像に写る手Rの位置は、ほぼ一定である。このため、生体情報検出部181は、撮像画像の全体に対してエッジ検出を行う必要はなく、事前に設定された領域に対してエッジ検出を行えばよい。
生体情報検出部181は、検出した使用者の手領域の撮像画像から、使用者の生体情報を抽出する(ステップS3)。生体情報検出部181は、手領域の撮像画像から、生体情報として、手の絶対長情報、指の長さ比情報と、掌線情報とをそれぞれ検出する。
The biometric information detection unit 181 performs image processing on the input captured image to extract biometric information (step S3). The biometric information detection unit 181 first converts the captured image into grayscale, and performs edge detection on the grayscaled captured image. The biological information detection unit 181 compares the detected edge shape with the contour shape of the silhouette image S to detect a region in which the user's hand R is shown (hereinafter, a hand region). Since the silhouette image S as a guide is displayed at a predetermined position in the display area T, the position of the hand R shown in the captured image of the first camera 61 is almost constant. Therefore, the biometric information detection unit 181 does not need to perform edge detection on the entire captured image, but may perform edge detection on a preset area.
The biometric information detection unit 181 extracts the biometric information of the user from the captured image of the detected hand region of the user (step S3). The biometric information detection unit 181 detects the absolute length information of the hand, the length ratio information of the finger, and the palm line information as biometric information from the captured image of the hand region.

生体情報検出部181は、生体情報を検出すると、使用者を識別する使用者IDを生成して、生成した使用者IDに対応付けて使用者情報テーブルに登録する。また、手の撮像画像からは、複数の掌線情報を検出することができるが、生体情報検出部181は、検出可能なすべての掌線の掌線情報を使用者情報テーブルに登録しなくてもよい。生体情報検出部181は、撮像画像から検出可能な掌線の中から掌線を選択し(間引いて)、使用者情報テーブルに登録する。なお、掌線情報に限らず、複数の生体情報が得られる場合には、間引きを行って、使用者情報テーブルに登録する登録数を削減するとよい。   When the biometric information detection unit 181 detects biometric information, the biometric information detection unit 181 generates a user ID for identifying the user, and registers the user ID in the user information table in association with the generated user ID. Further, although a plurality of palm line information can be detected from the captured image of the hand, the biometric information detection unit 181 does not have to register the palm line information of all detectable palm lines in the user information table. Good. The biometric information detection unit 181 selects (thinning out) the palm lines from the palm lines that can be detected from the captured image, and registers the palm lines in the user information table. It should be noted that not only the palm line information but also a plurality of pieces of biometric information can be obtained by thinning out the number of registrations registered in the user information table.

また、設定情報検出部182は、情報登録モードにおいて、使用者の設定情報を算出する(ステップS4)。設定情報検出部182は、第2カメラ62に撮像を実行させる。第2カメラ62によって、使用者の顔と、ハーフミラー262A(図2参照)とが撮像される。第2カメラ62の撮像画像は、設定情報検出部182に入力される。設定情報検出部182は、第2カメラ62の撮像画像に基づいて、設定情報を算出する(ステップS4)。設定情報検出部182は、設定情報として、使用者の眼間距離や、輻輳角、瞳孔と光学素子の相対位置を算出する。設定情報検出部182は、算出した設定情報を、該当する使用者の生体情報に対応づけて使用者情報テーブルに登録する(ステップS5)。   The setting information detection unit 182 also calculates the setting information of the user in the information registration mode (step S4). The setting information detection unit 182 causes the second camera 62 to perform imaging. The second camera 62 images the face of the user and the half mirror 262A (see FIG. 2). The captured image of the second camera 62 is input to the setting information detection unit 182. The setting information detection unit 182 calculates setting information based on the image captured by the second camera 62 (step S4). The setting information detection unit 182 calculates the distance between the eyes of the user, the vergence angle, and the relative position of the pupil and the optical element as the setting information. The setting information detection unit 182 registers the calculated setting information in the user information table in association with the biometric information of the corresponding user (step S5).

また、設定情報検出部182は、9軸センサー66の測定値に基づいて、使用者が頭部装着型表示装置100を装着した際の光学素子の角度を、設定情報として算出する(ステップS4)。光学素子の角度は、画像表示部20を使用者の頭部に装着した際の、ハーフミラー262Aの回転角度(θr,θp,θy)により表される。設定情報検出部182は、算出した設定情報を、該当する使用者の生体情報に対応づけて使用者情報テーブルに登録する(ステップS5)。   Further, the setting information detection unit 182 calculates the angle of the optical element when the user wears the head-mounted display device 100 based on the measurement value of the 9-axis sensor 66 as the setting information (step S4). .. The angle of the optical element is represented by the rotation angle (θr, θp, θy) of the half mirror 262A when the image display unit 20 is mounted on the head of the user. The setting information detection unit 182 registers the calculated setting information in the user information table in association with the biometric information of the corresponding user (step S5).

設定情報検出部182は、この他に、使用者が操作部111の操作により入力される、利き眼や、明るさ設定、色彩情報、使用言語等の設定情報を、該当する使用者の生体情報に対応づけて使用者情報テーブルに登録する。
例えば、画像表示部20が表示する画像の明るさを調整する場合、設定情報検出部182は、表示制御部170を制御して、明るさを調整するためのテスト画像を、画像表示部20により表示させる。使用者は、画像表示部20が表示する画像を視認しながら、操作部111の輝度切替キー15を操作して、テスト画像の明るさを増減させる操作を入力する。設定情報検出部182は、操作部111から入力された操作に従って表示制御部170を制御し、画像表示部20が表示するテスト画像の明るさを調整する。また、設定情報検出部182は、決定キー11の操作を受け付けると、画像表示部20が表示するテスト画像の明るさ、すなわち、右バックライト221及び左バックライト222の輝度情報を記憶部120に記憶させる。
また、設定情報検出部182は、表示制御部170を制御して、利き眼や、色彩情報、使用言語の入力を促す表示データを画像表示部20に表示させ、操作部111の操作を受け付ける。例えば、設定情報検出部182は、表示制御部170を制御して、画像表示部20に、「あなたの利き眼は右目ですか」、「使用言語は日本語ですか」といったメッセージを含むテキスト及び/または画像を表示させる。設定情報検出部182は、操作部111で受け付ける操作に基づいて使用者の利き眼や使用言語を判定し、対応する使用者IDの設定情報として使用者情報テーブルに登録する。
In addition to this, the setting information detection unit 182 also sets the setting information such as the dominant eye, brightness setting, color information, and language used, which is input by the user by operating the operation unit 111, to the biometric information of the corresponding user. Is registered in the user information table in association with.
For example, when adjusting the brightness of the image displayed by the image display unit 20, the setting information detection unit 182 controls the display control unit 170 to display a test image for adjusting the brightness on the image display unit 20. Display it. The user operates the brightness switching key 15 of the operation unit 111 while visually recognizing the image displayed by the image display unit 20, and inputs an operation of increasing or decreasing the brightness of the test image. The setting information detection unit 182 controls the display control unit 170 according to the operation input from the operation unit 111, and adjusts the brightness of the test image displayed by the image display unit 20. In addition, when the setting information detection unit 182 receives the operation of the enter key 11, the brightness of the test image displayed by the image display unit 20, that is, the brightness information of the right backlight 221 and the left backlight 222 is stored in the storage unit 120. Remember.
Further, the setting information detection unit 182 controls the display control unit 170 to display the display data for prompting the input of the dominant eye, the color information, and the language used on the image display unit 20, and accepts the operation of the operation unit 111. For example, the setting information detection unit 182 controls the display control unit 170 to cause the image display unit 20 to display a text including a message such as "Is your dominant eye your right eye?" / Or display the image. The setting information detection unit 182 determines the dominant eye of the user and the language used based on the operation received by the operation unit 111, and registers it in the user information table as the setting information of the corresponding user ID.

また、生体情報検出部181は、使用者特定モードでは、生体情報登録モードの場合と同一の手順により使用者の生体情報を検出し、検出した生体情報を設定部183に渡す。設定部183は、生体情報検出部181から渡された生体情報と、使用者情報テーブルに登録された登録生体情報とを比較して、生体情報検出部181が検出した生体情報に一致する登録生体情報が、使用者情報テーブルに登録されているか否かを判定する。   Further, the biometric information detection unit 181 detects the biometric information of the user in the user identification mode by the same procedure as in the biometric information registration mode, and passes the detected biometric information to the setting unit 183. The setting unit 183 compares the biometric information passed from the biometric information detection unit 181 with the registered biometric information registered in the user information table, and registers the biometric information that matches the biometric information detected by the biometric information detection unit 181. It is determined whether the information is registered in the user information table.

設定部183は、使用者特定モードである場合、生体情報検出部181から生体情報が入力される。
設定部183は、入力された生体情報(以下、入力生体情報という)と、使用者情報テーブルに登録された登録生体情報とを照合して、入力生体情報に一致する登録生体情報が使用者情報テーブルに登録されているか否かを判定する、照合処理を行う。
設定部183は、照合処理を行う際に、照合処理に使用する生体情報を間引く間引き処理を行う。設定部183は、入力生体情報と、登録生体情報との両方に対して、同一の間引き処理を行う。
When the setting unit 183 is in the user identification mode, biometric information is input from the biometric information detection unit 181.
The setting unit 183 collates the input biometric information (hereinafter, referred to as input biometric information) with the registered biometric information registered in the user information table, and the registered biometric information that matches the input biometric information is the user information. Collation processing is performed to determine whether or not it is registered in the table.
When performing the matching process, the setting unit 183 performs a thinning-out process of thinning out biometric information used in the matching process. The setting unit 183 performs the same thinning process on both the input biometric information and the registered biometric information.

例えば、図5(A)、(B)に示す使用者情報テーブル120A及び掌線情報テーブル120Bには、登録生体情報として手の絶対長と、指の長さ比と、掌面の角度と、掌線情報とが登録されている。設定部183は、これらの登録生体情報の中から、照合処理に使用する、1又は複数の生体情報を選択する。設定部183は、入力生体情報についても、登録生体情報から選択した生体情報と同一の生体情報を選択する。そして、設定部183は、選択した入力生体情報と、選択した登録生体情報との照合処理を行う。設定部183は、例えば、使用者情報テーブルに登録された登録生体情報の中から、掌線情報と、指の長さ比とを選択する。同様に、設定部183は、入力生体情報の中から、掌線情報と、指の長さ比とを選択する。設定部183は、選択した登録生体情報としての掌線情報と、選択した入力生体情報としての掌線情報とを比較して照合を行う。同様に、設定部183は、選択した登録生体情報としての指の長さ比と、選択した入力生体情報としての指の長さ比とを比較して照合を行う。   For example, in the user information table 120A and palm line information table 120B shown in FIGS. 5A and 5B, the absolute length of the hand, the length ratio of the finger, and the angle of the palm surface are registered biometric information. The palm line information is registered. The setting unit 183 selects one or more pieces of biometric information to be used for the matching process from these registered biometric information. The setting unit 183 also selects the same biometric information as the biometric information selected from the registered biometric information for the input biometric information. Then, the setting unit 183 performs matching processing between the selected input biometric information and the selected registered biometric information. The setting unit 183 selects, for example, the palm line information and the finger length ratio from the registered biometric information registered in the user information table. Similarly, the setting unit 183 selects the palm line information and the finger length ratio from the input biometric information. The setting unit 183 compares the palm line information as the selected registered biometric information with the palm line information as the selected input biometric information to perform matching. Similarly, the setting unit 183 performs comparison by comparing the finger length ratio as the selected registered biometric information with the finger length ratio as the selected input biometric information.

また、設定部183は、照合処理に使用する登録生体情報を選択するのではなく、照合処理に使用する特徴情報を間引くことで、照合処理の負荷を軽減してもよい。例えば、図4に示す使用者情報テーブルには、掌線情報として、同一の使用者の複数の掌線情報が登録される。設定部183は、使用者情報テーブルに登録された複数の掌線情報の中から、照合に使用する掌線情報を1又は複数選択する。設定部183は、入力生体情報の中から、選択した掌線情報の始点座標及び終点座標に座標が最も近い掌線情報を選択して、これらの掌線情報の照合を行う。
また、設定部183は、照合に使用する特徴情報の種類を間引くことで、照合処理の負荷を軽減してもよい。
例えば、図5(A)に示す使用者情報テーブルには、掌線情報として、始点座標及び終点座標と、長さ比と、曲率とが登録されている。設定部183は、使用者情報テーブルに登録された複数の掌線情報の中から、照合に使用する掌線情報の種類を1又は複数選択する。例えば、設定部183は、掌線情報の中から掌線の長さ比を照合に使用する特徴情報として選択する。設定部183は、入力生体情報の中から掌線情報を選択すると、選択した掌線情報の始点座標及び終点座標に座標が最も近い掌線情報を使用者情報テーブルから取り出す。設定部183は、取り出した掌線情報の長さ比と、入力生体情報から選択した掌線情報の長さ比とを比較して照合を行う。
The setting unit 183 may reduce the load of the matching process by thinning out the characteristic information used in the matching process instead of selecting the registered biometric information used in the matching process. For example, in the user information table shown in FIG. 4, a plurality of palm line information of the same user is registered as palm line information. The setting unit 183 selects one or more pieces of palm line information to be used for matching from the plurality of palm line information registered in the user information table. The setting unit 183 selects the palm line information whose coordinates are closest to the starting point coordinates and the ending point coordinates of the selected palm line information from the input biometric information, and collates these palm line information.
Further, the setting unit 183 may reduce the load of the matching process by thinning out the types of feature information used for matching.
For example, in the user information table shown in FIG. 5A, the starting point coordinates and the ending point coordinates, the length ratio, and the curvature are registered as palm line information. The setting unit 183 selects one or a plurality of types of palm line information used for collation from the plurality of palm line information registered in the user information table. For example, the setting unit 183 selects the length ratio of the palm line from the palm line information as the characteristic information used for the matching. When the palm line information is selected from the input biometric information, the setting unit 183 takes out the palm line information whose coordinates are closest to the starting point coordinates and the ending point coordinates of the selected palm line information from the user information table. The setting unit 183 compares the extracted length ratio of the palm line information with the length ratio of the palm line information selected from the input biometric information to perform matching.

なお、設定部183が行う間引き処理は、照合処理に使用する生体情報の間引きと、照合処理に使用する特徴情報の間引きと、照合処理に使用する特徴情報の種類の間引きとのいずれか1つを選択して行うものであってもよい。また、設定部183が行う間引き処理は、前述した複数の間引きを組み合わせて照合を行うものであってもよい。   Note that the thinning-out process performed by the setting unit 183 is one of thinning-out of biometric information used in the matching process, thinning-out of characteristic information used in the matching process, and thinning-out of the type of feature information used in the matching process. May be performed by selecting. Further, the thinning-out process performed by the setting unit 183 may be a process in which a plurality of thinning-outs described above are combined and collation is performed.

設定部183は、入力生体情報と登録生体情報との照合により、入力生体情報が使用者情報テーブルに登録された登録生体情報に一致すると判定すると、一致した生体情報に対応する設定情報を使用者情報テーブルから読み出す。設定部183は、設定情報に登録された明るさ設定を表示制御部170に出力する。表示制御部170は、設定部183から入力された明るさ設定に従って、右バックライト221及び左バックライト222の光量を、明るさ設定に対応する光量となるように調整する。   When the setting unit 183 determines that the input biometric information matches the registered biometric information registered in the user information table by matching the input biometric information with the registered biometric information, the setting information corresponding to the matched biometric information is set by the user. Read from the information table. The setting unit 183 outputs the brightness setting registered in the setting information to the display control unit 170. The display control unit 170 adjusts the light amounts of the right backlight 221 and the left backlight 222 according to the brightness setting input from the setting unit 183 so that the light amounts correspond to the brightness setting.

また、設定部183は、設定情報として登録された利き眼の情報を表示制御部170に渡す。表示制御部170は、例えば、画像表示部20により3次元(3D)画像を表示している場合に、操作部111が操作され、2次元画像への切り替えが指示された場合、利き眼情報の示す利き眼の側の画像を表示させる。例えば、設定情報に、使用者の利き眼として「左眼」が登録されていた場合、表示制御部170は、画像表示部20により、左眼用画像を表示させる。これにより、3次元画像の表示状態から、2次元画像に表示切り替えをするときに、表示モードの切り替わりに伴う違和感を低減することができる。   The setting unit 183 also passes the information on the dominant eye registered as the setting information to the display control unit 170. For example, when the operation unit 111 is operated and an instruction to switch to a two-dimensional image is given when the image display unit 20 is displaying a three-dimensional (3D) image, the display control unit 170 displays the dominant eye information. The image on the side of the dominant eye is displayed. For example, when “left eye” is registered as the dominant eye of the user in the setting information, the display control unit 170 causes the image display unit 20 to display the image for the left eye. Thereby, when switching the display state of the three-dimensional image to the two-dimensional image, it is possible to reduce a sense of discomfort associated with the switching of the display mode.

また、設定部183は、設定情報として登録された色彩情報と、使用言語とを情報表示制御部186に渡す。情報表示制御部186は、設定部183から渡された色彩情報や、使用言語に基づいて、表示データ(後述する)を加工したり、新たな表示データの追加を行う。   The setting unit 183 also passes the color information registered as the setting information and the language used to the information display control unit 186. The information display control unit 186 processes display data (described later) and adds new display data based on the color information passed from the setting unit 183 and the language used.

また、設定部183は、眼間距離と、輻輳角と、眼と光学素子の相対距離と、光学素子の角度との少なくとも1つに基づいて、画像表示部20の表示領域における表示位置/又は表示サイズを補正する補正係数を算出する。設定部183は、算出した補正係数を位置検出部185に渡す。   Further, the setting unit 183 displays the display position in the display area of the image display unit 20 based on at least one of the inter-eye distance, the vergence angle, the relative distance between the eye and the optical element, and the angle of the optical element, or A correction coefficient for correcting the display size is calculated. The setting unit 183 passes the calculated correction coefficient to the position detection unit 185.

また、設定情報検出部182が、頭部装着型表示装置100を装着した使用者から測定した設定情報に基づいて、使用者の属する区分を判定し、判定した区分を示す情報を使用者情報テーブルに登録しておくこともできる。記憶部120には、区分ごとに、各区分に分類される眼間距離の範囲、眼と光学素子の相対距離の範囲、輻輳角の範囲、光学素子の角度の範囲をそれぞれに設定した情報が記憶される。設定情報検出部182は、生体情報検出部181により、眼間距離と、輻輳角と、眼と光学素子の相対距離と、光学素子の角度とが測定されると、測定された各情報に基づいて、該当の使用者が属する区分を判定する。
また、記憶部120には、各区分に対応する補正係数が記憶される。また、設定部183は、入力生体情報に対応する登録生体情報から区分を示す情報を読み出すと、読み出した区分の情報に基づいて、記憶部120から区分に対応する補正係数を読み出す。設定部183は、読み出した補正係数を位置検出部185に出力する。これにより、画像の表示位置及び表示サイズの少なくともいずれかを、設定情報に対応して複数段階に変更することが可能になる。
Further, the setting information detection unit 182 determines the division to which the user belongs based on the setting information measured by the user wearing the head-mounted display device 100, and sets the information indicating the determined division to the user information table. You can also register at. The storage unit 120 stores, for each section, information in which the range of the interocular distance, the range of the relative distance between the eye and the optical element, the range of the angle of convergence, and the range of the angle of the optical element are set for each section. Remembered. When the biometric information detection unit 181 measures the interocular distance, the vergence angle, the relative distance between the eye and the optical element, and the angle of the optical element, the setting information detection unit 182 is based on each measured information. Then, the category to which the corresponding user belongs is determined.
Further, the storage unit 120 stores the correction coefficient corresponding to each section. Further, when the setting unit 183 reads out the information indicating the division from the registered biometric information corresponding to the input biometric information, the setting unit 183 reads out the correction coefficient corresponding to the division from the storage unit 120 based on the read information of the division. The setting unit 183 outputs the read correction coefficient to the position detection unit 185. As a result, at least one of the display position and the display size of the image can be changed in a plurality of steps corresponding to the setting information.

対象検出部184は、第1カメラ61に撮像を実行させる制御を行い、撮像画像を取得する。この撮像画像はカラー画像データ又はモノクロ画像データとして第1カメラ61から出力されるが、第1カメラ61が画像信号を出力して、対象検出部184が画像信号から所定のファイルフォーマットに適合する画像データを生成してもよい。
対象検出部184は、取得した撮像画像データを解析し、撮像画像データに写っている対象物を検出する。対象物とは、第1カメラ61の撮像方向すなわち使用者の視線方向に存在する物体又は人である。
The target detection unit 184 controls the first camera 61 to execute image capturing and acquires a captured image. This captured image is output from the first camera 61 as color image data or monochrome image data, but the first camera 61 outputs an image signal and the target detection unit 184 uses the image signal to conform to a predetermined file format. Data may be generated.
The target detection unit 184 analyzes the acquired captured image data and detects a target included in the captured image data. The target object is an object or a person existing in the image pickup direction of the first camera 61, that is, the line-of-sight direction of the user.

位置検出部185は、第1カメラ61の撮像画像における対象物の画像の位置をもとに、使用者に対象物が見える位置と、画像表示部20が表示する画像が見える位置との相対位置を求める。この処理には、画像表示部20の表示領域と第1カメラ61の撮像範囲(画角)との位置関係を示す情報が必要である。この情報に代えて、使用者の視野(視界)と第1カメラ61の撮像範囲(画角)との位置関係を示す情報、及び、使用者の視野(視界)と画像表示部20の表示領域との位置関係を示す情報を用いてもよい。これらの情報は、例えば記憶部120に予め記憶されている。
位置検出部185は、対象物の画像について、表示領域に対する位置を検出すると、この位置を、設定部183から渡された補正係数に基づいて補正する。
The position detection unit 185, based on the position of the image of the object in the image captured by the first camera 61, is a relative position between the position where the user sees the object and the position where the image displayed by the image display unit 20 is viewed. Ask for. This processing requires information indicating the positional relationship between the display area of the image display unit 20 and the imaging range (angle of view) of the first camera 61. Instead of this information, information indicating the positional relationship between the visual field (field of view) of the user and the imaging range (angle of view) of the first camera 61, and the visual field (field of view) of the user and the display area of the image display unit 20. You may use the information which shows the positional relationship with. These pieces of information are stored in advance in the storage unit 120, for example.
When the position detection unit 185 detects the position of the image of the target object with respect to the display area, the position detection unit 185 corrects this position based on the correction coefficient passed from the setting unit 183.

また、位置検出部185は、対象物の位置とともに、表示領域に対する対象物の表示サイズを検出してもよい。
位置検出部185は、対象物の画像について、表示領域に対する表示位置と表示サイズとを検出すると、検出した表示位置及び表示サイズを、設定部183から渡された補正係数に基づいて補正する。これにより、画像表示部20が表示する画像と、外景における対象物とが使用者に見える場合に、使用者が知覚する表示画像と対象物の像の大きさが所定の状態となるように、画像を表示できる。さらに、眼間距離や、眼と光学素子の相対距離、光学素子の角度等の使用者の身体的な特徴に応じて、使用者が知覚する表示画像と対象物の像の大きさが所定の状態となるように、画像を表示できる。
Further, the position detection unit 185 may detect the display size of the target object in the display area together with the position of the target object.
When the position detection unit 185 detects the display position and the display size with respect to the display area of the image of the object, the position detection unit 185 corrects the detected display position and display size based on the correction coefficient passed from the setting unit 183. Accordingly, when the image displayed by the image display unit 20 and the object in the outside scene are visible to the user, the sizes of the display image and the image of the object perceived by the user are in a predetermined state, Images can be displayed. Furthermore, the size of the display image and the image of the object perceived by the user is predetermined according to the physical characteristics of the user such as the inter-eye distance, the relative distance between the eye and the optical element, and the angle of the optical element. The image can be displayed so that it is in the state.

情報表示制御部186は、設定部183、対象検出部184及び位置検出部185の処理結果に基づき、画像表示部20によって、表示データを表示させる。頭部装着型表示装置100は、データ取得部DAにより、動画像、静止画像、文字、記号等様々なデータを取得する構成としてもよく、これらのデータを表示データとして利用できる。
情報表示制御部186は、対象検出部184が検出した対象物について、位置検出部185が補正係数に基づいて補正した表示位置及び/又は表示サイズ等に基づき、表示データの表示位置や、表示サイズを決定する。また、情報表示制御部186は、例えば表示データがテキストデータである場合、文字の表示位置や表示サイズに加え、表示色、字体、太字やイタリック等の文字装飾の有無等を設定する。また、情報表示制御部186は、例えば表示データが画像データである場合、画像の表示位置や表示サイズに加え、表示色、透明度等を設定する。
The information display control unit 186 causes the image display unit 20 to display the display data based on the processing results of the setting unit 183, the target detection unit 184, and the position detection unit 185. The head-mounted display device 100 may be configured to acquire various data such as moving images, still images, characters, and symbols by the data acquisition unit DA, and these data can be used as display data.
The information display control unit 186, based on the display position and/or the display size corrected by the position detection unit 185 based on the correction coefficient for the object detected by the target detection unit 184, the display position of the display data and the display size. To decide. Further, for example, when the display data is text data, the information display control unit 186 sets the display position and the display size of the character, as well as the display color, the font, the presence or absence of character decoration such as bold and italic, and the like. In addition, when the display data is image data, the information display control unit 186 sets the display color, the transparency, and the like in addition to the display position and the display size of the image.

情報表示制御部186は、設定部183から入力される色彩情報や使用言語に基づいて表示データを加工する。例えば、入力された色彩情報が、使用者が緑色に対して異常があることを示す色彩情報である場合、情報表示制御部186は、緑色の表示データを他の表示色に変換する。情報表示制御部186は、変換した表示データを表示制御部170に出力して、画像表示部20により表示させる。
また、入力された使用言語として、英語が設定されていた場合、情報表示制御部186は、表示データとしてのテキストデータを英語に翻訳し、翻訳した英語のテキストデータを表示データとして表示制御部170に出力する。表示データは、画像表示部20により、表示される。
The information display control unit 186 processes the display data based on the color information and the used language input from the setting unit 183. For example, when the input color information is color information indicating that the user has an abnormality with respect to green, the information display control unit 186 converts the green display data into another display color. The information display control unit 186 outputs the converted display data to the display control unit 170 and causes the image display unit 20 to display the display data.
Further, when English is set as the input used language, the information display control unit 186 translates the text data as display data into English, and the translated English text data is displayed as display data in the display control unit 170. Output to. The display data is displayed by the image display unit 20.

音声処理部187は、コンテンツに含まれる音声信号を取得し、取得した音声信号を増幅して、連結部材46に接続された右イヤホン32内のスピーカー(図示略)および左イヤホン34内のスピーカー(図示略)に対して供給する。なお、例えば、Dolby(登録商標)システムを採用した場合、音声信号に対する処理がなされ、右イヤホン32および左イヤホン34のそれぞれから、例えば周波数等が変えられた異なる音が出力される。   The audio processing unit 187 acquires an audio signal included in the content, amplifies the acquired audio signal, and a speaker (not shown) in the right earphone 32 and a speaker (not shown) in the left earphone 34 connected to the connecting member 46. (Not shown). Note that, for example, when the Dolby (registered trademark) system is adopted, the audio signal is processed, and the right earphone 32 and the left earphone 34 output different sounds, for example, with different frequencies.

また、音声処理部187は、マイク63により集音される音声を取得してディジタル音声データに変換し、音声に係る処理を行う。例えば、音声処理部187は、取得した音声から特徴を抽出してモデル化することで、複数の人の声を別々に認識して、声ごとに話している人を特定する話者認識を行ってもよい。   Further, the voice processing unit 187 acquires the voice collected by the microphone 63, converts it into digital voice data, and performs a process relating to the voice. For example, the voice processing unit 187 recognizes the voices of a plurality of persons separately by extracting features from the obtained voices and modeling them, and performs speaker recognition to identify the person speaking for each voice. May be.

音声処理部187は、コンテンツに含まれる音声信号を取得し、取得した音声信号を増幅して、連結部材46に接続された右イヤホン32内のスピーカー(図示略)及び左イヤホン34内のスピーカー(図示略)に対して供給する。なお、例えば、Dolby(登録商標)システムを採用した場合、音声信号に対する処理がなされ、右イヤホン32及び左イヤホン34のそれぞれから、例えば周波数等が変えられた異なる音が出力される。   The audio processing unit 187 acquires an audio signal included in the content, amplifies the acquired audio signal, and a speaker (not shown) in the right earphone 32 and a speaker (not shown) in the left earphone 34 connected to the connecting member 46. (Not shown). Note that, for example, when the Dolby (registered trademark) system is adopted, the processing for the audio signal is performed, and the right earphone 32 and the left earphone 34 output different sounds, for example, with different frequencies.

画像表示部20は、インターフェイス25と、右表示駆動部22と、左表示駆動部24と、右光学像表示部26としての右導光板261と、左光学像表示部28としての左導光板262とを備える。また、画像表示部20は、第1カメラ61と、第2カメラ62と、振動センサー65と、9軸センサー66とを備える。   The image display unit 20 includes an interface 25, a right display drive unit 22, a left display drive unit 24, a right light guide plate 261 as a right optical image display unit 26, and a left light guide plate 262 as a left optical image display unit 28. With. The image display unit 20 also includes a first camera 61, a second camera 62, a vibration sensor 65, and a 9-axis sensor 66.

振動センサー65は、加速度センサーを利用して構成され、図1に示すように画像表示部20の内部に配置される。図1の例では右保持部21において、右光学像表示部26の端部ERの近傍に内蔵される。振動センサー65は、使用者が端部ERを叩く操作(ノック操作)を行った場合に、この操作による振動を検出して、検出結果を制御部140に出力する。この振動センサー65の検出結果により、制御部140は、使用者によるノック操作を検出する。   The vibration sensor 65 is configured using an acceleration sensor and is arranged inside the image display unit 20 as shown in FIG. In the example of FIG. 1, the right holding unit 21 is built in near the end ER of the right optical image display unit 26. When the user hits the end ER (knock operation), the vibration sensor 65 detects the vibration caused by this operation and outputs the detection result to the control unit 140. Based on the detection result of the vibration sensor 65, the control unit 140 detects the knocking operation by the user.

9軸センサー66は、加速度(3軸)、角速度(3軸)、地磁気(3軸)を検出するモーションセンサーである。9軸センサー66は、画像表示部20に設けられているため、画像表示部20が使用者の頭部に装着されているとき、制御部140は、9軸センサー66の検出値に基づいて使用者の頭部の動きを検出できる。検出された使用者の頭部の動きから画像表示部20の向きがわかるため、制御部140は、使用者の視線方向を推定できる。   The 9-axis sensor 66 is a motion sensor that detects acceleration (3 axes), angular velocity (3 axes), and geomagnetism (3 axes). Since the 9-axis sensor 66 is provided in the image display unit 20, when the image display unit 20 is attached to the head of the user, the control unit 140 uses the 9-axis sensor 66 based on the detection value of the 9-axis sensor 66. The movement of the person's head can be detected. Since the orientation of the image display unit 20 can be known from the detected movement of the head of the user, the control unit 140 can estimate the line-of-sight direction of the user.

インターフェイス25は、右コード42と左コード44とが接続されるコネクターを備える。インターフェイス25は、送信部51から送信されるクロック信号PCLK、垂直同期信号VSync、水平同期信号HSync、画像データDataを、対応する受信部(Rx)53、54に出力する。また、インターフェイス25は、表示制御部170から送信される制御信号を、対応する受信部53、54、右バックライト制御部201又は左バックライト制御部202に出力する。
また、インターフェイス25は、第1カメラ61、第2カメラ62、振動センサー65及び9軸センサー66のインターフェイスである。振動センサー65による振動の検出結果や、9軸センサー66による加速度(3軸)、角速度(3軸)、地磁気(3軸)の検出結果は、インターフェイス25を介して制御装置10の制御部140に送られる。
The interface 25 includes a connector to which the right cord 42 and the left cord 44 are connected. The interface 25 outputs the clock signal PCLK, the vertical synchronization signal VSync, the horizontal synchronization signal HSync, and the image data Data transmitted from the transmission unit 51 to the corresponding reception units (Rx) 53 and 54. In addition, the interface 25 outputs the control signal transmitted from the display control unit 170 to the corresponding receiving unit 53, 54, the right backlight control unit 201, or the left backlight control unit 202.
The interface 25 is an interface of the first camera 61, the second camera 62, the vibration sensor 65, and the 9-axis sensor 66. The detection result of vibration by the vibration sensor 65 and the detection result of acceleration (3 axes), angular velocity (3 axes), and geomagnetism (3 axes) by the 9-axis sensor 66 are sent to the control unit 140 of the control device 10 via the interface 25. Sent.

右表示駆動部22は、受信部53と、光源として機能する右バックライト(BL)制御部201及び右バックライト(BL)221と、表示素子として機能する右LCD制御部211及び右LCD241と、右投写光学系251とを備える。右バックライト制御部201と右バックライト221とは、光源として機能する。右LCD制御部211と右LCD241とは、表示素子として機能する。なお、右バックライト制御部201と、右LCD制御部211と、右バックライト221と、右LCD241とを総称して「画像光生成部」とも呼ぶ。   The right display drive unit 22 includes a reception unit 53, a right backlight (BL) control unit 201 and a right backlight (BL) 221, which function as a light source, a right LCD control unit 211 and a right LCD 241, which function as display elements, And a right projection optical system 251. The right backlight control unit 201 and the right backlight 221 function as a light source. The right LCD control unit 211 and the right LCD 241 function as a display element. The right backlight control unit 201, the right LCD control unit 211, the right backlight 221, and the right LCD 241 are collectively referred to as an “image light generation unit”.

受信部53は、制御装置10と画像表示部20との間におけるシリアル伝送のためのレシーバーとして機能する。右バックライト制御部201は、入力された制御信号に基づいて、右バックライト221を駆動する。右バックライト221は、例えば、LEDやエレクトロルミネセンス(EL)等の発光体である。右LCD制御部211は、受信部53を介して入力されたクロック信号PCLKと、垂直同期信号VSyncと、水平同期信号HSyncと、右眼用画像データDataと、に基づいて、右LCD241を駆動する。右LCD241は、複数の画素をマトリクス状に配置した透過型液晶パネルである。   The reception unit 53 functions as a receiver for serial transmission between the control device 10 and the image display unit 20. The right backlight control unit 201 drives the right backlight 221 based on the input control signal. The right backlight 221 is, for example, a light emitting body such as an LED or electroluminescence (EL). The right LCD control unit 211 drives the right LCD 241 based on the clock signal PCLK, the vertical synchronization signal VSync, the horizontal synchronization signal HSync, and the right-eye image data Data that are input via the reception unit 53. .. The right LCD 241 is a transmissive liquid crystal panel in which a plurality of pixels are arranged in a matrix.

右投写光学系251は、右LCD241から射出された画像光を並行状態の光束にするコリメートレンズによって構成される。右光学像表示部26としての右導光板261は、右投写光学系251から出力された画像光を、所定の光路に沿って反射させつつ使用者の右眼REに導く。   The right projection optical system 251 is configured by a collimator lens that converts the image light emitted from the right LCD 241 into parallel light fluxes. The right light guide plate 261 as the right optical image display unit 26 guides the image light output from the right projection optical system 251 to the right eye RE of the user while reflecting the image light along a predetermined optical path.

左表示駆動部24は、右表示駆動部22と同様の構成を有している。左表示駆動部24は、受信部54と、光源として機能する左バックライト(BL)制御部202及び左バックライト(BL)222と、表示素子として機能する左LCD制御部212及び左LCD242と、左投写光学系252と、を備える。左バックライト制御部202と左バックライト222とは、光源として機能する。左LCD制御部212と左LCD242とは、表示素子として機能する。また、左投写光学系252は、左LCD242から射出された画像光を並行状態の光束にするコリメートレンズによって構成される。左光学像表示部28としての左導光板262は、左投写光学系252から出力された画像光を、所定の光路に沿って反射させつつ使用者の左眼LEに導く。   The left display drive unit 24 has the same configuration as the right display drive unit 22. The left display drive unit 24 includes a reception unit 54, a left backlight (BL) control unit 202 and a left backlight (BL) 222 that function as light sources, a left LCD control unit 212 and a left LCD 242 that function as display elements, and And a left projection optical system 252. The left backlight control unit 202 and the left backlight 222 function as a light source. The left LCD control unit 212 and the left LCD 242 function as a display element. Further, the left projection optical system 252 is configured by a collimator lens that converts the image light emitted from the left LCD 242 into a parallel light flux. The left light guide plate 262 as the left optical image display unit 28 guides the image light output from the left projection optical system 252 to the left eye LE of the user while reflecting the image light along a predetermined optical path.

図8は、使用者情報を登録する場合の頭部装着型表示装置100の動作を示すフローチャートである。
図8のステップS11の処理は、図6のフローチャートで説明したステップS1の処理に相当し、ステップS12はステップS1(図6)に相当し、ステップS13はステップS3(図6)に相当する。
FIG. 8 is a flowchart showing the operation of the head-mounted display device 100 when registering user information.
The process of step S11 of FIG. 8 corresponds to the process of step S1 described in the flowchart of FIG. 6, step S12 corresponds to step S1 (FIG. 6), and step S13 corresponds to step S3 (FIG. 6).

すなわち、生体情報検出部181は、情報登録モードでシルエット画像Sを表示制御部170に出力して、画像表示部20により表示させる(ステップS11)。使用者は、シルエット画像Sを視認しながら手の位置を調整して操作部111を操作し、手Rの画像の撮像を指示する。生体情報検出部181は、操作部111の操作が入力されると、第1カメラ61に、使用者の手Rの画像を撮像させる(ステップS12)。第1カメラ61の撮像画像は、生体情報検出部181に入力され、生体情報検出部181は、撮像画像を画像処理して、生体情報を抽出する(ステップS13)。   That is, the biometric information detection unit 181 outputs the silhouette image S to the display control unit 170 in the information registration mode and causes the image display unit 20 to display the silhouette image S (step S11). The user adjusts the position of the hand while observing the silhouette image S and operates the operation unit 111 to instruct to capture an image of the hand R. When the operation of the operation unit 111 is input, the biological information detection unit 181 causes the first camera 61 to capture an image of the hand R of the user (step S12). The captured image of the first camera 61 is input to the biometric information detection unit 181, and the biometric information detection unit 181 performs image processing on the captured image to extract biometric information (step S13).

使用者特定モードにおいて、設定部183には、生体情報検出部181から生体情報が入力される。
設定部183は、生体情報検出部181から入力生体情報が入力されると、照合処理に使用する生体情報を選択する(ステップS14)。なお、この処理フローでは、設定部183は、掌線情報を使用して照合処理を行うとする。設定部183は、入力生体情報に含まれる複数の掌線情報の中から、照合に使用する1又は複数の掌線情報を選択する。これにより、照合に使用する掌線情報が間引きされる。設定部183は、入力生体情報から掌線情報を選択すると、選択した掌線情報の始点座標及び終点座標に最も座標が近い掌線情報を使用者情報テーブルから読み出して、照合処理を行う(ステップS15)。設定部183は、使用者情報テーブルから取り出した掌線情報の長さ比及び/又は曲率と、入力生体情報から選択した掌線情報の長さ比及び/又は曲率との照合を行う。設定部183は、選択したすべての掌線情報について照合処理を行う(ステップS16)。照合処理により長さ比及び/又は曲率の一致度がしきい値よりも低い、すなわち、一致しないと判定されると(ステップS16/NO)、設定部183は、画像表示部20が表示するシルエット画像Sに、ガイド表示を追加表示させる(ステップS17)。設定部183は、照合処理において、一致度が高いと判定された掌線情報の掌線を、追加ガイド表示としてシルエット画像Sに追加させる(図9参照)。
In the user identification mode, biometric information is input to the setting unit 183 from the biometric information detection unit 181.
When the input biometric information is input from the biometric information detection unit 181, the setting unit 183 selects the biometric information used for the matching process (step S14). In addition, in this processing flow, the setting unit 183 performs the matching process using the palm line information. The setting unit 183 selects one or a plurality of pieces of palm line information to be used for matching from a plurality of pieces of palm line information included in the input biometric information. As a result, the palm line information used for matching is thinned out. When the palm line information is selected from the input biometric information, the setting unit 183 reads out the palm line information whose coordinates are closest to the starting point coordinates and the ending point coordinates of the selected palm line information from the user information table and performs the matching process (step). S15). The setting unit 183 collates the length ratio and/or the curvature of the palm line information extracted from the user information table with the length ratio and/or the curvature of the palm line information selected from the input biometric information. The setting unit 183 performs collation processing on all the selected palm line information (step S16). When the matching ratio of the length ratio and/or the curvature is lower than the threshold value by the matching process, that is, it is determined that they do not match (step S16/NO), the setting unit 183 causes the silhouette displayed by the image display unit 20 to be displayed. A guide display is additionally displayed on the image S (step S17). The setting unit 183 adds the palm line of the palm line information determined to have a high degree of matching in the matching process to the silhouette image S as an additional guide display (see FIG. 9 ).

図9は、掌線を追加ガイド表示としてシルエット画像Sに追加した例を示す。この例では、表示領域Tに表示されるシルエット画像Sに、追加ガイドとして曲線が追加されて表示される。この追加ガイドにより、使用者の手Rをシルエット画像Sに重ねる操作が、より容易になる。例えば、第1カメラ61と手との距離や角度によっては、照合処理の一致度が低くなる場合がある。このため、設定部183が、シルエット画像Sに掌線のガイド表示を表示させることで、認証処理の照合精度を高めることができる。なお、追加ガイドは掌線に相当する曲線に限らず、直線であってもよいし、文字や他の図形を含んでもよい。シルエット画像Sに手を重ねる操作において、手の位置を案内する情報を含んでいればよい。   FIG. 9 shows an example in which a palm line is added to the silhouette image S as an additional guide display. In this example, a curved line is added to the silhouette image S displayed in the display area T as an additional guide for display. This additional guide makes it easier to overlap the user's hand R on the silhouette image S. For example, the matching degree of the matching process may be low depending on the distance or angle between the first camera 61 and the hand. Therefore, by causing the setting unit 183 to display the guide display of the palm line on the silhouette image S, it is possible to improve the matching accuracy of the authentication process. The additional guide is not limited to the curve corresponding to the palm line, and may be a straight line or may include characters and other figures. In the operation of overlapping the hand on the silhouette image S, the information for guiding the position of the hand may be included.

また、照合処理により、長さ比及び/又は曲率の一致度がしきい値よりも高いと判定されると(ステップS16/YES)、設定部183は、設定情報を使用者情報テーブルから読み出す(ステップS18)。この設定情報は、入力生体情報に一致度が高いと判定された登録生体情報に対応付けられた設定情報である。設定部183は、読み出した設定情報に基づいて、表示データの表示位置又はサイズを補正する補正係数を算出する。設定部183は、眼間距離と、輻輳角と、眼と光学素子の相対距離と、光学素子の角度との少なくとも1つに基づいて、表示データの表示位置又はサイズを補正する補正係数を算出する。設定部183は、補正係数を算出すると、算出した補正係数を位置検出部185に出力する。
位置検出部185は、対象検出部184が撮像画像から検出した対象物の画像について、表示領域に対する位置とサイズとを検出する。位置検出部185は、表示領域に対する位置とサイズとを検出すると、検出した位置及びサイズを、設定部183から渡された補正係数に基づいて補正する(ステップS19)。情報表示制御部186は、対象検出部184が検出した対象物について、位置検出部185が補正係数に基づいて補正した位置及び/又はサイズ等に基づき、表示データの表示位置を決定する。その後、情報表示制御部186は、表示データを表示制御部170に出力し、画像表示部20により表示を実行させる。
When the matching process determines that the matching ratio of the length ratio and/or the curvature is higher than the threshold value (step S16/YES), the setting unit 183 reads the setting information from the user information table ( Step S18). This setting information is the setting information associated with the registered biometric information determined to have a high degree of coincidence with the input biometric information. The setting unit 183 calculates a correction coefficient for correcting the display position or size of the display data based on the read setting information. The setting unit 183 calculates a correction coefficient that corrects the display position or size of the display data based on at least one of the inter-eye distance, the vergence angle, the relative distance between the eye and the optical element, and the angle of the optical element. To do. After calculating the correction coefficient, the setting unit 183 outputs the calculated correction coefficient to the position detection unit 185.
The position detection unit 185 detects the position and size with respect to the display area of the image of the object detected by the object detection unit 184 from the captured image. When the position detection unit 185 detects the position and size with respect to the display area, the position detection unit 185 corrects the detected position and size based on the correction coefficient passed from the setting unit 183 (step S19). The information display control unit 186 determines the display position of the display data for the object detected by the object detection unit 184, based on the position and/or size corrected by the position detection unit 185 based on the correction coefficient. After that, the information display control unit 186 outputs the display data to the display control unit 170 and causes the image display unit 20 to perform display.

続いて、通信システム1において、使用者情報テーブル120A及び掌線情報テーブル120Bの内容を送受信する動作について説明する。
第1の通信態様として、頭部装着型表示装置100A、及び、頭部装着型表示装置100Bが、それぞれ、データをサーバー5に送信する態様が挙げられる。頭部装着型表示装置100Aは、記憶部120に記憶する使用者情報テーブル120A、及び、掌線情報テーブル120Bを、サーバー5に送信する。また、頭部装着型表示装置100Bは、記憶部120に記憶する使用者情報テーブル120A、及び、掌線情報テーブル120Bを、サーバー5に送信する。
サーバー5は、頭部装着型表示装置100A、100Bのそれぞれから送信される使用者情報テーブル120A、及び、掌線情報テーブル120Bのデータを記憶する。ここで、サーバー5は、頭部装着型表示装置100A、100Bのそれぞれから送信されるテーブルを集約して、表示システム2の使用者情報テーブルを構成できる。
Next, the operation of transmitting and receiving the contents of the user information table 120A and the palm line information table 120B in the communication system 1 will be described.
As the first communication mode, there is a mode in which the head-mounted display device 100A and the head-mounted display device 100B respectively transmit data to the server 5. The head-mounted display device 100A transmits the user information table 120A and the palm line information table 120B stored in the storage unit 120 to the server 5. Further, the head-mounted display device 100B transmits the user information table 120A and the palm line information table 120B stored in the storage unit 120 to the server 5.
The server 5 stores the data of the user information table 120A and the palm line information table 120B transmitted from the head-mounted display devices 100A and 100B, respectively. Here, the server 5 can form a user information table of the display system 2 by aggregating the tables transmitted from the head-mounted display devices 100A and 100B.

図10は、サーバー5が生成し記憶する使用者情報テーブルの構成例を示す模式図であり、図10(A)は使用者情報テーブル5Aを示し、図10(B)は掌線情報テーブル5Bを示し、図10(C)はデバイス情報テーブル5Cを示す。
使用者情報テーブル5Aは、頭部装着型表示装置100A、100Bから受信した記憶部120のデータを集約したテーブルである。また、掌線情報テーブル5Bは、頭部装着型表示装置100A、100Bから受信した掌線情報テーブル120Bを集約したテーブルである。
10A and 10B are schematic diagrams showing a configuration example of a user information table generated and stored by the server 5, FIG. 10A shows the user information table 5A, and FIG. 10B shows a palm line information table 5B. 10C shows the device information table 5C.
The user information table 5A is a table in which the data of the storage unit 120 received from the head-mounted display devices 100A and 100B are collected. The palm line information table 5B is a table in which the palm line information tables 120B received from the head-mounted display devices 100A and 100B are integrated.

使用者情報テーブル5Aでは、図5に示した使用者情報テーブル120Aのデータに、デバイスIDが対応付けられている。使用者情報テーブル5AにおいてデバイスIDが「1」に設定されたデータは、デバイスID「1」が付与された頭部装着型表示装置100がサーバー5に送信したデータである。また、デバイスIDが「2」に設定されたデータは、デバイスID「2」が付与された頭部装着型表示装置100がサーバー5に送信したデータである。また、掌線情報テーブル5Bでは、デバイスIDに対応付けて、掌線情報テーブル120Bのデータが含まれる。
図10(A)、(B)の例では、使用者IDが「1」となっているデータ(レコード)が2つある。これは、一人の使用者が2つの頭部装着型表示装置100A、100Bのそれぞれで生体情報を登録したことを示す。
In the user information table 5A, the device ID is associated with the data of the user information table 120A shown in FIG. The data in which the device ID is set to “1” in the user information table 5A is the data transmitted to the server 5 by the head-mounted display device 100 assigned with the device ID “1”. Further, the data in which the device ID is set to “2” is the data transmitted to the server 5 by the head-mounted display device 100 to which the device ID “2” is assigned. Further, the palm line information table 5B includes the data of the palm line information table 120B in association with the device ID.
In the examples of FIGS. 10A and 10B, there are two pieces of data (records) whose user ID is “1”. This indicates that one user has registered the biometric information on each of the two head-mounted display devices 100A and 100B.

このように、サーバー5は、複数の頭部装着型表示装置100から使用者情報テーブル120A、掌線情報テーブル120Bを受信し、受信したデータを集約して記憶する。これにより、通信システム1を構成する頭部装着型表示装置100で登録された生体情報及び設定情報を、全ての頭部装着型表示装置100で共有できる。例えば、サーバー5が、使用者情報テーブル5A及び掌線情報テーブル5Bを、複数の頭部装着型表示装置100に送信することで、頭部装着型表示装置100Aで登録した生体情報及び設定情報を、頭部装着型表示装置100Bで使用できる。つまり、使用者は、いずれか1つの頭部装着型表示装置100で登録を行えば、自分の設定情報に基づき、登録した設定を、他の頭部装着型表示装置100で実現できる。従って、複数の使用者が1つの頭部装着型表示装置100を使用する場合、及び、一人の使用者が複数の頭部装着型表示装置100を使用する場合のいずれも、生体情報に基づいて、予め設定され使用者に適した設定を実現できる。   In this way, the server 5 receives the user information table 120A and the palm line information table 120B from the plurality of head-mounted display devices 100, and collects and stores the received data. Thereby, the biometric information and the setting information registered in the head-mounted display device 100 that configures the communication system 1 can be shared by all the head-mounted display devices 100. For example, the server 5 transmits the user information table 5A and the palm line information table 5B to the plurality of head-mounted display devices 100, so that the biometric information and the setting information registered in the head-mounted display device 100A are displayed. It can be used with the head-mounted display device 100B. That is, if the user performs registration on any one of the head-mounted display devices 100, the registered settings can be realized on the other head-mounted display device 100 based on his/her setting information. Therefore, both when a plurality of users use one head-mounted display device 100 and when one user uses a plurality of head-mounted display devices 100, based on biometric information. It is possible to realize a preset setting suitable for the user.

また、サーバー5は、デバイス情報テーブル5Cを有していてもよい。デバイス情報テーブル5Cは、デバイスIDに対応付けて、頭部装着型表示装置100毎の仕様に関するデータを格納する。デバイス情報テーブル5Cによれば、通信システム1が備える複数の頭部装着型表示装置100について、それぞれの頭部装着型表示装置100の仕様の違いを特定できる。例えば、サーバー5が、頭部装着型表示装置100Aに対し、頭部装着型表示装置100Bで登録された設定情報を含む使用者情報テーブル5Aを送信するときに、デバイス情報テーブル5Cに基づき使用者情報テーブル5Aの値を変換できる。この場合、頭部装着型表示装置100Bと頭部装着型表示装置100Aの仕様の違いを加味して、頭部装着型表示装置100Bの設定と同じ状態を頭部装着型表示装置100Aで実現できる。また、例えば、デバイス情報テーブル5Cを頭部装着型表示装置100A、100Bの両方にサーバー5が送信し、頭部装着型表示装置100A、100Bが上記の変換を実行してもよい。これにより、通信システム1が備える頭部装着型表示装置100の仕様に違いがあっても、それぞれの頭部装着型表示装置100で、使用者に合わせた設定状態を実現できる。   Further, the server 5 may have a device information table 5C. The device information table 5C stores data relating to specifications of each head-mounted display device 100 in association with the device ID. According to the device information table 5C, with respect to the plurality of head-mounted display devices 100 included in the communication system 1, it is possible to specify a difference in specifications of the head-mounted display devices 100. For example, when the server 5 transmits the user information table 5A including the setting information registered in the head-mounted display device 100B to the head-mounted display device 100A, the user based on the device information table 5C. The value of the information table 5A can be converted. In this case, the same state as the setting of the head-mounted display device 100B can be realized in the head-mounted display device 100A, taking into account the difference in the specifications of the head-mounted display device 100B and the head-mounted display device 100A. .. Further, for example, the server 5 may transmit the device information table 5C to both the head-mounted display devices 100A and 100B, and the head-mounted display devices 100A and 100B may execute the above conversion. Accordingly, even if the specifications of the head-mounted display device 100 included in the communication system 1 differ, each head-mounted display device 100 can realize a setting state according to the user.

第2の通信態様として、頭部装着型表示装置100Aから頭部装着型表示装置100Bに、或いは、頭部装着型表示装置100Bから頭部装着型表示装置100Aに、データを送信する態様がある。この場合、頭部装着型表示装置100A、100Bが相互に直接通信し、或いは、無線アクセスポイント3を介して通信して、使用者情報テーブル5A、及び掌線情報テーブル5Bを生成して記憶部120に記憶してもよい。この場合も、通信システム1が備える複数の頭部装着型表示装置100で、登録された生体情報及び設定情報を共有できるという利点がある。   A second communication mode is a mode in which data is transmitted from the head-mounted display device 100A to the head-mounted display device 100B, or from the head-mounted display device 100B to the head-mounted display device 100A. .. In this case, the head-mounted display devices 100A and 100B communicate with each other directly or via the wireless access point 3 to generate the user information table 5A and the palm line information table 5B, and the storage unit. It may be stored in 120. Also in this case, there is an advantage that the registered biometric information and setting information can be shared by the plurality of head-mounted display devices 100 included in the communication system 1.

以上説明したように、本発明を適用した第1実施形態の頭部装着型表示装置100は、記憶部120と、入力部としての第1カメラ61及び生体情報検出部181と、情報表示制御部186とを備える。記憶部120は、画像表示部20の表示に関する設定情報を、使用者を識別する識別情報に対応付けて記憶する。また、入力部としての第1カメラ61は、使用者の手の画像を撮像し、入力部としての生体情報検出部181は、撮像画像から生体情報を抽出する。情報表示制御部186は、入力した生体情報に対応する設定情報に基づいて、画像表示部20の表示を制御する。これにより、設定情報に基づき、頭部装着型表示装置100の表示に関して、使用者に合わせた設定を、速やかに行うことができる。   As described above, the head-mounted display device 100 of the first embodiment to which the present invention is applied has the storage unit 120, the first camera 61 as the input unit, the biological information detection unit 181, and the information display control unit. And 186. The storage unit 120 stores the setting information regarding the display of the image display unit 20 in association with the identification information for identifying the user. The first camera 61 as an input unit captures an image of the user's hand, and the biometric information detection unit 181 as an input unit extracts biometric information from the captured image. The information display control unit 186 controls the display of the image display unit 20 based on the setting information corresponding to the input biometric information. Thereby, based on the setting information, the display of the head-mounted display device 100 can be promptly set according to the user.

また、記憶部120が記憶する使用者情報テーブル120Aには、使用者の生体情報に含まれる特徴の一部が含まれる。生体情報を用いることで使用者を識別が可能であり、生体情報に含まれる特徴の一部が含まれることで、身体的な特徴に応じた簡易設定が可能になる。   In addition, the user information table 120A stored in the storage unit 120 includes some of the characteristics included in the biometric information of the user. The user can be identified by using the biometric information, and since a part of the features included in the biometric information is included, the simple setting according to the physical feature can be performed.

情報表示制御部186は、第1カメラ61及び生体情報検出部181により識別情報として入力される生体情報の特徴の一部と、記憶部120が識別情報として記憶する生体情報の特徴の一部とを照合して、設定情報を特定する。従って、身体的な特徴に応じた簡易設定が可能になる。
また、画像表示部20は、外景を透過し、外景とともに視認できるように画像を表示し、情報表示制御部186は、画像の表示位置及び表示サイズの少なくともいずれかを、設定情報に対応して複数段階に変更する。このため、画像表示部20における画像の表示位置及び表示サイズを、使用者に合わせて段階的に設定できる。
The information display control unit 186 includes a part of the characteristics of the biometric information input as identification information by the first camera 61 and the biometric information detection unit 181, and a part of the characteristics of the biometric information stored in the storage unit 120 as the identification information. And specify the setting information. Therefore, it is possible to make simple settings according to physical characteristics.
Further, the image display unit 20 displays the image so as to be visible through the outside scene and visible together with the outside scene, and the information display control unit 186 sets at least one of the display position and the display size of the image according to the setting information. Change to multiple stages. Therefore, the display position and the display size of the image on the image display unit 20 can be set in stages according to the user.

また、画像表示部20は、外景を透過し、外景とともに視認できるように画像光を使用者の眼に入射する右導光板261、左導光板262を備える。また、制御部140は、使用者の視線方向の対象物を検出する対象検出部184と、画像表示部20の表示領域に対する対象物の位置を検出する位置検出部185とを備える。情報表示制御部186は、位置検出部185で検出した対象物の位置、及び、右導光板261、左導光板262と使用者の瞳孔の位置との位置関係に応じて、光学素子による画像の表示位置を変更する。このため、画像の表示位置を使用者に合わせて設定できる。   In addition, the image display unit 20 includes a right light guide plate 261 and a left light guide plate 262 that transmit the image light to the eyes of the user so that the image light can be visually recognized together with the outside scene. The control unit 140 also includes a target detection unit 184 that detects a target object in the direction of the line of sight of the user, and a position detection unit 185 that detects the position of the target object in the display area of the image display unit 20. The information display control unit 186 displays the image by the optical element according to the position of the object detected by the position detection unit 185 and the positional relationship between the right light guide plate 261, the left light guide plate 262, and the position of the user's pupil. Change the display position. Therefore, the display position of the image can be set according to the user.

また、使用者情報テーブル120Aの登録情報には、設定情報として、言語の設定に関する情報が含まれる。情報表示制御部186は、画像表示部20に文字を含むコンテンツを表示させる場合に、設定情報に対応した言語の文字を表示させる。このため、画像表示部20に表示する文字の言語を、使用者に合わせて設定できる。
また、頭部装着型表示装置100は、通信部117を備え、情報表示制御部186は、記憶部120に記憶する使用者情報テーブル120A及び掌線情報テーブル120Bをサーバー5に送信する。また、頭部装着型表示装置100は、通信部117で使用者情報テーブル5A及び掌線情報テーブル5Bを受信し、記憶部120に記憶してもよい。この場合、使用者情報テーブル120A及び掌線情報テーブル120Bを他の頭部装着型表示装置100と共有できる。また、他の装置で登録された情報を含む使用者情報テーブル5A及び掌線情報テーブル5Bに基づき、使用者に合わせた表示の設定を行うことができる。
In addition, the registration information of the user information table 120A includes, as the setting information, information about language setting. The information display control unit 186 displays the characters in the language corresponding to the setting information when displaying the content including the characters on the image display unit 20. Therefore, the language of the characters displayed on the image display unit 20 can be set according to the user.
Further, the head-mounted display device 100 includes a communication unit 117, and the information display control unit 186 transmits the user information table 120A and the palm line information table 120B stored in the storage unit 120 to the server 5. Further, in the head-mounted display device 100, the communication unit 117 may receive the user information table 5A and the palm line information table 5B and store them in the storage unit 120. In this case, the user information table 120A and the palm line information table 120B can be shared with another head-mounted display device 100. Further, based on the user information table 5A and the palm line information table 5B including the information registered in another device, it is possible to set the display according to the user.

[第2実施形態]
図11は、本発明を適用した第2実施形態における頭部装着型表示装置100の動作を示すフローチャートである。第2実施形態では、生体情報(掌線情報)を用いた認証に成功した場合に、使用者に対し確認を求める動作について説明する。
本第2実施形態の頭部装着型表示装置100の構成は、上記第1実施形態と共通であるため、共通する構成部には同符号を付して図示及び説明を省略する。また、図11のフローチャートにおいて、図8の動作と共通する処理には、同ステップ番号を付して説明を省略する。
[Second Embodiment]
FIG. 11 is a flowchart showing the operation of the head-mounted display device 100 according to the second embodiment of the present invention. In the second embodiment, an operation for asking the user for confirmation when the authentication using the biometric information (palm line information) is successful will be described.
The configuration of the head-mounted display device 100 of the second embodiment is the same as that of the first embodiment, and thus the common components are designated by the same reference numerals and illustration and description thereof are omitted. Further, in the flowchart of FIG. 11, the same steps as those of the operation of FIG.

第2実施形態では、使用者特定モードにおいて、設定部183が掌線情報を使用して照合処理を行う例を説明する。
設定部183は、入力生体情報に含まれる複数の掌線情報の中から、照合に使用する1又は複数の掌線情報を選択し、選択した掌線情報の始点座標及び終点座標に最も座標が近い掌線情報を使用者情報テーブルから読み出して、照合処理を行う(ステップS15)。設定部183は、使用者情報テーブルから取り出した掌線情報の長さ比及び/又は曲率と、入力生体情報から選択した掌線情報の長さ比及び/又は曲率との照合を行う。設定部183は、選択したすべての掌線情報について照合処理を行う(ステップS16)。
In the second embodiment, an example in which the setting unit 183 performs the matching process using the palm line information in the user identification mode will be described.
The setting unit 183 selects one or more pieces of palm line information to be used for matching from a plurality of pieces of palm line information included in the input biometric information, and the start point coordinates and end point coordinates of the selected palm line information have the most coordinates. The near palm line information is read from the user information table, and the matching process is performed (step S15). The setting unit 183 collates the length ratio and/or the curvature of the palm line information extracted from the user information table with the length ratio and/or the curvature of the palm line information selected from the input biometric information. The setting unit 183 performs collation processing for all the selected palm line information (step S16).

照合処理により一致しないと判定されると(ステップS16/NO)、設定部183は、画像表示部20が表示するシルエット画像Sに、ガイド表示を追加表示させ(ステップS17)、ステップS12に戻る。   If it is determined by the matching process that they do not match (step S16/NO), the setting unit 183 additionally displays the guide display on the silhouette image S displayed by the image display unit 20 (step S17), and the process returns to step S12.

一方、照合処理により、掌線情報の長さ比及び/又は曲率の一致度がしきい値よりも高いと判定された場合、設定部183は掌線情報が一致すると判定する(ステップS16/YES)。この場合、設定部183は、使用者情報テーブル120Aにおいて入力生体情報に一致度が高いと判定された登録生体情報に対応付けられた設定情報から使用者IDを取得し、取得した使用者IDに基づき確認メッセージを出力する(ステップS21)。確認メッセージの内容は、掌線情報が一致した使用者IDに対応する設定を行うことを確認するメッセージである。メッセージの出力は、例えば、画像表示部20によるテキストや画像の表示、及び/又は、右イヤホン32と左イヤホン34からの音声出力により行われる。メッセージの具体的な例としては、使用者IDを用いて、「ID:1の設定を使用します」等としてもよい。また、使用者情報テーブル120Aに、使用者IDに対応する使用者名を登録する構成としてもよく、この場合、ステップS21で出力するメッセージに使用者名を含めることができる。   On the other hand, when the matching process determines that the length ratio and/or the curvature matching degree of the palm line information are higher than the threshold value, the setting unit 183 determines that the palm line information matches (step S16/YES). ). In this case, the setting unit 183 acquires the user ID from the setting information associated with the registered biometric information determined to have a high degree of coincidence with the input biometric information in the user information table 120A, and uses the acquired user ID as the acquired user ID. Based on this, a confirmation message is output (step S21). The content of the confirmation message is a message for confirming that the setting corresponding to the user ID whose palm line information matches. The output of the message is performed, for example, by displaying a text or an image by the image display unit 20 and/or by outputting a voice from the right earphone 32 and the left earphone 34. As a specific example of the message, the user ID may be used, and “using the setting of ID:1” or the like. The user name corresponding to the user ID may be registered in the user information table 120A. In this case, the user name can be included in the message output in step S21.

ステップS21で出力するメッセージには、使用者に指示入力を求めるメッセージを含めることができる。図12(A)及び(B)は頭部装着型表示装置100が出力するメッセージの例として、画像表示部20に表示するメッセージの例を示す。
図12(A)に示すメッセージM1は、使用者IDを提示して、設定を行うことに対する使用者の指示入力を求める内容である。メッセージM1は、指示入力の選択肢として、承諾を指示する「1」、認証のやり直しを指示する「2」、掌線情報の新規登録を指示する「3」の3通りの指示入力が可能である。
図12(B)に示すメッセージM2は、使用者IDに対応する使用者名を提示して、指示入力を求める内容である。メッセージM2では、メッセージM1と同様に3通りの指示入力を求める。設定部183は、メッセージM1、M2を、例えば画像表示部20に表示することによって出力する。
The message output in step S21 may include a message asking the user to input an instruction. 12A and 12B show examples of messages displayed on the image display unit 20 as examples of messages output by the head-mounted display device 100.
The message M1 shown in FIG. 12(A) is a content that presents the user ID and requests the user to input an instruction for setting. In the message M1, three types of instruction inputs are possible: “1” for instructing acceptance, “2” for instructing re-authentication, and “3” for instructing new registration of palm line information. ..
The message M2 shown in FIG. 12B is a content that presents the user name corresponding to the user ID and requests the instruction input. In the message M2, like the message M1, three types of instruction inputs are requested. The setting unit 183 outputs the messages M1 and M2 by displaying them on the image display unit 20, for example.

メッセージM1、M2のように、指示入力を求める、或いは促す内容を含むメッセージを出力した後、設定部183は、所定時間内における使用者の入力操作を待機し、入力操作の有無を判定する(ステップS22)。メッセージの出力後、所定時間内に入力操作が行われなかったと判定した場合(ステップS22/NO)、設定部183は、ステップS18に移行する。   After outputting a message such as the message M1 or M2 that requests or prompts the user to input an instruction, the setting unit 183 waits for the user's input operation within a predetermined time and determines whether or not there is an input operation ( Step S22). When it is determined that the input operation has not been performed within the predetermined time after outputting the message (step S22/NO), the setting unit 183 proceeds to step S18.

図8を参照して説明したように、ステップS18で、設定部183は、設定情報を使用者情報テーブルから読み出す(ステップS18)。この設定情報は、入力生体情報に一致度が高いと判定された登録生体情報に対応付けられた設定情報であり、ステップS21で確認メッセージを出力する際に参照した使用者IDに対応する設定情報である。
設定部183は、読み出した設定情報に基づいて、表示データの表示位置又はサイズを補正する補正係数を算出する。設定部183は、眼間距離と、輻輳角と、眼と光学素子の相対距離と、光学素子の角度との少なくとも1つに基づいて、表示データの表示位置又はサイズを補正する補正係数を算出する。設定部183は、補正係数を算出すると、算出した補正係数を位置検出部185に出力する。
As described with reference to FIG. 8, in step S18, the setting unit 183 reads the setting information from the user information table (step S18). This setting information is the setting information associated with the registered biometric information determined to have a high degree of coincidence with the input biometric information, and the setting information corresponding to the user ID referred to when the confirmation message is output in step S21. Is.
The setting unit 183 calculates a correction coefficient for correcting the display position or size of the display data based on the read setting information. The setting unit 183 calculates a correction coefficient that corrects the display position or size of the display data based on at least one of the inter-eye distance, the vergence angle, the relative distance between the eye and the optical element, and the angle of the optical element. To do. After calculating the correction coefficient, the setting unit 183 outputs the calculated correction coefficient to the position detection unit 185.

位置検出部185は、対象検出部184が撮像画像から検出した対象物の画像について、表示領域に対する位置とサイズとを検出する。位置検出部185は、表示領域に対する位置とサイズとを検出すると、検出した位置及びサイズを、設定部183から渡された補正係数に基づいて補正する(ステップS19)。情報表示制御部186は、対象検出部184が検出した対象物について、位置検出部185が補正係数に基づいて補正した位置及び/又はサイズ等に基づき、表示データの表示位置を決定する。その後、情報表示制御部186は、表示データを表示制御部170に出力し、画像表示部20により表示を実行させる。   The position detection unit 185 detects the position and size with respect to the display area of the image of the object detected by the object detection unit 184 from the captured image. When the position detection unit 185 detects the position and size with respect to the display area, the position detection unit 185 corrects the detected position and size based on the correction coefficient passed from the setting unit 183 (step S19). The information display control unit 186 determines the display position of the display data for the object detected by the object detection unit 184, based on the position and/or size corrected by the position detection unit 185 based on the correction coefficient. After that, the information display control unit 186 outputs the display data to the display control unit 170 and causes the image display unit 20 to perform display.

一方、確認メッセージが出力されてから所定時間内に入力操作があったと判定した場合(ステップS22/YES)、設定部183は、入力操作の内容を判定する(ステップS23)。ここで、図12(A),(B)に示したように、設定について3通りの指示(承諾の指示、再認証の指示、新規登録の指示)を行うことが可能な場合を想定する。設定部183は、ステップS23で、承諾を示す入力操作が行われたと判定した場合、ステップS18に移行する。また、ステップS23で、再認証を指示する入力操作が行われたと判定した場合、設定部183はステップS17に移行する。
また、ステップS23で、新規登録を指示する入力操作が行われたと判定した場合、設定部183は、情報登録モードに移行し(ステップS24)、図6の動作を実行する。
図11に示す第2実施形態の動作において、使用者が行う入力操作は、トラックパッド14に対するタッチ操作であってもよい。また、使用者の音声をマイク63により集音して音声処理部187が認識することにより、使用者が音声による入力を行える構成としてもよい。また、使用者が手指、手、腕、足など身体を動かし、この動きを第1カメラ61及び第2カメラ62の撮像画像をもとに制御部140がジェスチャーとして検出することで、ジェスチャー入力を行える構成としてもよい。このように、頭部装着型表示装置100に対して、制御装置10の操作による入力、音声入力、及びジェスチャー入力が可能である。これらの入力は、第1及び第2実施形態に限らず、後述する各実施形態において採用することもできる。
On the other hand, when it is determined that the input operation is performed within the predetermined time after the confirmation message is output (step S22/YES), the setting unit 183 determines the content of the input operation (step S23). Here, as shown in FIGS. 12A and 12B, it is assumed that it is possible to perform three kinds of instructions for setting (acceptance instruction, re-authentication instruction, new registration instruction). When the setting unit 183 determines in step S23 that the input operation indicating acceptance is performed, the setting unit 183 proceeds to step S18. When it is determined in step S23 that the input operation for instructing re-authentication is performed, the setting unit 183 proceeds to step S17.
If it is determined in step S23 that the input operation for instructing new registration has been performed, the setting unit 183 shifts to the information registration mode (step S24) and executes the operation of FIG.
In the operation of the second embodiment shown in FIG. 11, the input operation performed by the user may be a touch operation on the track pad 14. Further, the voice of the user may be collected by the microphone 63 and recognized by the voice processing unit 187 so that the user can input the voice. In addition, the user moves a body such as a finger, a hand, an arm, or a foot, and the control unit 140 detects the movement as a gesture based on the images captured by the first camera 61 and the second camera 62, thereby inputting a gesture. It may be configured to be possible. As described above, the head-mounted display device 100 can be input by operating the control device 10, a voice input, and a gesture input. These inputs can be adopted not only in the first and second embodiments but also in each of the embodiments described later.

このように、使用者特定モードにおいて、掌線等の生体情報を利用した照合結果に基づき設定を実行する前に、使用者に対し確認メッセージを出力することで、ユーザービリティーの向上を図ることができる。すなわち、生体情報を簡易化することにより、使用者が意図しない照合結果となる可能性があっても、使用者が適切に対処することが可能になる。また、照合結果が事実と一致している場合であっても、使用者が生体情報の登録のやり直しを望む場合には、容易に新規登録の動作に移行できる。これにより、使用者の意図の通りに使いこなすことが可能となり、利便性の向上を図ることができる。   In this way, in the user identification mode, the usability is improved by outputting a confirmation message to the user before performing the setting based on the matching result using the biometric information such as palm lines. You can That is, by simplifying the biometric information, the user can appropriately deal with the possibility that the collation result is unintended by the user. Further, even when the collation result is in agreement with the fact, when the user desires to re-register the biometric information, the operation of new registration can be easily performed. As a result, the user can use the device as intended by the user, and the convenience can be improved.

[第3実施形態]
図13は、本発明を適用した第3実施形態における頭部装着型表示装置100の動作を示すフローチャートである。第3実施形態では、生体情報(掌線情報)の照合結果に対応する設定情報に基づく設定を行うまでの間、画像表示部20における表示を片眼表示とする動作について説明する。
第3実施形態の頭部装着型表示装置100の構成は、上記第1実施形態と共通であるため、共通する構成部には同符号を付して図示及び説明を省略する。また、図13のフローチャートにおいて、図8の動作と共通する処理には、同ステップ番号を付して説明を省略する。
[Third Embodiment]
FIG. 13 is a flowchart showing the operation of the head-mounted display device 100 according to the third embodiment of the present invention. In the third embodiment, an operation in which the display on the image display unit 20 is a single-eye display until the setting based on the setting information corresponding to the collation result of the biometric information (palm line information) is performed will be described.
Since the configuration of the head-mounted display device 100 of the third embodiment is common to that of the first embodiment, the same reference numerals are given to the common components, and illustration and description thereof will be omitted. Further, in the flowchart of FIG. 13, the same steps as those of the operation of FIG.

第3実施形態では、使用者特定モードにおいて、設定部183が掌線情報を使用して照合処理を行う例を説明する。
設定部183は、使用者特定モードの動作を開始すると、ステップS11でシルエット画像Sを画像表示部20により表示させる動作の前に、画像表示部20の表示を片眼表示に切り替える(ステップS31)。設定部183は、画像処理部160及び/又は表示制御部170を制御して、右表示駆動部22及び左表示駆動部24のうちいずれか一方による表示を停止させる。
In the third embodiment, an example in which the setting unit 183 performs the matching process using the palm line information in the user identification mode will be described.
When the operation in the user identification mode is started, the setting unit 183 switches the display of the image display unit 20 to the one-eye display before the operation of displaying the silhouette image S on the image display unit 20 in step S11 (step S31). .. The setting unit 183 controls the image processing unit 160 and/or the display control unit 170 to stop the display by one of the right display drive unit 22 and the left display drive unit 24.

表示の停止とは、右表示駆動部22または左表示駆動部24による表示が、使用者に視認されない状態を指す。右LCD241及び左LCD242のいずれかの表示を、表示領域全体で黒または予め設定された所定色とする制御を含んでもよい。また、右バックライト221及び左バックライト222のいずれかを消灯させる制御を含んでもよい。また、表示制御部170が、送信部51、52のいずれか一方による画像データDataの送信を停止させる制御を含んでもよい。上記のうち少なくともいずれかの制御を実行すれば、右表示駆動部22及び左表示駆動部24の一方の表示画像が視認されなくなる。
右表示駆動部22と左表示駆動部24のどちらの表示を停止するかは、予め設定されてもよいし、使用者が選択した側としてもよい。
このように、右表示駆動部22または左表示駆動部24のいずれかの表示を停止した状態は、使用者が片眼で表示画像を視認する、片眼(片目)表示の状態といえる。これに対し、右表示駆動部22及び左表示駆動部24の両方を、停止させていない状態は、使用者が両眼で表示画像を視認する、両眼(両目)表示の状態といえる。画像表示部20は、制御部140の制御により、片眼表示と両眼表示とを切り替えて実行できる。
The stop of the display means a state in which the display by the right display drive unit 22 or the left display drive unit 24 is not visually recognized by the user. Control may be included in which either the right LCD 241 or the left LCD 242 is displayed in black or in a predetermined color set in advance in the entire display area. It may also include control to turn off either the right backlight 221 or the left backlight 222. Further, the display control unit 170 may include control for stopping the transmission of the image data Data by either one of the transmission units 51 and 52. If at least one of the above controls is executed, one of the display images of the right display driving unit 22 and the left display driving unit 24 cannot be viewed.
Which of the right display drive unit 22 and the left display drive unit 24 is to be stopped may be set in advance or may be selected by the user.
In this way, the state in which the display of either the right display drive unit 22 or the left display drive unit 24 is stopped can be said to be a one-eye (one-eye) display state in which the user visually recognizes the display image with one eye. On the other hand, a state in which both the right display driving unit 22 and the left display driving unit 24 are not stopped can be said to be a binocular (both eyes) display state in which the user visually recognizes the display image with both eyes. Under the control of the control unit 140, the image display unit 20 can switch between single-eye display and binocular display and execute the display.

画像表示部20における表示状態を片眼表示に切り替えた後、設定部183は、図8を参照して説明したステップS11〜S18の動作を実行する。
設定部183は、ステップS18で、設定情報を使用者情報テーブル120Aから読み出した後に、読み出した設定情報に従って表示位置を補正し、両眼表示(両目表示)に切り替える(ステップS32)。ここで、設定部183は、右表示駆動部22及び左表示駆動部24のうちステップS31で表示を停止した側に対する表示を開始して、画像表示部20を両眼表示に切り替えさせる。両眼表示に切り替えるタイミングは、設定情報を使用者情報テーブル120Aから読み出した後であれば制限はないが、後述するように、読み出した設定情報に従って表示位置を補正した後であることが好ましい。また、設定情報が表示位置以外の表示の属性または設定項目の情報を含む場合、表示位置の補正だけでなく、これらの情報に基づく表示の補正が行われた後で両眼表示に切り替えると、より好ましい。
After switching the display state of the image display unit 20 to the one-eye display, the setting unit 183 executes the operations of steps S11 to S18 described with reference to FIG.
The setting unit 183 reads out the setting information from the user information table 120A in step S18, corrects the display position according to the read setting information, and switches to the binocular display (both-eye display) (step S32). Here, the setting unit 183 starts the display for the side of the right display driving unit 22 and the left display driving unit 24 that has stopped the display in step S31, and switches the image display unit 20 to the binocular display. The timing of switching to the binocular display is not limited as long as the setting information is read from the user information table 120A, but it is preferable that the display position is corrected according to the read setting information as described later. In addition, when the setting information includes information of display attributes or setting items other than the display position, not only the correction of the display position, but also when the display is switched to the binocular display after the correction of the display based on these information is performed, More preferable.

両眼表示を開始する際に、設定部183は、使用者情報テーブル120Aから読み出した設定情報に基づいて、表示データの表示位置又はサイズを補正する補正係数を算出し、算出した補正係数を位置検出部185に出力する。補正係数を算出する処理の詳細は上述したステップS19(図8)と同様である。位置検出部185は、対象検出部184が撮像画像から検出した対象物の画像について、表示領域に対する位置とサイズとを検出する。位置検出部185は、表示領域に対する位置とサイズとを検出すると、検出した位置及びサイズを、設定部183から渡された補正係数に基づいて補正する。情報表示制御部186は、対象検出部184が検出した対象物について、位置検出部185が補正係数に基づいて補正した位置及び/又はサイズ等に基づき、表示データの表示位置を決定する。
制御部140は、表示データの表示位置を決定する処理、及び、画像表示部20における表示状態を片眼表示から両眼表示に切り替える処理のうち、どちらを先に実行してもよい。制御部140が、表示位置を決定する処理を先に実行し、その後に画像表示部20の表示を両眼表示に切り替える場合、好適な位置で両眼の表示を開始できるため、好ましい。
When starting the binocular display, the setting unit 183 calculates a correction coefficient for correcting the display position or size of the display data based on the setting information read from the user information table 120A, and uses the calculated correction coefficient as the position. It is output to the detection unit 185. The details of the process of calculating the correction coefficient are the same as in step S19 (FIG. 8) described above. The position detection unit 185 detects the position and size with respect to the display area of the image of the object detected by the object detection unit 184 from the captured image. When the position detection unit 185 detects the position and the size with respect to the display area, the position detection unit 185 corrects the detected position and size based on the correction coefficient passed from the setting unit 183. The information display control unit 186 determines the display position of the display data for the object detected by the object detection unit 184 based on the position and/or the size corrected by the position detection unit 185 based on the correction coefficient.
The control unit 140 may execute either the process of determining the display position of the display data or the process of switching the display state of the image display unit 20 from the one-eye display to the binocular display. When the control unit 140 first executes the process of determining the display position and then switches the display of the image display unit 20 to the binocular display, it is preferable because the binocular display can be started at a suitable position.

このように、使用者特定モードにおいて、生体情報に基づき使用者情報テーブル120Aから設定情報を読み出し、設定情報を反映する表示を行うまでの間、画像表示部20の表示状態を片眼表示にすることで、使用者の違和感を軽減できる。すなわち、使用者情報テーブル120Aの設定情報に従って表示位置等を補正すると、使用者に適した表示状態を実現できるが、この補正を行う前は、表示位置等が使用者に合っていない可能性がある。この表示位置の不適合が大きい場合、設定情報に従って表示位置が補正されるまでの間、使用者が違和感を覚える可能性がある。特に、使用者の両眼に視認されるように画像を表示する場合に、眼間距離(瞳孔間距離)や輻輳角等、両眼視に係るパラメーターが適合しないと、違和感が大きい。第3実施形態では、画像表示部20における表示に設定情報が反映されるまでの間、片眼表示を行う。すなわち、表示位置の不適合が生じる可能性がある間は片眼表示を行うので、不適合に起因する違和感を抑えることができる。   As described above, in the user identification mode, the display state of the image display unit 20 is set to one-eye display until the setting information is read from the user information table 120A based on the biometric information and the display reflecting the setting information is performed. This can reduce the user's discomfort. That is, if the display position and the like are corrected according to the setting information of the user information table 120A, a display state suitable for the user can be realized, but before the correction, the display position and the like may not be suitable for the user. is there. When this display position mismatch is large, the user may feel uncomfortable until the display position is corrected according to the setting information. In particular, when displaying an image so as to be visually recognized by both eyes of a user, if the parameters relating to binocular vision such as the inter-eye distance (inter-pupil distance) and the angle of convergence do not match, a sense of discomfort is great. In the third embodiment, single-eye display is performed until the setting information is reflected in the display on the image display unit 20. That is, since the one-eye display is performed while the display position may be incompatible, it is possible to suppress the discomfort caused by the incompatibility.

[第4実施形態]
図14は、本発明を適用した第4実施形態における頭部装着型表示装置100の動作を示すフローチャートである。第4実施形態では、生体情報(掌線情報)の照合に失敗した場合に、使用者の入力操作に応じて新規登録などを実行する例について説明する。
第4実施形態の頭部装着型表示装置100の構成は、上記第1実施形態と共通であるため、共通する構成部には同符号を付して図示及び説明を省略する。また、図14のフローチャートにおいて、図8の動作と共通する処理には、同ステップ番号を付して説明を省略する。
[Fourth Embodiment]
FIG. 14 is a flowchart showing the operation of the head-mounted display device 100 according to the fourth embodiment of the present invention. In the fourth embodiment, an example will be described in which when registration of biometric information (palm line information) fails, new registration or the like is executed according to an input operation by the user.
The configuration of the head-mounted display device 100 of the fourth embodiment is the same as that of the first embodiment described above, and thus the common components are designated by the same reference numerals and illustration and description thereof are omitted. Further, in the flowchart of FIG. 14, the same steps as those of the operation of FIG.

第4実施形態では、使用者特定モードにおいて、設定部183が掌線情報を使用して照合処理を行う例を説明する。ステップS11〜S16の動作は図8を参照して説明した動作と同様である。   In the fourth embodiment, an example will be described in which the setting unit 183 performs matching processing using palm line information in the user identification mode. The operations of steps S11 to S16 are the same as the operations described with reference to FIG.

ステップS15で、設定部183は、入力生体情報に含まれる複数の掌線情報の中から、照合に使用する1又は複数の掌線情報を選択し、選択した掌線情報の始点座標及び終点座標に最も座標が近い掌線情報を使用者情報テーブルから読み出して、照合処理を行う。そして、ステップS16で、設定部183は、照合処理で掌線情報が一致したか否かを判定する。
この照合処理により一致すると判定した場合(ステップS16/YES)、設定部183は、図8を参照して説明した動作と同様に、ステップS18〜S19の処理を実行する。
In step S15, the setting unit 183 selects one or more pieces of palm line information used for matching from the plurality of pieces of palm line information included in the input biometric information, and the start point coordinates and end point coordinates of the selected palm line information. The palm line information whose coordinates are closest to is read from the user information table, and the matching process is performed. Then, in step S16, the setting unit 183 determines whether or not the palm line information matches in the matching process.
When it is determined by this collation processing that they match (step S16/YES), the setting unit 183 executes the processing of steps S18 to S19, similarly to the operation described with reference to FIG.

一方、照合処理により掌線情報が一致しないと判定した場合(ステップS16/NO)、設定部183は、エラーメッセージを出力する(ステップS24)。エラーメッセージの内容は、照合により一致しなかったこと、及び、その後の動作について使用者に指示入力を求めるメッセージを含む。メッセージの出力は、例えば、画像表示部20によるテキストや画像の表示、及び/又は、右イヤホン32と左イヤホン34からの音声出力により行われる。   On the other hand, when it is determined by the collation processing that the palm line information does not match (step S16/NO), the setting unit 183 outputs an error message (step S24). The content of the error message includes a message indicating that they do not match each other by collation, and a message requesting the user to input an instruction regarding the subsequent operation. The output of the message is performed, for example, by displaying a text or an image by the image display unit 20 and/or by outputting a voice from the right earphone 32 and the left earphone 34.

図15は頭部装着型表示装置100が出力するメッセージの例として、画像表示部20に表示するエラーメッセージM3を例示する。エラーメッセージM3は、認証エラーが発生したことを示すテキストを含む。また、エラーメッセージM3は、指示入力の選択肢として、認証のやり直しを指示する「1」、使用履歴から選択する「2」、掌線情報の新規登録を指示する「3」の3通りの指示入力が可能である。   FIG. 15 illustrates an error message M3 displayed on the image display unit 20 as an example of the message output by the head-mounted display device 100. The error message M3 includes text indicating that an authentication error has occurred. Further, the error message M3 has three input options as an instruction input option: "1" for instructing re-authentication, "2" for selecting from the use history, and "3" for instructing new registration of palm line information. Is possible.

エラーメッセージM3を出力した後、設定部183は、所定時間内における使用者の入力操作を待機し、入力操作があった場合には、入力操作が再認証の指示であるか否かを判定する(ステップS42)。再認証を指示する入力操作であると判定した場合(ステップS42/YES)、設定部183はステップS17に移行する。   After outputting the error message M3, the setting unit 183 waits for a user's input operation within a predetermined time, and if there is an input operation, determines whether the input operation is a re-authentication instruction. (Step S42). When it is determined that the input operation is an instruction for re-authentication (step S42/YES), the setting unit 183 proceeds to step S17.

これに対し、入力操作が再認証の指示でないと判定した場合(ステップS42/NO)、設定部183は、新規登録の指示であるか否かを判定する(ステップS43)。ここで、新規登録の指示であると判定した場合(ステップS43/YES)、設定部183は、情報登録モードに移行し(ステップS24)、図6の動作を実行する。   On the other hand, when it is determined that the input operation is not a re-authentication instruction (step S42/NO), the setting unit 183 determines whether it is a new registration instruction (step S43). Here, when it is determined that the instruction is for new registration (step S43/YES), the setting unit 183 shifts to the information registration mode (step S24) and executes the operation of FIG.

このため、生体情報を用いた認証に失敗して使用者を特定できない場合に、使用者は、再び認証をやり直すか、新たに生体情報を登録するかを選んで実行させることができる。   Therefore, when the user cannot be specified due to the failure of the authentication using the biometric information, the user can select whether to perform the authentication again or newly register the biometric information.

さらに、入力操作が新規登録の指示でないと判定した場合(ステップS43/NO)、設定部183は、入力操作が履歴情報から使用者を選択する指示であると判定し、履歴情報を出力する(ステップS45)。履歴情報は、頭部装着型表示装置100を使用した使用者の履歴であり、例えば、使用者情報テーブル120Aから設定情報を取得した使用者IDの履歴である。頭部装着型表示装置100は、例えばステップS18で、使用者情報テーブル120Aから設定情報を取得するごとに、取得した設定情報に対応する使用者IDを、記憶部120または制御部140のRAM(図示略)に履歴情報として記憶する。ここで、使用者情報テーブル120Aに、使用者IDに対応付けて使用者名が登録されている場合、設定部183は、使用者名を履歴情報として記憶してもよい。履歴情報は、設定部183が使用者情報テーブル120Aから設定情報を読み出すごとに追加されてもよく、記憶部120またはRAM(図示略)に記憶する履歴情報の数に上限が設けられてもよい。設定部183は、ステップS45で、記憶部120またはRAMに記憶する履歴情報を、画像表示部20による表示または右イヤホン32及び左イヤホン34からの音声出力により、出力する。ここで出力される履歴情報は、記憶部120またはRAMに記憶された履歴情報の一部であってもよい。たとえば、履歴情報を記憶した日時に基づき、新しい順に予め設定された数の履歴情報を選択して出力してもよい。   Further, when it is determined that the input operation is not a new registration instruction (step S43/NO), the setting unit 183 determines that the input operation is an instruction to select the user from the history information, and outputs the history information ( Step S45). The history information is a history of a user who uses the head-mounted display device 100, and is, for example, a history of a user ID that has acquired setting information from the user information table 120A. Every time the head-mounted display device 100 acquires the setting information from the user information table 120A in step S18, the head-mounted display device 100 stores the user ID corresponding to the acquired setting information in the storage unit 120 or the RAM of the control unit 140 ( (Not shown) as history information. Here, when the user name is registered in the user information table 120A in association with the user ID, the setting unit 183 may store the user name as history information. The history information may be added each time the setting unit 183 reads the setting information from the user information table 120A, and an upper limit may be set for the number of history information stored in the storage unit 120 or the RAM (not shown). .. In step S45, the setting unit 183 outputs the history information stored in the storage unit 120 or the RAM by the display by the image display unit 20 or the sound output from the right earphone 32 and the left earphone 34. The history information output here may be a part of the history information stored in the storage unit 120 or the RAM. For example, based on the date and time when the history information is stored, a preset number of history information may be selected and output in ascending order.

その後、設定部183は、使用者の入力操作を待機し、出力した履歴情報のいずれかを選択する入力操作が行われると(ステップS46)、ステップS18に移行して、選択された履歴情報である使用者IDに対応する設定情報を使用者情報テーブル120Aから読み出す。   After that, the setting unit 183 waits for an input operation by the user, and when an input operation for selecting any of the output history information is performed (step S46), the setting unit 183 proceeds to step S18 and displays the selected history information. The setting information corresponding to a certain user ID is read from the user information table 120A.

このように、使用者特定モードにおいて、掌線等の生体情報を利用した照合に失敗した場合であっても、過去に使用者を特定した結果を利用して、使用者の入力操作に基づき使用者を特定して表示位置等を調整できる。このため、生体情報の照合に支障がある場合であっても、正当な使用者が頭部装着型表示装置100を使用でき、ユーザービリティーの向上を図ることができる。   In this way, in the user identification mode, even if the collation using biometric information such as the palm line fails, the result obtained by identifying the user in the past is used and the operation is performed based on the user's input operation. It is possible to specify a person and adjust the display position and the like. Therefore, even if there is a problem in collating biometric information, a legitimate user can use the head-mounted display device 100, and usability can be improved.

また、履歴情報を出力する場合に、履歴情報としての使用者ID等に対応付けて、履歴情報が記憶された日時や季節を出力してもよい。この場合、日時や季節を基準として、頭部装着型表示装置100の設定に用いる設定情報を使用者が選択できる。また、履歴情報に、GPS115が検出した位置情報を対応付けて記憶部120に記憶してもよい。この場合、履歴情報を出力する際に、位置情報を対応付けて出力してもよい。使用者は、履歴情報が過去に使用された場所に基づき、履歴情報を選択できる。   Further, when outputting the history information, the date and time or the season when the history information is stored may be output in association with the user ID or the like as the history information. In this case, the user can select the setting information used for setting the head-mounted display device 100 based on the date and time and the season. Further, the history information may be stored in the storage unit 120 in association with the position information detected by the GPS 115. In this case, when outputting the history information, the position information may be associated and output. The user can select history information based on where the history information was used in the past.

[第5実施形態]
図16は、第5実施形態における頭部装着型表示装置100の動作を示すフローチャートである。また、図17は第5実施形態の頭部装着型表示装置100が、使用者情報テーブル120Aに代えて記憶部120に記憶する使用者情報テーブル120Cの構成例を示す図である。図18は、第5実施形態の頭部装着型表示装置100で認証に使用できる画像の例を示す図であり、(A)は操作の軌跡の画像を用いる例を示し、(B)は可搬の物体の画像を用いる例を示し、(C)は建造物の画像を用いる例を示す。
第5実施形態の頭部装着型表示装置100において、上記第1実施形態と共通する構成部には同符号を付して図示及び説明を省略する。
[Fifth Embodiment]
FIG. 16 is a flowchart showing the operation of the head-mounted display device 100 according to the fifth embodiment. FIG. 17 is a diagram showing a configuration example of a user information table 120C stored in the storage unit 120 instead of the user information table 120A in the head-mounted display device 100 of the fifth embodiment. FIG. 18 is a diagram showing an example of an image that can be used for authentication in the head-mounted display device 100 according to the fifth embodiment. An example using an image of a carrying object is shown, and (C) shows an example using an image of a building.
In the head-mounted display device 100 according to the fifth embodiment, the same components as those in the first embodiment are designated by the same reference numerals, and illustration and description thereof will be omitted.

上記第1から第4実施形態で、頭部装着型表示装置100は、掌線情報などの生体情報を、使用者を特定する処理に利用する。これに対し、第5実施形態で、頭部装着型表示装置100は、生体情報以外の情報を利用する。このため、認証において参照するテーブルは、図17に示すように、生体情報に限らず一般的な画像を利用可能な構成である。   In the first to fourth embodiments, the head-mounted display device 100 uses biometric information such as palm line information for the process of identifying the user. On the other hand, in the fifth embodiment, the head-mounted display device 100 uses information other than biometric information. Therefore, as shown in FIG. 17, the table referred to in the authentication is not limited to biometric information, and can be a general image.

図17の使用者情報テーブル120Cは、認証に利用する画像に関する登録画像情報と、設定情報とを対応付けて記憶する。登録画像情報は、使用者情報テーブル120Aにおける生体情報に対応し、使用者IDに対応付けられる。登録画像情報は、第1カメラ61及び第2カメラ62の撮像画像から、予め登録された画像を検出し、検出した画像との一致性を判定する場合に利用される情報である。   The user information table 120C of FIG. 17 stores registered image information relating to an image used for authentication and setting information in association with each other. The registered image information corresponds to the biometric information in the user information table 120A and is associated with the user ID. The registered image information is information used when detecting a preregistered image from the images captured by the first camera 61 and the second camera 62 and determining the matching with the detected image.

図17に例示する使用者情報テーブル120Cでは、撮像画像から検出する画像のサイズ、特徴量、画像に含まれるテキストやコードに関するデータが、登録画像情報に含まれる。テキスト・コードは、画像認識により制御部140が認識可能なテキスト、及び、バーコードや二次元コード等で符号化された情報である。コードの種類は、制御部140が撮像画像から認識し復号できれば制限はない。サイズの単位は任意であり、例えば図17に例示するように、第1カメラ61及び第2カメラ62の撮像画像におけるドット数(画素数)で表すことができる。特徴量は、認証に用いる画像の特徴量等である。例えば、物体の画像を認証に用いる場合に、この物体を撮像した場合の撮像画像の色、形状、その他の特徴を示す特徴量が使用者情報テーブル120Cに含まれる。この場合、設定部183は、第1カメラ61及び/又は第2カメラ62の撮像画像データから物体の画像を抽出する処理を行い、抽出した画像の特徴量を算出し、算出した特徴量と、使用者情報テーブル120Cに含まれる特徴量とを比較照合する。特徴量が近い値であり、或いは同一である場合は、認証成功と判定できる。   In the user information table 120C illustrated in FIG. 17, the registered image information includes data regarding the size of the image detected from the captured image, the feature amount, and the text and code included in the image. The text code is text that the control unit 140 can recognize by image recognition, and information encoded by a barcode, a two-dimensional code, or the like. The type of code is not limited as long as the control unit 140 can recognize and decode the captured image. The unit of size is arbitrary, and can be represented by the number of dots (the number of pixels) in the images captured by the first camera 61 and the second camera 62, for example, as illustrated in FIG. The feature amount is a feature amount of an image used for authentication. For example, when an image of an object is used for authentication, the user information table 120C includes the characteristic amount indicating the color, shape, and other characteristics of the captured image when the object is captured. In this case, the setting unit 183 performs the process of extracting the image of the object from the imaged image data of the first camera 61 and/or the second camera 62, calculates the feature amount of the extracted image, and the calculated feature amount, The feature amount included in the user information table 120C is compared and collated. When the feature values are close or the same, it can be determined that the authentication is successful.

使用者情報テーブル120Cは、例えば、上記第1実施形態で図6を参照して説明した情報登録モードの動作で、手の画像に代えて物体等を撮像した撮像画像を登録することで、生成できる。
すなわち、図6のステップS1でシルエット画像を表示する処理に代えて、画像の位置の指標となる基準線SP(図18)を表示し、ステップS2で撮像を実行し、ステップS3で撮像画像からサイズと特徴量とを含む登録画像情報を算出する。そして、ステップS4で設定情報を算出し、ステップS5で、設定情報を登録画像情報に対応づけて記憶すればよい。
The user information table 120C is generated by registering a captured image of an object or the like instead of the image of the hand in the operation of the information registration mode described with reference to FIG. 6 in the first embodiment, for example. it can.
That is, instead of the process of displaying the silhouette image in step S1 of FIG. 6, the reference line SP (FIG. 18) that is an index of the position of the image is displayed, the image is executed in step S2, and the image is captured in step S3. The registered image information including the size and the feature amount is calculated. Then, the setting information may be calculated in step S4, and the setting information may be stored in association with the registered image information in step S5.

図18には認証に用いる画像の例を示す。図18(A)では使用者の手の軌跡を、認証に利用する。制御部140は、視野VAに位置する表示領域Tに、基準線SPを表示する。使用者は基準線SPを目安にして手を動かし、制御部140は第1カメラ61及び/又は第2カメラ62の撮像画像(以下、単に撮像画像という)から手の軌跡の画像を抽出する。図18(A)の例では、「YAMADA」という氏名のサインを描くような手の軌跡を示す。この軌跡の画像O1について、制御部140は、サイズ及び特徴量を算出する。また、画像O1について画像テキスト認識処理を実行し、テキストを得てもよい。   FIG. 18 shows an example of an image used for authentication. In FIG. 18A, the trajectory of the user's hand is used for authentication. The control unit 140 displays the reference line SP in the display area T located in the visual field VA. The user moves his or her hand with the reference line SP as a guide, and the control unit 140 extracts an image of the trajectory of the hand from the imaged image of the first camera 61 and/or the second camera 62 (hereinafter, simply referred to as an imaged image). In the example of FIG. 18A, a locus of a hand that draws a signature with the name “YAMADA” is shown. The control unit 140 calculates the size and the feature amount of the image O1 of this trajectory. Alternatively, the image text recognition process may be executed on the image O1 to obtain the text.

図18(B)は、可搬の物体の画像を認証に用いる例として、時計の画像を認証に用いる例を示す。使用者は、時計が表示領域Tの基準線SPの位置に重なるように、顔の向きや時計の位置を調整する。制御部140は、撮像画像から時計の画像O2を抽出して認証に用いる。時計に限らず、使用者が手に持って移動可能な物体であれば、時計と同様に認証に利用できる。
図18(C)は、不動産などの可搬でない物体や風景の画像を認証に用いる例を示す。図18(C)では建物が基準線SPに重なるように、使用者が移動すればよい。この場合、制御部140は、撮像画像から建物あるいは風景の画像O3を抽出し、サイズ及び特徴量を算出する。
その他の例としては、例えば、数字やコードが印刷されたIDカード、自動車や自転車等の乗り物あるいは移動体、衣服や装飾品等、第1カメラ61または第2カメラ62で撮像可能なものであればよい。
このように、第5実施形態で認証に使用される画像は、手等の物体の動きや、可搬型であるか可搬でないかを問わず物体の画像を用いることができ、特定の1つの物体に限らず複数の物体で構成される風景の画像であってもよい。
FIG. 18B illustrates an example in which an image of a watch is used for authentication as an example in which an image of a portable object is used for authentication. The user adjusts the orientation of the face and the position of the clock so that the clock overlaps the position of the reference line SP of the display area T. The control unit 140 extracts the clock image O2 from the captured image and uses it for authentication. Not limited to a watch, any object that can be held and moved by a user can be used for authentication in the same manner as a watch.
FIG. 18C shows an example in which an image of a non-portable object such as a real estate or a landscape is used for authentication. In FIG. 18C, the user may move so that the building overlaps the reference line SP. In this case, the control unit 140 extracts the image O3 of the building or the landscape from the captured image and calculates the size and the feature amount.
As another example, for example, an ID card on which numbers or codes are printed, a vehicle or a moving body such as an automobile or a bicycle, clothes or accessories, and the like, which can be imaged by the first camera 61 or the second camera 62, can be used. Good.
As described above, the image used for authentication in the fifth embodiment can be the motion of an object such as a hand or the image of the object regardless of whether it is portable or not, and a specific one The image of the landscape is not limited to the object but may be a plurality of objects.

使用者情報テーブル120Cが記憶部120に記憶された状態で、図16の使用者特定モードを実行できる。
図16のステップS51の処理は、図6のステップS1、或いは図8のステップS11と同様の処理であり、シルエット画像Sに代えて基準線SPが表示される。第5実施形態では認証に用いる画像のサイズや形状が様々であるため、例えば図18に示した基準線SPのように中央位置を示す基準線SPを用いると効率がよい。
With the user information table 120C stored in the storage unit 120, the user identification mode of FIG. 16 can be executed.
The process of step S51 of FIG. 16 is the same as step S1 of FIG. 6 or step S11 of FIG. 8, and instead of the silhouette image S, the reference line SP is displayed. In the fifth embodiment, since the size and shape of the image used for authentication are various, it is efficient to use the reference line SP indicating the center position like the reference line SP shown in FIG. 18, for example.

生体情報検出部181は、基準線SPを表示制御部170に出力して、画像表示部20により表示させる(ステップS51)。使用者は、基準線SPを視認しながら手を動かし、或いは物体が視認されるように移動し、撮像を指示する。生体情報検出部181は、使用者の操作を検出すると、第1カメラ61及び/又は第2カメラ62に撮像を実行させる(ステップS52)。撮像画像は生体情報検出部181に入力され、生体情報検出部181は、撮像画像を画像処理して、認証用の画像情報を抽出する(ステップS53)。   The biological information detection unit 181 outputs the reference line SP to the display control unit 170 and causes the image display unit 20 to display it (step S51). The user moves the hand while visually recognizing the reference line SP, or moves so as to visually recognize the object, and instructs the imaging. When the biological information detection unit 181 detects a user operation, the biological information detection unit 181 causes the first camera 61 and/or the second camera 62 to perform imaging (step S52). The captured image is input to the biometric information detection unit 181, and the biometric information detection unit 181 performs image processing on the captured image and extracts image information for authentication (step S53).

使用者特定モードにおいて、設定部183には、生体情報検出部181から画像情報が入力される。
設定部183は、生体情報検出部181から画像情報が入力されると、照合処理に使用する画像情報を選択する(ステップS54)。設定部183は、生体情報検出部181が抽出した画像情報の中から、照合に使用する1又は複数の画像情報を選択する(ステップS55)。これにより、照合に使用する画像情報が間引きされる。設定部183は、認証に用いる画像情報を選択すると、選択した画像情報のサイズ、特徴量、テキストやコード等が一致または近似する登録画像情報を、使用者情報テーブル120Cから読み出して、照合処理を行う(ステップS56)。複数の画像情報を認証用の画像情報として選択した場合、ステップS56で、設定部183は、選択したすべての画像情報について照合処理を行ってもよい。
In the user identification mode, the image information is input to the setting unit 183 from the biometric information detection unit 181.
When the image information is input from the biometric information detection unit 181, the setting unit 183 selects the image information used for the matching process (step S54). The setting unit 183 selects one or a plurality of image information used for matching from the image information extracted by the biometric information detection unit 181 (step S55). As a result, the image information used for matching is thinned out. When the setting unit 183 selects the image information to be used for the authentication, the setting unit 183 reads out the registered image information in which the size, the feature amount, the text, the code, and the like of the selected image information match or approximate from each other, and performs the matching process. Perform (step S56). When a plurality of pieces of image information are selected as the image information for authentication, the setting unit 183 may perform the matching process on all the selected image information in step S56.

設定部183は、照合処理により画像情報が登録画像情報に一致したか否かを判定する(ステップS57)。一致しないと判定した場合(ステップS57/NO)、設定部183は、画像表示部20が表示する基準線SPに、ガイド表示を追加表示させる(ステップS58)。ガイド表示は、例えば、照合処理において設定部183が、一致度が高いと判定した画像情報の輪郭線を用いることができる。ガイド表示を表示した後、ステップS53に戻る。   The setting unit 183 determines whether the image information matches the registered image information by the matching process (step S57). When it is determined that they do not match (step S57/NO), the setting unit 183 additionally displays the guide display on the reference line SP displayed by the image display unit 20 (step S58). For the guide display, for example, the contour line of the image information that the setting unit 183 determines to have a high degree of matching in the matching process can be used. After displaying the guide display, the process returns to step S53.

照合処理により画像情報と登録画像情報とが一致したと判定した場合(ステップS57/YES)、設定部183は、設定情報を使用者情報テーブル120Cから読み出す(ステップS59)。この設定情報は、画像情報に一致度が高いと判定された登録画像情報に対応付けられた設定情報である。設定部183は、読み出した設定情報に基づいて、表示データの表示位置又はサイズを補正する補正係数を算出する。設定部183は、眼間距離と、輻輳角と、眼と光学素子の相対距離と、光学素子の角度との少なくとも1つに基づいて、表示データの表示位置又はサイズを補正する補正係数を算出する。設定部183は、補正係数を算出すると、算出した補正係数を位置検出部185に出力する。
位置検出部185は、対象検出部184が撮像画像から検出した対象物の画像について、表示領域に対する位置とサイズとを検出する。位置検出部185は、表示領域に対する位置とサイズとを検出すると、検出した位置及びサイズを、設定部183から渡された補正係数に基づいて補正する(ステップS60)。情報表示制御部186は、対象検出部184が検出した対象物について、位置検出部185が補正係数に基づいて補正した位置及び/又はサイズ等に基づき、表示データの表示位置を決定する。その後、情報表示制御部186は、表示データを表示制御部170に出力し、画像表示部20により表示を実行させる。
When it is determined by the collation processing that the image information and the registered image information match (step S57/YES), the setting unit 183 reads the setting information from the user information table 120C (step S59). This setting information is the setting information associated with the registered image information determined to have a high degree of coincidence with the image information. The setting unit 183 calculates a correction coefficient for correcting the display position or size of the display data based on the read setting information. The setting unit 183 calculates a correction coefficient that corrects the display position or size of the display data based on at least one of the inter-eye distance, the vergence angle, the relative distance between the eye and the optical element, and the angle of the optical element. To do. After calculating the correction coefficient, the setting unit 183 outputs the calculated correction coefficient to the position detection unit 185.
The position detection unit 185 detects the position and size with respect to the display area of the image of the object detected by the object detection unit 184 from the captured image. When the position detection unit 185 detects the position and size with respect to the display area, the position detection unit 185 corrects the detected position and size based on the correction coefficient passed from the setting unit 183 (step S60). The information display control unit 186 determines the display position of the display data for the object detected by the object detection unit 184, based on the position and/or size corrected by the position detection unit 185 based on the correction coefficient. After that, the information display control unit 186 outputs the display data to the display control unit 170 and causes the image display unit 20 to perform display.

このように、頭部装着型表示装置100では、第1から第4実施形態で説明した掌線情報等の生体情報に代えて、物体を撮像した撮像画像から抽出される画像に係る情報を、認証に用いることができる。このため、一人の人間に対し一通りの対応付けが可能な生体情報を用いる場合とは異なり一人の人間に対し複数の設定情報を対応付けて、使用者情報テーブル120Cに登録できる。従って、より幅広い設定情報を使用者が使用できる。   As described above, in the head-mounted display device 100, instead of the biometric information such as the palm line information described in the first to fourth embodiments, the information related to the image extracted from the captured image of the object is displayed. It can be used for authentication. Therefore, unlike the case of using the biometric information that can be normally associated with one person, a plurality of setting information can be associated with one person and registered in the user information table 120C. Therefore, a wider range of setting information can be used by the user.

第5実施形態の画像情報、及び、登録画像情報は、生体情報以外の情報であって、物体を撮像した撮像画像から抽出、検出、あるいは算出される情報である。より具体的には、撮像画像から抽出される物体の画像に基づき得られる情報であり、この物体には生体を含み、移動可能な物体、建物等の移動不可能な物体、及び、複数の物体を含む景色を含む。物体の画像に基づき得られる情報(画像情報)は、指紋、掌紋、顔貌等の生体の個体に特有の画像的特徴を含まない。例えば、画像情報単独では生体の個体を特定できないことが好ましい。
別の表現をすれば、画像情報としては、撮像画像に写る物体の外形あるいは輪郭を抽出することにより得られる物体の形状、撮像画像に写る物体の色、複数の撮像画像から得られる物体の形状の変化、複数の撮像画像から得られる物体の位置の軌跡などが挙げられる。
The image information and registered image information of the fifth embodiment are information other than biometric information, and are information extracted, detected, or calculated from a captured image of an object. More specifically, it is information obtained based on an image of an object extracted from a captured image, and this object includes a living body and is movable, an immovable object such as a building, and a plurality of objects. Including scenery including. The information (image information) obtained based on the image of the object does not include image features such as fingerprints, palm prints, facial features and the like that are peculiar to an individual living body. For example, it is preferable that the individual living body cannot be identified by the image information alone.
In other words, as the image information, the shape of the object obtained by extracting the outline or contour of the object shown in the captured image, the color of the object shown in the captured image, the shape of the object obtained from multiple captured images And the locus of the position of the object obtained from a plurality of captured images.

これらの観点から、第2識別情報として挙げた画像情報は、例えば、生体の個体識別が不可能な非生体固有情報ということができる。また、画像情報は、物体の外観から得られる外観情報、物体としての建物を含む撮像画像から建物の形状を含む情報を抽出した外景情報、識別用の非生物の物体を撮像した撮像画像から抽出される識別用物体情報、移動する物体を連続撮影した場合の軌跡に係る軌跡情報、等のいずれかを含む情報ということもできるが、指紋、掌紋、顔貌等の生体の個体に特有の画像的特徴を含まない情報であれば限定されない。   From these viewpoints, the image information mentioned as the second identification information can be referred to as non-living body unique information that cannot identify an individual living body, for example. Also, image information is extracted from appearance information obtained from the appearance of an object, outside scene information obtained by extracting information including the shape of a building from a captured image including a building as an object, and captured image obtained by capturing an inanimate object for identification. It can be said that the information includes any one of the identification object information described above and the trajectory information related to the trajectory when a moving object is continuously photographed. However, it is an image unique to an individual living body such as a fingerprint, a palm print, or a facial expression. The information is not limited as long as the information does not include the characteristics.

[第6実施形態]
図19は、第6実施形態における頭部装着型表示装置100の動作を示すフローチャートである。また、図20は第5実施形態の頭部装着型表示装置100が、使用者情報テーブル120Aに代えて記憶部120に記憶する使用者情報テーブル120Dの構成例を示す図である。第6実施形態の頭部装着型表示装置100において、上記第1実施形態と共通する構成部には同符号を付して図示及び説明を省略する。
[Sixth Embodiment]
FIG. 19 is a flowchart showing the operation of the head-mounted display device 100 according to the sixth embodiment. 20 is a diagram showing a configuration example of a user information table 120D stored in the storage unit 120 in the head-mounted display device 100 of the fifth embodiment instead of the user information table 120A. In the head-mounted display device 100 of the sixth embodiment, the same components as those of the first embodiment are designated by the same reference numerals, and illustration and description thereof will be omitted.

上記第1から第4実施形態で、頭部装着型表示装置100は、掌線情報などの生体情報を、使用者を特定する処理に利用する。また、上記第5実施形態では、頭部装着型表示装置100は、生体情報以外の情報を利用する。
本第6実施形態では、第5実施形態で説明した生体情報以外の情報と、第1から第4実施形態で説明した生体情報とを組み合わせて、認証に利用する例を説明する。
第6実施形態の認証において参照するテーブルは、図20に示すように、生体情報と画像情報との組み合わせに対応付けて、設定情報を登録した構成である。
In the first to fourth embodiments, the head-mounted display device 100 uses biometric information such as palm line information for the process of identifying the user. In addition, in the fifth embodiment, the head-mounted display device 100 uses information other than biometric information.
In the sixth embodiment, an example will be described in which information other than the biometric information described in the fifth embodiment and the biometric information described in the first to fourth embodiments are combined and used for authentication.
The table referred to in the authentication of the sixth embodiment has a configuration in which setting information is registered in association with a combination of biometric information and image information, as shown in FIG.

図20の使用者情報テーブル120Dは、認証に利用する画像に関する登録画像情報と、設定情報とを対応付けて記憶する。登録画像情報は、使用者情報テーブル120Aにおける生体情報に対応し、使用者IDに対応付けられる。登録画像情報は、第1カメラ61及び第2カメラ62の撮像画像から、予め登録された画像を検出し、検出した画像との一致性を判定する場合に利用される情報である。   The user information table 120D of FIG. 20 stores registered image information relating to an image used for authentication and setting information in association with each other. The registered image information corresponds to the biometric information in the user information table 120A and is associated with the user ID. The registered image information is information used when detecting a preregistered image from the images captured by the first camera 61 and the second camera 62 and determining the matching with the detected image.

図20に例示する使用者情報テーブル120Dでは、使用者情報テーブル120A(図5(A))と同様に、使用者IDに対応づけて登録生体情報が登録される。また、使用者情報テーブル120Dでは、使用者情報テーブル120C(図17)と同様に、使用者IDに対応付けて登録画像情報が登録される。登録生体情報、登録画像情報、及び設定情報の構成は上述した各実施形態と同様である。   In the user information table 120D illustrated in FIG. 20, similar to the user information table 120A (FIG. 5A), the registered biometric information is registered in association with the user ID. Further, in the user information table 120D, similar to the user information table 120C (FIG. 17), registered image information is registered in association with the user ID. The configurations of the registered biometric information, the registered image information, and the setting information are the same as those in the above-described embodiments.

使用者情報テーブル120Dでは、1つの使用者IDに対し、登録生体情報が対応付けられる。また、1つの使用者ID及び登録生体情報に対し、複数の登録画像情報が対応付けられる。そして、登録生体情報に対応付けて設定情報が登録される。そして、使用者情報テーブル120Dでは、登録生体情報と登録画像情報の組合せに対応付けて、設定情報が登録される。例えば、同一の登録画像情報を、異なる登録生体情報に対応付けてもよい。   In the user information table 120D, the registered biometric information is associated with one user ID. Also, a plurality of registered image information is associated with one user ID and registered biometric information. Then, the setting information is registered in association with the registered biometric information. Then, in the user information table 120D, the setting information is registered in association with the combination of the registered biometric information and the registered image information. For example, the same registered image information may be associated with different registered biometric information.

使用者情報テーブル120Dを用いて認証を行う場合の動作を、図19に示す。図19において、ステップS60の処理は、第5実施形態で図16を参照して説明した処理と共通である。   FIG. 19 shows the operation when authentication is performed using the user information table 120D. In FIG. 19, the process of step S60 is the same as the process described with reference to FIG. 16 in the fifth embodiment.

図19の動作では、生体情報と、画像情報との2種類の情報を、使用者情報テーブル120Dに登録された情報と照合し、これら2種類の情報の組合せに対応する設定情報を読み出す。生体情報と画像情報とのいずれか一方を第1識別情報として先に照合し、その照合に成功した後、他方を第2識別情報として照合する。画像情報を第1識別情報とし、生体情報を第2識別情報としてもよいし、その逆であってもよい。
図20に例示する使用者情報テーブル120Dは、同一の登録画像情報を、異なる登録生体情報に対応付けてもよい構成となっているのに対し、生体情報は使用者IDに対し一意で対応付けられる。従って、第6実施形態では、第1識別情報として生体情報を照合することが、より好ましい。この例について以下、説明する。
In the operation of FIG. 19, two types of information, that is, biometric information and image information, are collated with the information registered in the user information table 120D, and the setting information corresponding to the combination of these two types of information is read. Either one of the biometric information and the image information is collated first as the first identification information, and after the collation is successful, the other is collated as the second identification information. The image information may be the first identification information and the biometric information may be the second identification information, or vice versa.
The user information table 120D illustrated in FIG. 20 has a configuration in which the same registered image information may be associated with different registered biometric information, whereas the biometric information is uniquely associated with a user ID. Be done. Therefore, in the sixth embodiment, it is more preferable to collate the biometric information as the first identification information. This example will be described below.

図19のステップS71の処理は、図6のステップS1、図8のステップS11、亜流胃は図16のステップS51と同様の処理であり、シルエット画像Sまたは基準線SPが表示される。第1識別情報として生体情報を利用する例ではシルエット画像Sが表示される。なお、第1識別情報として画像情報を利用する例では基準線SPが表示される。   The process of step S71 of FIG. 19 is the same as the process of step S1 of FIG. 6, step S11 of FIG. 8 and sub-flow stomach of step S51 of FIG. 16, and the silhouette image S or the reference line SP is displayed. In the example in which biometric information is used as the first identification information, the silhouette image S is displayed. In addition, in the example in which the image information is used as the first identification information, the reference line SP is displayed.

生体情報検出部181は、シルエット画像Sを表示制御部170に出力して、画像表示部20により表示させる(ステップS72)。使用者は、シルエット画像Sを視認しながら手の位置を調整して操作部111を操作し、手Rの画像の撮像を指示する。生体情報検出部181は、操作部111の操作が入力されると、第1カメラ61に、使用者の手Rの画像を撮像させる(ステップS73)。第1カメラ61の撮像画像は、生体情報検出部181に入力され、生体情報検出部181は、撮像画像を画像処理して、生体情報を抽出する(ステップS74)。   The biometric information detection unit 181 outputs the silhouette image S to the display control unit 170 and displays it on the image display unit 20 (step S72). The user adjusts the position of the hand while observing the silhouette image S and operates the operation unit 111 to instruct to capture an image of the hand R. When the operation of the operation unit 111 is input, the biological information detection unit 181 causes the first camera 61 to capture an image of the hand R of the user (step S73). The captured image of the first camera 61 is input to the biological information detection unit 181, and the biological information detection unit 181 performs image processing on the captured image to extract biological information (step S74).

設定部183は、生体情報検出部181から入力生体情報が入力されると、照合処理に使用する生体情報を選択する(ステップS75)。設定部183は、生体情報に含まれる複数の掌線情報の中から、照合に使用する1又は複数の掌線情報を選択し、選択した掌線情報の始点座標及び終点座標に最も座標が近い掌線情報を使用者情報テーブルから読み出して、照合処理を行う(ステップS76)。
設定部183は、使用者情報テーブルから取り出した掌線情報の長さ比及び/又は曲率と、入力生体情報から選択した掌線情報の長さ比及び/又は曲率との照合を行う。設定部183は、選択したすべての掌線情報について照合処理を行う(ステップS77)。照合処理により長さ比及び/又は曲率の一致度がしきい値よりも低い、すなわち、一致しないと判定されると(ステップS77/NO)、設定部183は、認証が成功しなかったことを示すエラーメッセージを出力して(ステップS78)、ステップS73に戻る。ここで、設定部183は、画像表示部20が表示するシルエット画像Sに、ガイド表示を追加表示させてもよい。ガイド画像については図8のステップS17について説明した通りである。
When the input biometric information is input from the biometric information detection unit 181, the setting unit 183 selects the biometric information used for the matching process (step S75). The setting unit 183 selects one or more pieces of palm line information to be used for matching from the plurality of pieces of palm line information included in the biometric information, and the coordinates are closest to the starting point coordinates and the ending point coordinates of the selected palm line information. The palm line information is read out from the user information table and collation processing is performed (step S76).
The setting unit 183 collates the length ratio and/or the curvature of the palm line information extracted from the user information table with the length ratio and/or the curvature of the palm line information selected from the input biometric information. The setting unit 183 performs collation processing for all the selected palm line information (step S77). If the matching process determines that the matching ratio of the length ratio and/or the curvature is lower than the threshold value, that is, it is determined that they do not match (step S77/NO), the setting unit 183 determines that the authentication has not succeeded. The error message shown is output (step S78), and the process returns to step S73. Here, the setting unit 183 may additionally display the guide display on the silhouette image S displayed by the image display unit 20. The guide image is as described in step S17 of FIG.

照合処理により、長さ比及び/又は曲率の一致度がしきい値よりも高いと判定されると(ステップS77/YES)、制御部140は、第2識別情報である画像情報の認証を開始する(ステップS81)。すなわち、制御部140は、画像情報の認識開始のメッセージを出力する。   When the matching process determines that the matching ratio of the length ratio and/or the curvature is higher than the threshold value (step S77/YES), the control unit 140 starts authentication of the image information that is the second identification information. Yes (step S81). That is, the control unit 140 outputs a message to start recognition of image information.

設定部183は、ステップS76で照合し一致したと判定した生体情報に対応付けて使用者情報テーブル120Dに登録された1または複数の画像情報を取得する(ステップS82)。これにより、認証を効率よく実行できる。   The setting unit 183 acquires one or a plurality of pieces of image information registered in the user information table 120D in association with the biometric information determined to match in step S76 (step S82). Thereby, the authentication can be executed efficiently.

生体情報検出部181は、基準線SPを表示制御部170に出力して、画像表示部20により表示させる(ステップS83)。使用者は、基準線SPを視認しながら手を動かし、或いは物体が視認されるように移動し、撮像を指示する。生体情報検出部181は、使用者の操作を検出すると、第1カメラ61及び/又は第2カメラ62に撮像を実行させる(ステップS84)。撮像画像は生体情報検出部181に入力され、生体情報検出部181は、撮像画像を画像処理して、認証用の画像情報を抽出する(ステップS85)。   The biometric information detection unit 181 outputs the reference line SP to the display control unit 170 and causes the image display unit 20 to display it (step S83). The user moves the hand while visually recognizing the reference line SP, or moves so as to visually recognize the object, and instructs the imaging. When the biometric information detection unit 181 detects a user's operation, the biometric information detection unit 181 causes the first camera 61 and/or the second camera 62 to perform imaging (step S84). The captured image is input to the biometric information detection unit 181, and the biometric information detection unit 181 performs image processing on the captured image and extracts image information for authentication (step S85).

使用者特定モードにおいて、設定部183には、生体情報検出部181から画像情報が入力される。設定部183は、生体情報検出部181から画像情報が入力されると、ステップS82で取得した登録画像情報のうち、入力された画像情報のサイズ、特徴量、テキストやコード等が一致または近似する登録画像情報を照合する(ステップS86)。   In the user identification mode, the image information is input to the setting unit 183 from the biometric information detection unit 181. When the image information is input from the biometric information detection unit 181, the setting unit 183 matches or approximates the size, feature amount, text, code, etc. of the input image information among the registered image information acquired in step S82. The registered image information is collated (step S86).

設定部183は、照合処理により画像情報と一致した登録画像情報に対応する設定情報を、使用者情報テーブル120Dから読み出す(ステップS87)。設定部183は、読み出した設定情報に基づいて、表示データの表示位置又はサイズを補正する補正係数を算出する。設定部183は、眼間距離と、輻輳角と、眼と光学素子の相対距離と、光学素子の角度との少なくとも1つに基づいて、表示データの表示位置又はサイズを補正する補正係数を算出する。設定部183は、補正係数を算出すると、算出した補正係数を位置検出部185に出力する。
位置検出部185は、対象検出部184が撮像画像から検出した対象物の画像について、表示領域に対する位置とサイズとを検出する。位置検出部185は、表示領域に対する位置とサイズとを検出すると、検出した位置及びサイズを、設定部183から渡された補正係数に基づいて補正する(ステップS60)。情報表示制御部186は、対象検出部184が検出した対象物について、位置検出部185が補正係数に基づいて補正した位置及び/又はサイズ等に基づき、表示データの表示位置を決定する。その後、情報表示制御部186は、表示データを表示制御部170に出力し、画像表示部20により表示を実行させる。
The setting unit 183 reads, from the user information table 120D, the setting information corresponding to the registered image information that matches the image information by the matching process (step S87). The setting unit 183 calculates a correction coefficient for correcting the display position or size of the display data based on the read setting information. The setting unit 183 calculates a correction coefficient that corrects the display position or size of the display data based on at least one of the inter-eye distance, the vergence angle, the relative distance between the eye and the optical element, and the angle of the optical element. To do. After calculating the correction coefficient, the setting unit 183 outputs the calculated correction coefficient to the position detection unit 185.
The position detection unit 185 detects the position and size with respect to the display area of the image of the object detected by the object detection unit 184 from the captured image. When the position detection unit 185 detects the position and size with respect to the display area, the position detection unit 185 corrects the detected position and size based on the correction coefficient passed from the setting unit 183 (step S60). The information display control unit 186 determines the display position of the display data for the object detected by the object detection unit 184 based on the position and/or the size corrected by the position detection unit 185 based on the correction coefficient. After that, the information display control unit 186 outputs the display data to the display control unit 170 and causes the image display unit 20 to perform display.

第6実施形態で説明したように、生体情報と画像情報との組合せに対し設定情報を対応付けて使用者情報テーブル120Dに登録することで、一人の使用者に対し、複数の設定情報を対応付けて記憶できる。そして、これらの設定情報を選択して使用する際に、簡易認証を行うことで、セキュリティを確保し、かつ、容易に設定情報を使用して、使用者にとって適切な設定を実現できる。
この構成では、使用者が、自身の生体情報に対応付けて記憶された複数の設定情報を使い分けることができる。例えば、掌線情報により認証を行った後で、第1カメラ61により、ランニングシューズを撮像する場合と、建物を撮像する場合と、氏名のサインに沿って手を動かす場合とで、異なる設定情報を呼び出して設定できる。従って、頭部装着型表示装置100を使用する用途、状況、場所等に応じて設定情報を切り替えることができる。
そして、生体情報と画像情報とを利用して2段階で設定情報を特定するので、より多くの設定を記憶し、効率よく設定情報を選択して利用できる。
As described in the sixth embodiment, the setting information is associated with the combination of the biometric information and the image information and registered in the user information table 120D, so that a plurality of setting information can be associated with one user. Can be attached and memorized. Then, when the setting information is selected and used, simple authentication is performed, so that security can be secured and the setting information can be easily used to realize an appropriate setting for the user.
With this configuration, the user can properly use the plurality of setting information stored in association with his/her biometric information. For example, after the authentication is performed using the palm line information, different setting information may be obtained depending on whether the first camera 61 captures an image of running shoes, an image of a building, or a case where a hand is moved along a name sign. Can be set by calling. Therefore, the setting information can be switched according to the use, the situation, the place, etc. of the head-mounted display device 100.
Since the setting information is specified in two steps using the biometric information and the image information, more settings can be stored and the setting information can be efficiently selected and used.

第6実施形態では、図19に示したように、設定部183が、最初に生体情報検出部181から入力された入力生体情報(第1識別情報)を用いた照合を行い、その後、生体情報検出部181から入力される画像情報(第2識別情報)を用いて照合を行って、設定情報を読み出す例を説明した。
詳細には、第1識別情報としての入力生体情報が入力され、設定部183は、入力生体情報を選択して照合処理を行う(ステップS72〜S77)。その後、第2識別情報としての画像情報が入力され、画像情報に基づく照合が行われ(ステップS83〜S86)、設定情報が使用者情報テーブル120Dから読み出される(ステップS87)。
本発明の実施態様は、図19に示した動作を実行する構成に限定されない。例えば、設定部183は、ステップS75の動作の前に、ステップS83〜S86と同様に第2識別情報の取得及び使用者情報テーブル120Dとの照合を行ってもよい。その後、設定部183は、ステップS72〜S77の動作を行って第1識別情報を用いた照合を行い、この照合の結果に基づき、ステップS87で設定情報を読み出してもよい。この場合も、第6実施形態で説明した構成と同様の効果を得ることができる。
In the sixth embodiment, as shown in FIG. 19, the setting unit 183 first performs matching using the input biometric information (first identification information) input from the biometric information detection unit 181, and then performs biometric information. An example has been described in which image information (second identification information) input from the detection unit 181 is used to perform matching and read setting information.
Specifically, the input biometric information as the first identification information is input, and the setting unit 183 selects the input biometric information and performs the matching process (steps S72 to S77). After that, the image information as the second identification information is input, collation based on the image information is performed (steps S83 to S86), and the setting information is read from the user information table 120D (step S87).
The embodiment of the present invention is not limited to the configuration for performing the operation shown in FIG. For example, the setting unit 183 may perform the acquisition of the second identification information and the collation with the user information table 120D as in steps S83 to S86 before the operation of step S75. After that, the setting unit 183 may perform the operations of steps S72 to S77 to perform matching using the first identification information, and based on the result of this matching, read the setting information in step S87. Also in this case, the same effect as the configuration described in the sixth embodiment can be obtained.

上述した第1〜第6実施形態の構成は、それぞれ単独で実施されるだけでなく、組み合わせて適用することも可能である。
第1実施形態では、識別情報としての生体情報を用いた認証を行って、生体情報に対応付けて記憶した設定情報を利用し、表示を制御する例を説明した。また、第2実施形態では、識別情報を用いた認証に成功した場合に、使用者に対し確認を求める動作について説明した。第3実施形態では、識別情報に基づいて特定した設定情報に基づく設定を行うまでの間、画像表示部20における表示を片眼表示とする動作について説明した。また、第4実施形態では、識別情報としての生体情報の照合に失敗した場合に、使用者の入力操作に応じて新規登録などを実行する例について説明した。また、第5実施形態では、頭部装着型表示装置100が、識別情報として、生体情報以外の情報、例えば一般的な画像を利用して認証を行い、記憶した設定情報を特定し、画像表示部20の表示を制御する例について説明した。また、第6実施形態では、第5実施形態で説明した生体情報以外の情報と、第1から第4実施形態で説明した生体情報とを組み合わせて、認証に利用する例を説明した。また、第5、第6実施形態で、記憶部120に記憶する使用者情報テーブルの例として、生体情報と画像情報との組み合わせに対応付けて、設定情報を登録した構成を示した。
本発明は、各実施形態で説明した構成を組み合わせて実行することが可能である。例えば、第5、第6実施形態において説明したように、識別情報として、生体情報以外の情報を利用する構成において、第3実施形態で説明したように、設定情報に基づき画像表示部20の表示を制御するまでの間、片眼表示を行ってもよい。また、例えば、第3、第5〜第6実施形態の構成において、第2実施形態で説明したように、認証に成功した場合に使用者に対し確認を求める動作を行ってもよい。また、例えば、第3、第5〜第6実施形態の構成において、第4実施形態で説明したように、識別情報の照合に失敗した場合に、使用者の入力操作に応じて新規登録などを実行してもよい。さらに、本発明を適用する実施態様は、上記に例示する以外の実施形態の構成の組合せとすることも可能であり、その選択は制限されない。
The configurations of the above-described first to sixth embodiments can be applied not only individually, but also in combination.
In the first embodiment, an example has been described in which the authentication is performed using the biometric information as the identification information, the setting information stored in association with the biometric information is used, and the display is controlled. Further, in the second embodiment, the operation for asking the user for confirmation when the authentication using the identification information is successful has been described. In the third embodiment, the operation in which the display on the image display unit 20 is the one-eye display until the setting based on the setting information specified based on the identification information is performed has been described. Further, in the fourth embodiment, an example has been described in which, when collation of biometric information as identification information fails, new registration or the like is executed according to an input operation by the user. Further, in the fifth embodiment, the head-mounted display device 100 performs authentication using information other than biometric information, for example, a general image, as identification information, identifies stored setting information, and displays an image. The example of controlling the display of the unit 20 has been described. Further, in the sixth embodiment, an example in which information other than the biometric information described in the fifth embodiment and the biometric information described in the first to fourth embodiments are combined and used for authentication has been described. Further, in the fifth and sixth embodiments, as an example of the user information table stored in the storage unit 120, the configuration in which the setting information is registered in association with the combination of the biometric information and the image information is shown.
The present invention can be implemented by combining the configurations described in the embodiments. For example, as described in the fifth and sixth embodiments, in the configuration that uses information other than biometric information as the identification information, as described in the third embodiment, the display of the image display unit 20 based on the setting information is performed. Until one is controlled, one-eye display may be performed. Further, for example, in the configurations of the third, fifth, and sixth embodiments, as described in the second embodiment, an operation of asking the user for confirmation may be performed when the authentication is successful. Further, for example, in the configurations of the third, fifth, and sixth embodiments, as described in the fourth embodiment, when collation of identification information fails, new registration or the like is performed according to a user's input operation. You may execute. Further, the embodiment to which the present invention is applied can be a combination of the configurations of the embodiments other than those exemplified above, and the selection thereof is not limited.

なお、この発明は上記各実施形態の構成に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能である。
また、例えば、画像表示部20に代えて、例えば帽子のように装着する画像表示部等の他の方式の画像表示部を採用してもよく、使用者の左眼に対応して画像を表示する表示部と、使用者の右眼に対応して画像を表示する表示部とを備えていればよい。また、本発明の表示装置は、例えば、自動車や飛行機等の車両に搭載されるヘッドマウントディスプレイとして構成されてもよい。また、例えば、ヘルメット等の身体防護具に内蔵されたヘッドマウントディスプレイとして構成されてもよいし、自動車のフロントガラスに用いられるヘッドアップディスプレイ(Head-up Display;HUD)であってもよい。
The present invention is not limited to the configurations of the above-described embodiments, and can be implemented in various modes without departing from the scope of the invention.
Further, for example, instead of the image display unit 20, an image display unit of another system such as an image display unit worn like a hat may be adopted, and an image is displayed corresponding to the left eye of the user. It suffices to include a display unit that displays the image and a display unit that displays an image corresponding to the right eye of the user. Further, the display device of the present invention may be configured as, for example, a head mounted display mounted on a vehicle such as an automobile or an airplane. Further, for example, it may be configured as a head mount display built in a body protection tool such as a helmet, or may be a head-up display (HUD) used for a windshield of an automobile.

さらに、上記実施形態では、画像表示部20と制御装置10とが分離され、接続部40を介して接続された構成を例に挙げて説明したが、制御装置10と画像表示部20とが一体に構成され、使用者の頭部に装着される構成とすることも可能である。
また、制御装置10と画像表示部20とをより長いケーブルにより接続した場合に、制御装置10として、ノート型コンピューター、タブレット型コンピューター又はデスクトップ型コンピューターを用いてもよい。また、制御装置10として、ゲーム機や携帯型電話機やスマートフォンや携帯型メディアプレーヤーを含む携帯型電子機器、その他の専用機器等を用いてもよい。
Further, in the above-described embodiment, the image display unit 20 and the control device 10 are separated and connected to each other via the connection unit 40. However, the control device 10 and the image display unit 20 are integrated. It is also possible to adopt a configuration of being attached to the head of the user.
Moreover, when the control device 10 and the image display unit 20 are connected by a longer cable, a laptop computer, a tablet computer, or a desktop computer may be used as the control device 10. Further, as the control device 10, a portable electronic device including a game machine, a mobile phone, a smartphone, a mobile media player, or other dedicated device may be used.

また、例えば、画像表示部20において画像光を生成する構成として、有機EL(有機エレクトロルミネッセンス、Organic Electro-Luminescence)のディスプレイと、有機EL制御部とを備える構成としてもよい。また、画像光を生成する構成として、LCOS(Liquid crystal on silicon, LCoSは登録商標)や、デジタル・マイクロミラー・デバイス等を用いることもできる。また、例えば、レーザー網膜投影型のヘッドマウントディスプレイに対して本発明を適用することも可能である。すなわち、画像生成部が、レーザー光源と、レーザー光源を使用者の眼に導く光学系とを備え、レーザー光を使用者の眼に入射させて網膜上を走査し、網膜に結像させることにより、使用者に画像を視認させる構成を採用してもよい。レーザー網膜投影型のヘッドマウントディスプレイを採用する場合、「画像光生成部における画像光の射出可能領域」とは、使用者の眼に認識される画像領域として定義することができる。   Further, for example, the image display unit 20 may be configured to include an organic EL (Organic Electro-Luminescence) display and an organic EL control unit as a configuration for generating image light. Further, as a configuration for generating image light, LCOS (Liquid crystal on silicon, LCoS is a registered trademark), digital micromirror device, or the like can be used. Further, for example, the present invention can be applied to a laser retinal projection type head mounted display. That is, the image generation unit includes a laser light source and an optical system that guides the laser light source to the user's eye, causes the laser light to enter the user's eye, scans the retina, and forms an image on the retina. Alternatively, a configuration may be adopted in which the user visually recognizes the image. When a laser retinal projection type head mounted display is adopted, the “region where the image light can be emitted in the image light generating section” can be defined as an image region recognized by the eyes of the user.

画像光を使用者の眼に導く光学系としては、外部から装置に向けて入射する外光を透過する光学部材を備え、画像光とともに使用者の眼に入射させる構成を採用できる。また、使用者の眼の前方に位置して使用者の視界の一部または全部に重なる光学部材を用いてもよい。さらに、レーザー光等を走査させて画像光とする走査方式の光学系を採用してもよい。また、光学部材の内部で画像光を導光させるものに限らず、使用者の眼に向けて画像光を屈折及び/または反射させて導く機能のみを有するものであってもよい。   As an optical system that guides the image light to the user's eye, it is possible to adopt a configuration in which an optical member that transmits external light that is incident from the outside toward the device is transmitted and is incident on the user's eye together with the image light. Moreover, you may use the optical member located ahead of a user's eyes and overlapping a part or all of a user's visual field. Further, a scanning type optical system in which laser light or the like is scanned to form image light may be adopted. The optical member is not limited to the one that guides the image light inside, but may have only the function of refracting and/or reflecting the image light toward the eye of the user.

また、本発明を、MEMSミラーを用いた走査光学系を採用し、MEMSディスプレイ技術を利用した表示装置に適用することも可能である。すなわち、画像表示素子として、信号光形成部と、信号光形成部が射出する光を走査するMEMSミラーを有する走査光学系と、走査光学系により走査される光によって虚像が形成される光学部材とを備えてもよい。この構成では、信号光形成部が射出した光がMEMSミラーにより反射され、光学部材に入射し、光学部材の中を導かれて、虚像形成面に達する。MEMSミラーが光を走査することにより、虚像形成面に虚像が形成され、この虚像を使用者が眼で捉えることで、画像が認識される。この場合の光学部品は、例えば上記実施形態の右導光板261及び左導光板262のように、複数回の反射を経て光を導くものであってもよく、ハーフミラー面を利用してもよい。   Further, the present invention can be applied to a display device that employs a scanning optical system using a MEMS mirror and uses a MEMS display technology. That is, as an image display element, a signal light forming unit, a scanning optical system having a MEMS mirror that scans the light emitted by the signal light forming unit, and an optical member that forms a virtual image by the light scanned by the scanning optical system. May be provided. In this configuration, the light emitted from the signal light forming unit is reflected by the MEMS mirror, enters the optical member, is guided through the optical member, and reaches the virtual image forming surface. The MEMS mirror scans the light to form a virtual image on the virtual image forming surface, and the user recognizes the virtual image by the eye. The optical component in this case may be one that guides light through a plurality of reflections, such as the right light guide plate 261 and the left light guide plate 262 of the above-described embodiment, or may use a half mirror surface. ..

さらに、本発明の光学素子は、ハーフミラー261A、262Aを有する右導光板261、左導光板262に限定されず、画像光を使用者の眼に入射させる光学部品であればよく、具体的には、回折格子、プリズム、ホログラフィー表示部を用いてもよい。   Further, the optical element of the present invention is not limited to the right light guide plate 261 and the left light guide plate 262 having the half mirrors 261A and 262A, and may be any optical component that allows image light to enter the eyes of the user. May use a diffraction grating, a prism, or a holographic display unit.

また、本発明の表示装置は頭部装着型の表示装置に限定されず、フラットパネルディスプレイやプロジェクター等の各種の表示装置に適用できる。本発明の表示装置は、外光とともに画像光により画像を視認させるものであればよく、例えば、外光を透過させる光学部材により画像光による画像を視認させる構成が挙げられる。具体的には、上記のヘッドマウントディスプレイにおいて外光を透過する光学部材を備えた構成の他、使用者から離れた位置に固定的に、又は可動に設置された透光性の平面や曲面(ガラスや透明なプラスチック等)に画像光を投射する表示装置にも適用可能である。一例としては、車両の窓ガラスに画像光を投射し、乗車している使用者や車両の外にいる使用者に、画像光による画像とともに、車両内外の景色を視認させる表示装置の構成が挙げられる。また、例えば、建物の窓ガラスなど固定的に設置された透明また半透明、或いは有色透明な表示面に画像光を投射し、表示面の周囲にいる使用者に、画像光による画像とともに、表示面を透かして景色を視認させる表示装置の構成が挙げられる。   Further, the display device of the present invention is not limited to a head-mounted display device, and can be applied to various display devices such as a flat panel display and a projector. The display device of the present invention may be any device that allows an image to be visually recognized by the image light together with the external light, and includes, for example, a configuration in which the image by the image light is visually recognized by an optical member that transmits the external light. Specifically, in addition to the configuration including an optical member that transmits external light in the above head mounted display, a transparent plane or curved surface fixedly or movably installed at a position distant from the user ( It is also applicable to a display device that projects image light onto glass or transparent plastic). As an example, there is a configuration of a display device that projects image light on a window glass of a vehicle and allows a user who is in the vehicle or a user outside the vehicle to visually recognize the scenery inside and outside the vehicle together with the image by the image light. Be done. Further, for example, by projecting image light on a transparent, semi-transparent, or colored transparent display surface that is fixedly installed, such as a window glass of a building, the image light is displayed to the user around the display surface together with the image by the image light. There is a configuration of a display device that allows a scene to be viewed through a surface.

また、図4に示した各機能ブロックのうち少なくとも一部は、ハードウェアで実現してもよいし、ハードウェアとソフトウェアの協働により実現される構成としてもよく、図2に示した通りに独立したハードウェア資源を配置する構成に限定されない。また、制御部140が実行するプログラムは、記憶部120または制御装置10内の記憶装置に記憶されてもよいし、外部の装置に記憶されたプログラムを通信部117又はインターフェイス125を介して取得して実行する構成としてもよい。また、制御装置10に形成された構成のうち、操作部111のみが単独の使用者インターフェイス(UI)として形成されてもよい。また、制御装置10に形成された構成が重複して画像表示部20に形成されていてもよい。例えば、図4に示す制御部140が制御装置10と画像表示部20との両方に形成されていてもよいし、制御装置10に形成された制御部140と画像表示部20に形成されたCPUとが行う機能が別々に分けられている構成としてもよい。   Further, at least some of the functional blocks shown in FIG. 4 may be realized by hardware, or may be realized by the cooperation of hardware and software. As shown in FIG. The configuration is not limited to the arrangement of independent hardware resources. The program executed by the control unit 140 may be stored in the storage unit 120 or a storage device in the control device 10, or the program stored in an external device may be acquired via the communication unit 117 or the interface 125. It may be configured to execute the above. Further, among the components formed in the control device 10, only the operation unit 111 may be formed as a single user interface (UI). Moreover, the configuration formed in the control device 10 may be duplicated in the image display unit 20. For example, the control unit 140 shown in FIG. 4 may be formed in both the control device 10 and the image display unit 20, or the control unit 140 formed in the control device 10 and the CPU formed in the image display unit 20. The functions performed by and may be separately configured.

また、設定情報として、瞳の色の情報を使用者情報テーブル120Aに登録しておき、使用者の瞳の色に応じて、表示駆動部22,24から出力される画像光の強さや、配色を変更してもよい。また、使用者の体型情報(標準体型、やせ型、肥満型)を使用者情報テーブル120Aに登録しておき、使用者の体型に応じて表示駆動部22,24から出力される画像光の配色を変更してもよい。例えば、使用者が肥満体型である場合、画像表示部20が食べ物の画像を表示させる場合に、画像の色を青みがかった色に変更してもよい。これにより、使用者の食欲を抑制することができる。また、右光学像表示部26及び左光学像表示部28に透過率を変更可能なシェードを設けて、使用者の瞳の色に応じて、シェードの透過率を変更してもよい。
また、設定情報として、使用者の背丈、体重、性別等の身体的な特徴を使用者情報テーブル120Aに登録しておき、画像表示部20の表示領域における表示位置/又は表示サイズを、使用者の身体的な特徴に基づいて補正してもよい。
In addition, as the setting information, the information of the pupil color is registered in the user information table 120A, and the intensity of the image light output from the display drive units 22 and 24 and the color arrangement are registered according to the user's pupil color. May be changed. In addition, the body type information of the user (standard body type, lean body type, obese type) is registered in the user information table 120A, and the color arrangement of the image light output from the display drive units 22 and 24 according to the body type of the user is registered. May be changed. For example, when the user is obese, and the image display unit 20 displays an image of food, the image color may be changed to a bluish color. Thereby, the user's appetite can be suppressed. Further, the right optical image display unit 26 and the left optical image display unit 28 may be provided with a shade whose transmittance can be changed, and the transmittance of the shade may be changed according to the color of the user's pupil.
In addition, as the setting information, physical characteristics such as the height, weight, and sex of the user are registered in the user information table 120A, and the display position/or the display size in the display area of the image display unit 20 is set to the user. You may correct based on the physical characteristics of.

1…通信システム、2…表示システム、5…サーバー、10…制御装置、20…画像表示部(表示部)、21…右保持部、22…右表示駆動部(第2の表示部)、23…左保持部、24…左表示駆動部(第1の表示部)、25…インターフェイス、26…右光学像表示部、28…左光学像表示部、61…カメラ、63…マイク、100、100A、100B…頭部装着型表示装置(表示装置)、117…通信部、120…記憶部、125…インターフェイス、140…制御部、150…オペレーティングシステム、160…画像処理部、170…表示制御部、181…生体情報検出部、182…設定情報検出部、183…設定部、184…対象検出部、185…位置検出部、186…情報表示制御部、187…音声処理部、201…右バックライト制御部、202…左バックライト制御部、211…右LCD制御部、212…左LCD制御部、221…右バックライト、222…左バックライト、241…右LCD、242…左LCD、251…右投写光学系、252…左投写光学系、261…右導光板(光学素子)、262…左導光板(光学素子)。   DESCRIPTION OF SYMBOLS 1... Communication system, 2... Display system, 5... Server, 10... Control device, 20... Image display part (display part), 21... Right holding part, 22... Right display drive part (2nd display part), 23 ... left holding section, 24... left display drive section (first display section), 25... interface, 26... right optical image display section, 28... left optical image display section, 61... camera, 63... microphone, 100, 100A , 100B... Head-mounted display device (display device), 117... Communication unit, 120... Storage unit, 125... Interface, 140... Control unit, 150... Operating system, 160... Image processing unit, 170... Display control unit, 181... Biological information detecting unit, 182... Setting information detecting unit, 183... Setting unit, 184... Target detecting unit, 185... Position detecting unit, 186... Information display control unit, 187... Voice processing unit, 201... Right backlight control 202... Left backlight control unit, 211... Right LCD control unit, 212... Left LCD control unit, 221... Right backlight, 222... Left backlight, 241,... Right LCD, 242... Left LCD, 251... Right projection Optical system, 252... Left projection optical system, 261... Right light guide plate (optical element), 262... Left light guide plate (optical element).

Claims (20)

使用者の頭部に装着され、前記使用者の右眼及び左眼に対応して画像を表示する両眼表示と、前記使用者の右眼及び左眼のいずれかに対応して画像を表示する片眼表示とを切り替えて実行可能な頭部装着型の表示部を備える表示装置であって、
前記表示部の表示位置を調整するための表示位置調整情報、前記使用者の眼間距離、および前記使用者に適する輻輳角を含む設定情報を、前記使用者を識別する識別情報に対応付けて記憶する記憶部と、
前記識別情報を入力する入力部と、
入力した前記識別情報に対応付けて前記記憶部に記憶された前記設定情報に基づいて、前記表示部における表示位置を決定し、前記表示部の表示を前記使用者に合わせて設定して制御する制御部と、を備え、
前記制御部は、前記表示部の表示を片眼表示に切り替えてから、前記入力部により入力する前記識別情報に対応付けて前記記憶部に記憶された前記設定情報を取得し、取得した前記設定情報に含まれる前記表示位置調整情報に基づいて前記表示部の表示位置を決定して表示を制御し、その後に前記表示部を両眼表示に切り替える、
ことを特徴とする表示装置。
Binocular display mounted on the user's head and displaying an image corresponding to the right and left eyes of the user, and displaying an image corresponding to either the right or left eye of the user A display device including a head-mounted display unit that can be switched between one-eye display and
Display position adjustment information for adjusting the display position of the display unit, eye distance of the user, and setting information including a convergence angle suitable for the user, in association with the identification information for identifying the user. A storage unit for storing,
An input unit for inputting the identification information,
Based on the setting information stored in the storage unit in association with the input identification information, the display position on the display unit is determined, and the display on the display unit is set and controlled according to the user. And a control unit,
The control unit switches the display of the display unit to a single-eye display, acquires the setting information stored in the storage unit in association with the identification information input by the input unit, and acquires the setting. Control the display by determining the display position of the display unit based on the display position adjustment information included in the information, then switch the display unit to binocular display,
A display device characterized by the above.
撮像部を備え、
前記入力部は、前記撮像部の撮像画像に基づく前記識別情報を入力し、
前記制御部は、前記記憶部に記憶した前記識別情報のうち、前記入力部が入力する前記識別情報に対応する前記識別情報を特定し、特定した前記識別情報に対応付けて記憶された前記設定情報に基づいて、前記表示部の表示を制御する、ことを特徴とする請求項1記載の表示装置。
Equipped with an imaging unit,
The input unit inputs the identification information based on a captured image of the imaging unit,
The control unit specifies, of the identification information stored in the storage unit, the identification information corresponding to the identification information input by the input unit, and the setting stored in association with the identified identification information. The display device according to claim 1, wherein display of the display unit is controlled based on information.
前記識別情報は、前記使用者の生体情報に含まれる特徴の一部を含む、ことを特徴とする請求項1または2記載の表示装置。   The display device according to claim 1, wherein the identification information includes a part of features included in the biometric information of the user. 前記制御部は、前記入力部により前記識別情報として入力される生体情報の特徴の一部と、前記記憶部が記憶する前記生体情報の特徴の一部とを照合して、前記設定情報を特定する、ことを特徴とする請求項3記載の表示装置。   The control unit identifies a part of the characteristics of the biometric information input as the identification information by the input unit and a part of the characteristics of the biometric information stored in the storage unit to identify the setting information. The display device according to claim 3, wherein 前記識別情報は、前記撮像部の撮像画像から抽出される画像に係る画像情報を含む、ことを特徴とする請求項2記載の表示装置。   The display device according to claim 2, wherein the identification information includes image information regarding an image extracted from a captured image of the imaging unit. 前記制御部は、前記入力部により入力される前記識別情報に含まれる前記画像情報と、前記記憶部が記憶する前記画像情報とを照合することにより、前記設定情報を特定する、ことを特徴とする請求項5記載の表示装置。   The control unit specifies the setting information by collating the image information included in the identification information input by the input unit with the image information stored in the storage unit. The display device according to claim 5. 前記識別情報は、前記使用者の生体情報に含まれる特徴の一部を含む第1識別情報、及び、前記画像情報で構成される第2識別情報を含み、
前記記憶部は、前記第1識別情報と、前記第2識別情報と、前記設定情報とを対応付けて記憶する、ことを特徴とする請求項5または6記載の表示装置。
The identification information includes first identification information including a part of characteristics included in the biometric information of the user, and second identification information including the image information,
7. The display device according to claim 5, wherein the storage unit stores the first identification information, the second identification information, and the setting information in association with each other.
前記制御部は、前記入力部により入力される前記識別情報に含まれる前記第1識別情報及び前記第2識別情報に基づいて、前記記憶部に記憶された前記設定情報を特定する、ことを特徴とする請求項7記載の表示装置。   The control unit specifies the setting information stored in the storage unit based on the first identification information and the second identification information included in the identification information input by the input unit. The display device according to claim 7. 前記制御部は、前記入力部により入力される前記識別情報に含まれる前記第1識別情報及び前記第2識別情報の組合せに対応付けて前記記憶部に記憶された前記設定情報を特定する、ことを特徴とする請求項8記載の表示装置。   The control unit specifies the setting information stored in the storage unit in association with a combination of the first identification information and the second identification information included in the identification information input by the input unit. 9. The display device according to claim 8, wherein: 前記制御部は、前記入力部により入力される前記識別情報に含まれる前記第1識別情報及び前記第2識別情報のいずれか一方に基づいて、前記記憶部に記憶された前記設定情報から複数の前記設定情報を選択し、
選択した前記設定情報のうち、前記入力部により入力される前記識別情報に含まれる前記第1識別情報及び前記第2識別情報のうちの他方に対応する前記設定情報を特定する、ことを特徴とする請求項7から9のいずれかに記載の表示装置。
The control unit, based on one of the first identification information and the second identification information included in the identification information input by the input unit, a plurality of the setting information stored in the storage unit. Select the setting information,
Among the selected setting information, the setting information corresponding to the other of the first identification information and the second identification information included in the identification information input by the input unit is specified. The display device according to any one of claims 7 to 9.
前記画像情報は、前記撮像画像から抽出または検出可能な情報であって、それ単独で生体の個体識別が可能な情報を含まない非生体固有情報である、ことを特徴とする請求項5から10のいずれかに記載の表示装置。   The image information is information that can be extracted or detected from the captured image, and is non-living body specific information that does not include information that enables individual identification of a living body by itself. The display device according to any one of 1. 前記画像情報は、建物を含む前記撮像画像から建物の形状を含む情報を抽出した外景情報、識別用の非生物の物体を撮像した前記撮像画像から抽出される識別用物体情報、及び、移動する物体を撮影した複数の前記撮像画像から抽出される物体の軌跡に係る軌跡情報のいずれかを含むこと、を特徴とする請求項11記載の表示装置。   The image information is external scene information obtained by extracting information including a shape of a building from the captured image including a building, identification object information extracted from the captured image obtained by imaging an inanimate object for identification, and moving. The display device according to claim 11, wherein the display device includes any one of trajectory information regarding a trajectory of the object extracted from the plurality of captured images of the object. 前記設定情報は、記使用者の眼と前記表示部が備える光学素子との相対位置、前記光学素子の角度、前記使用者の利き眼、前記使用者の色覚に関する色彩情報、前記表示部が表示する画像の明るさ、および、前記使用者が使用する使用言語含む、ことを特徴とする請求項1から12のいずれかに記載の表示装置。 The setting information, the angular relative position, the optical element of the previous SL user's eye and the display unit comprises an optical element, the user's dominant eye, color vision color information about the user, the display unit brightness of the image to be displayed, and display device according to any one of claims 1 to 12, wherein the user comprises a language to be used, it is characterized. 前記表示部は、外景を透過し、前記外景とともに視認できるように画像を表示し、
前記制御部は、前記画像の表示位置及び表示サイズの少なくともいずれかを、前記設定情報に対応して複数段階に変更することを特徴とする請求項1から13のいずれかに記載の表示装置。
The display unit displays an image so that the image can be visually recognized together with the outside scene through the outside scene.
14. The display device according to claim 1, wherein the control unit changes at least one of a display position and a display size of the image in a plurality of stages corresponding to the setting information.
前記表示部は、外景を透過し、前記外景とともに視認できるように画像光を前記使用者の眼に入射する光学素子と、
前記使用者の視線方向の対象物を検出する対象検出部と、
前記表示部の表示領域に対する前記対象物の位置を検出する位置検出部と、を備え、
前記制御部は、前記位置検出部で検出した前記対象物の位置、及び、前記光学素子と前記使用者の瞳孔の位置との位置関係に応じて、前記光学素子による前記画像の表示位置を変更する、ことを特徴とする請求項1から14のいずれかに記載の表示装置。
The display unit is an optical element which transmits image light and makes image light incident on the eyes of the user so that the image light can be visually recognized together with the image.
An object detection unit for detecting an object in the direction of the user's line of sight,
A position detection unit that detects the position of the target object with respect to the display area of the display unit,
The control unit changes the display position of the image by the optical element according to the position of the object detected by the position detection unit and the positional relationship between the optical element and the position of the pupil of the user. 15. The display device according to any one of claims 1 to 14, wherein:
前記設定情報は、言語の設定に関する情報を含み、
前記制御部は、前記表示部に、文字を含むコンテンツを表示する場合に、前記設定情報に対応した言語の文字を前記表示部に表示させる、ことを特徴とする請求項1から15のいずれか1項に記載の表示装置。
The setting information includes information about language setting,
16. The control unit causes the display unit to display characters in a language corresponding to the setting information when displaying content including characters on the display unit. The display device according to item 1.
通信部を備え、
前記制御部は、前記記憶部に記憶する前記設定情報と前記識別情報とを対応付けて、前記通信部により外部の装置に送信し、
前記通信部により前記設定情報と前記識別情報とを受信し、受信した前記設定情報と前記識別情報とを対応付けて前記記憶部に記憶すること、
を特徴とする請求項1から16のいずれかに記載の表示装置。
Equipped with a communication unit,
The control unit associates the setting information and the identification information stored in the storage unit with each other, and transmits them to an external device by the communication unit,
Receiving the setting information and the identification information by the communication unit, and storing the received setting information and the identification information in the storage unit in association with each other,
The display device according to claim 1, wherein the display device is a display device.
使用者の頭部に装着され、前記使用者の右眼及び左眼に対応して画像を表示する両眼表示と、前記使用者の右眼及び左眼のいずれかに対応して画像を表示する片眼表示とを切り替えて実行可能な頭部装着型の表示部をそれぞれ備える複数の表示装置を備え、
前記表示装置は、
前記表示部の表示位置を調整するための表示位置調整情報、前記使用者の眼間距離、および前記使用者に適する輻輳角を含む設定情報を、前記使用者を識別する識別情報に対応付けて記憶する記憶部と、
前記識別情報を入力する入力部と、
入力した前記識別情報に対応付けて前記記憶部に記憶された前記設定情報に基づいて、前記表示部における表示位置を決定し、前記表示部の表示を前記使用者に合わせて設定して制御する制御部と、
他の前記表示装置と通信する通信部と、を備え、
前記制御部は、前記記憶部に記憶する前記設定情報と前記識別情報とを対応付けて、前記通信部により送信し、
前記通信部により前記設定情報と前記識別情報とを受信し、受信した前記設定情報と前記識別情報とを対応付けて前記記憶部に記憶し、
前記表示部の表示を片眼表示に切り替えてから、前記入力部により入力する前記識別情報に対応付けて前記記憶部に記憶された前記設定情報を取得し、取得した前記設定情報に含まれる前記表示位置調整情報に基づいて前記表示部の表示位置を決定して表示を制御し、その後に前記表示部を両眼表示に切り替えること、
を特徴とする表示システム。
Binocular display mounted on the user's head and displaying an image corresponding to the right and left eyes of the user, and displaying an image corresponding to either the right or left eye of the user A plurality of display devices each having a head-mounted display unit that can be executed by switching between single-eye display and
The display device,
Display position adjustment information for adjusting the display position of the display unit, eye distance of the user, and setting information including a convergence angle suitable for the user, in association with the identification information for identifying the user. A storage unit for storing,
An input unit for inputting the identification information,
Based on the setting information stored in the storage unit in association with the input identification information, the display position on the display unit is determined, and the display on the display unit is set and controlled according to the user. A control unit,
A communication unit that communicates with another display device,
The control unit associates the setting information and the identification information stored in the storage unit with each other, and transmits the communication information by the communication unit,
The setting information and the identification information are received by the communication unit, the received setting information and the identification information are stored in the storage unit in association with each other,
After switching the display of the display unit to a single-eye display, the setting information stored in the storage unit in association with the identification information input by the input unit is acquired, and the setting information is included in the acquired setting information. Controlling the display by determining the display position of the display unit based on the display position adjustment information, and then switching the display unit to binocular display,
Display system characterized by.
使用者の頭部に装着され、前記使用者の右眼及び左眼に対応して画像を表示する両眼表示と、前記使用者の右眼及び左眼のいずれかに対応して画像を表示する片眼表示とを切り替えて実行可能な頭部装着型の表示部を備える表示装置の制御方法であって、
識別情報を入力するステップと、
前記表示部の表示位置を調整するための表示位置調整情報、前記使用者の眼間距離、および前記使用者に適する輻輳角を含む設定情報を、前記使用者を識別する識別情報に対応付けて記憶する記憶部を参照して、入力した前記識別情報に対応付けて前記記憶部に記憶された前記設定情報に基づいて、前記表示部の表示を前記使用者に合わせて設定して制御する制御ステップと、を含み、
前記制御ステップにおいて、前記表示部の表示を片眼表示に切り替えてから、入力された前記識別情報に対応付けて前記記憶部に記憶された前記設定情報を取得し、取得した前記設定情報に含まれる前記表示位置調整情報に基づいて前記表示部の表示位置を決定して表示を制御し、その後に前記表示部を両眼表示に切り替える、
ことを特徴とする表示装置の制御方法。
Binocular display mounted on the user's head and displaying an image corresponding to the right and left eyes of the user, and displaying an image corresponding to either the right or left eye of the user A method for controlling a display device including a head-mounted display unit capable of executing switching between one-eye display and
Entering identification information,
Display position adjustment information for adjusting the display position of the display unit, eye distance of the user, and setting information including a convergence angle suitable for the user, in association with the identification information for identifying the user. Control for referring to a storage unit to be stored and setting and controlling the display of the display unit according to the user based on the setting information stored in the storage unit in association with the input identification information. Including steps and
In the control step, after switching the display of the display unit to a single-eye display, the setting information stored in the storage unit in association with the input identification information is acquired, and included in the acquired setting information. The display position of the display unit is determined based on the display position adjustment information to be displayed and the display is controlled, and then the display unit is switched to the binocular display,
A method for controlling a display device, comprising:
使用者の頭部に装着され、前記使用者の右眼及び左眼に対応して画像を表示する両眼表示と、前記使用者の右眼及び左眼のいずれかに対応して画像を表示する片眼表示とを切り替えて実行可能な頭部装着型の表示部を備える表示装置を制御するコンピューターが実行可能なプログラムであって、
コンピューターを、
識別情報を入力する入力部と、
前記表示部の表示位置を調整するための表示位置調整情報、前記使用者の眼間距離、および前記使用者に適する輻輳角を含む設定情報を、前記使用者を識別する識別情報に対応付けて記憶する記憶部を参照して、入力した前記識別情報に対応付けて前記記憶部に記憶された前記設定情報に基づいて、前記表示部における表示位置を決定し、前記表示部の表示を前記使用者に合わせて設定して制御する制御部であって、前記表示部の表示を片眼表示に切り替えてから、前記入力部により入力する前記識別情報に対応付けて前記記憶部に記憶された前記設定情報を取得し、取得した前記設定情報に含まれる前記表示位置調整情報に基づいて前記表示部の表示位置を決定して表示を制御し、その後に前記表示部を両眼表示に切り替える制御部と、
して機能させるためのプログラム。
Binocular display mounted on the user's head and displaying an image corresponding to the right and left eyes of the user, and displaying an image corresponding to either the right or left eye of the user A program that can be executed by a computer that controls a display device that includes a head-mounted display unit that can be executed by switching between one-eye display and
Computer
An input section for inputting identification information,
Display position adjustment information for adjusting the display position of the display unit, eye distance of the user, and setting information including a convergence angle suitable for the user, in association with the identification information for identifying the user. Referring to a storage unit to be stored, the display position on the display unit is determined based on the setting information stored in the storage unit in association with the input identification information, and the display on the display unit is used. A control unit that sets and controls according to a person, and switches the display of the display unit to a single-eye display, and then stores the storage unit in association with the identification information input by the input unit. A control unit that acquires setting information, controls the display by determining the display position of the display unit based on the display position adjustment information included in the acquired setting information, and then switches the display unit to binocular display. When,
And a program to make it work.
JP2015124440A 2014-10-24 2015-06-22 Display device, display device control method, display system, and program Active JP6701631B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015124440A JP6701631B2 (en) 2015-06-22 2015-06-22 Display device, display device control method, display system, and program
US14/878,545 US20160116740A1 (en) 2014-10-24 2015-10-08 Display device, control method for display device, display system, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015124440A JP6701631B2 (en) 2015-06-22 2015-06-22 Display device, display device control method, display system, and program

Publications (2)

Publication Number Publication Date
JP2017009777A JP2017009777A (en) 2017-01-12
JP6701631B2 true JP6701631B2 (en) 2020-05-27

Family

ID=57763285

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015124440A Active JP6701631B2 (en) 2014-10-24 2015-06-22 Display device, display device control method, display system, and program

Country Status (1)

Country Link
JP (1) JP6701631B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018173288A1 (en) * 2017-03-24 2018-09-27 サン電子株式会社 Image display unit
JP6789170B2 (en) * 2017-04-21 2020-11-25 株式会社ミクシィ Display device, authentication method, and authentication program
JP6778150B2 (en) * 2017-06-15 2020-10-28 株式会社ミクシィ Head-mounted display device, authentication method, and authentication program
JP6611859B2 (en) * 2017-10-02 2019-11-27 株式会社ぐるなび Control method, information processing apparatus, and control program
JP7118650B2 (en) * 2018-01-18 2022-08-16 キヤノン株式会社 Display device
CN108873343A (en) * 2018-07-05 2018-11-23 池州市佳域信息技术有限公司 A kind of mobile phone VR glasses
US11269181B2 (en) 2019-12-09 2022-03-08 Magic Leap, Inc. Systems and methods for operating a head-mounted display system based on user identity
JP2021131490A (en) * 2020-02-20 2021-09-09 キヤノン株式会社 Information processing device, information processing method, and program
JP7045633B2 (en) * 2020-10-30 2022-04-01 株式会社ミクシィ Head-mounted display device, authentication method, and authentication program

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5742270B2 (en) * 2011-02-10 2015-07-01 セイコーエプソン株式会社 Head-mounted display device and method for controlling head-mounted display device
US20130063578A1 (en) * 2011-03-18 2013-03-14 Yasushi Uesaka Glasses, stereoscopic image processing device, system
JP6144681B2 (en) * 2011-08-30 2017-06-07 マイクロソフト テクノロジー ライセンシング,エルエルシー Head mounted display with iris scan profiling function
JP5844880B2 (en) * 2012-03-01 2016-01-20 パイオニア株式会社 Head mounted display, calibration method and calibration program, and recording medium
US9767720B2 (en) * 2012-06-25 2017-09-19 Microsoft Technology Licensing, Llc Object-centric mixed reality space
JP6026836B2 (en) * 2012-09-28 2016-11-16 パイオニア株式会社 Image display device, control method, program, and storage medium
JP2015072602A (en) * 2013-10-03 2015-04-16 株式会社ニコン Electronic control device, electronic control method and electro control program

Also Published As

Publication number Publication date
JP2017009777A (en) 2017-01-12

Similar Documents

Publication Publication Date Title
JP6701631B2 (en) Display device, display device control method, display system, and program
US11301034B2 (en) Display device, control method for display device, and computer program
CN105607255B (en) Head-mounted display device, method of controlling the same, and computer-readable storage medium
US9959591B2 (en) Display apparatus, method for controlling display apparatus, and program
JP6693060B2 (en) Display system, display device, display device control method, and program
US20160116740A1 (en) Display device, control method for display device, display system, and computer program
US9792710B2 (en) Display device, and method of controlling display device
CN105739095B (en) Display device and control method of display device
JP6492531B2 (en) Display device and control method of display device
JP2017102768A (en) Information processor, display device, information processing method, and program
WO2015194017A1 (en) Wearable device and authentication method
JP6459380B2 (en) Head-mounted display device, head-mounted display device control method, and computer program
JP6554948B2 (en) Display device, display device control method, and program
JP6432197B2 (en) Display device, display device control method, and program
JP2016133399A (en) Head-mounted display device and method of controlling head-mounted display device, and computer program
US20160035137A1 (en) Display device, method of controlling display device, and program
JP2016122177A (en) Display device and control method of display device
JP2016024208A (en) Display device, method for controlling display device, and program
JP6701694B2 (en) Head-mounted display and computer program
JP6539981B2 (en) Display device, control method of display device, display system, and program
JP2016161611A (en) Display system and display control method
US20190086677A1 (en) Head mounted display device and control method for head mounted display device
JP2016033763A (en) Display device, method for controlling display device, and program
JP6569320B2 (en) Electronic device and method for controlling electronic device
JP2016034091A (en) Display device, control method of the same and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180517

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190312

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190508

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200407

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200420

R150 Certificate of patent or registration of utility model

Ref document number: 6701631

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150