Nothing Special   »   [go: up one dir, main page]

JP5272827B2 - ヘッドマウントディスプレイ - Google Patents

ヘッドマウントディスプレイ Download PDF

Info

Publication number
JP5272827B2
JP5272827B2 JP2009066514A JP2009066514A JP5272827B2 JP 5272827 B2 JP5272827 B2 JP 5272827B2 JP 2009066514 A JP2009066514 A JP 2009066514A JP 2009066514 A JP2009066514 A JP 2009066514A JP 5272827 B2 JP5272827 B2 JP 5272827B2
Authority
JP
Japan
Prior art keywords
user
image
head
unit
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009066514A
Other languages
English (en)
Other versions
JP2010218405A (ja
Inventor
知裕 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2009066514A priority Critical patent/JP5272827B2/ja
Priority to PCT/JP2010/054585 priority patent/WO2010107072A1/ja
Publication of JP2010218405A publication Critical patent/JP2010218405A/ja
Application granted granted Critical
Publication of JP5272827B2 publication Critical patent/JP5272827B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B26/00Optical devices or arrangements for the control of light using movable or deformable optical elements
    • G02B26/08Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light
    • G02B26/10Scanning systems
    • G02B26/105Scanning systems with one or more pivoting mirrors or galvano-mirrors
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)

Description

本発明は、ヘッドマウントディスプレイに関する。
従来、画像表示装置の一つとして、画像情報に応じた画像光をユーザの眼に入射させ、前記画像情報に応じた画像をユーザに視認させるようにした表示手段を備えるヘッドマウントディスプレイが知られている。
かかるヘッドマウントディスプレイは、文字通り頭部に装着するものであり、ハンズフリーで画像を視認できる特性があり、持ち運びに適している。
そこで、かかる特性をより活かすために、操作キーなどの操作を不要とすることによってユーザの操作負担をなくした表示装置が提案されている。
例えば、ユーザの目の前方に位置するように配置されて画像の表示を行う表示手段と、外界情報を取得する撮像手段などの外界情報取得手段と、この外界情報取得手段で取得された情報に基づいて、上記表示手段の動作を制御する制御手段とを備えるものがある(例えば特許文献1を参照)。
かかる構成により、撮像手段(外界情報取得手段)により取得した画像情報などから、外界情報として撮像した対象物が何であるかを識別し、識別したものと所定の情報とを関連付けることで、操作キーなどを操作することなく、ヘッドマウントディスプレイに所定の動作を行わせることが可能となる。
特開2008-83290号公報
しかしながら、撮像した画像情報から、この撮像された対象物が何であるかを確実に識別することは難しく、誤動作を引き起こすおそれが多々あった。
そこで、ハンズフリーでより確実に所望する操作を行うことのできるヘッドマウントディスプレイが望まれている。
上記目的を達成するために、請求項1に記載の発明は、画像情報に応じた画像光をユーザの眼に入射させ、前記画像情報に応じた画像を表示する表示手段を備えたヘッドマウントディスプレイにおいて、前記ユーザの視野方向の所定範囲を撮像する撮像手段と、前記ユーザの頭部の角度を検出する頭部状態検出手段と、前記撮像手段により撮像した画像と前記検出した前記ユーザの頭部の角度とにより前記ユーザの視野方向にある当該ユーザの身体の部位を特定する部位特定手段と、前記部位特定手段により特定したユーザの身体の部位の情報に応じた操作を実行する制御処理手段と、を備える構成とした。
また、請求項2に記載の発明は、請求項1に記載のヘッドマウントディスプレイにおいて、前記部位特定手段により特定した前記ユーザの身体の部位の状態を判定する部位状態判定手段を備え、前記制御処理手段は、前記部位特定手段で特定した部位に対応する操作のうち前記部位状態判定手段により判定した前記部位の状態に応じた操作を実行することを特徴とする。
また、請求項3に記載の発明は、請求項2に記載のヘッドマウントディスプレイにおいて、前記部位状態判定手段は、前記部位特定手段により特定した前記ユーザの身体の部位の状態として、前記ユーザの身体の部位にユーザの手が接触又は近接した状態か否かを判定することを特徴とする。
また、請求項4に記載の発明は、請求項3に記載のヘッドマウントディスプレイにおいて、前記部位状態判定手段は、前記ユーザの手に装着された装着具を検出することによって、前記ユーザの手の位置を検出することを特徴とする。
また、請求項5に記載の発明は、請求項2〜4のいずれか1項に記載のヘッドマウントディスプレイにおいて、前記ユーザの身体の部位に操作の情報を関連付けたテーブルを記憶した記憶手段を備え、前記制御処理手段は、前記部位状態判定手段により判定した前記部位に応じた操作の情報を前記テーブルが記憶された記憶手段から読み出して、当該操作を実行することを特徴とする。
また、請求項6に記載の発明は、請求項5に記載のヘッドマウントディスプレイにおいて、前記テーブルに情報を記憶した操作は、前記表示手段への画像の表示処理に対する操作であることを特徴とする。
また、請求項7に記載の発明は、請求項6に記載のヘッドマウントディスプレイにおいて、前記ユーザの身体の部位の状態に操作の情報を関連付けた第2のテーブルを記憶した第2記憶手段を備え、前記制御処理手段は、前記第2のテーブルに基づき、前記ユーザの身体の部位の状態に応じて、さらに前記表示手段への画像の表示処理に対する操作を実行することを特徴とする。
また、請求項8に記載の発明は、請求項5〜7のいずれか1項に記載のヘッドマウントディスプレイにおいて、前記部位特定手段により特定したユーザの身体の部位に応じて、操作情報を前記テーブルに設定することを特徴とする。
また、請求項9に記載の発明は、請求項5〜8のいずれか1項に記載のヘッドマウントディスプレイにおいて、前記撮像手段による撮像画像から前記ユーザの身体の部位を特定する情報を抽出して、前記テーブルに記憶するキャリブレーション手段を備えたことを特徴とする
また、請求項10に記載の発明は、請求項1〜9のいずれか1項に記載のヘッドマウントディスプレイにおいて、前記表示手段は、前記画像光を外光と共にユーザの眼に入射させ、外景と重ねて画像を表示可能としたことを特徴とする。
本発明によれば、ユーザの頭部の角度を検出する頭部状態検出手段を備え、撮像手段により撮像した画像と、検出したユーザの頭部の角度とによりユーザの身体の部位を特定し、特定したユーザの身体の部位の情報に応じた操作を実行するため、ハンズフリーによる動作をより確実に実行させることが可能となる。また、身体の部位と記憶したい情報を関連させて記憶することは非常に有効な記憶術であり、身体の部位と操作させたい情報とを関連付けて記憶することは容易であるため、希望する操作を行うために身体の部位を特定する際に、ユーザは迷ったり、間違えたりすることなくスムーズにその特定を行うことができる。したがって、ユーザは、メニューやガイダンスに頼ることなくハンズフリーによる操作を確実にすばやく実行させることができる。
実施形態に係るヘッドマウントディスプレイ(HMD)の光の進路を示す説明図である。 同HMDの装着状態を示す説明図である。 同HMDの概要構成図である。 同HMDのカメラモードにおける使用状態の一例を示す説明図である。 同HMDのカメラモードにおける使用状態の一例を示す説明図である。 ユーザの身体の部位に操作の情報を関連付けたキャリブレーション済みのテーブルの一例を示す説明図である。 ユーザの身体の部位の状態に操作の情報を関連付け第2のテーブルの一例を示す説明図である。 ユーザの身体の部位を特定する方法の変形例を示す説明図である。 実施形態に係るHMDの外観構成を示す説明図である。 同HMDの電気的構成及び光学的構成を示したブロック図である。 制御部の構成を示すブロック図である。 キャリブレーションの処理の流れを示す説明図である。 カメラモードの処理の一例の流れを示した説明図である。 撮像処理の流れを示す説明図である。 実施形態に係るHMDの閲覧モードにおける使用状態の一例を示す説明図である。 同HMDの閲覧モードにおける使用状態の一例を示す説明図である。 同HMDの閲覧モードにおける使用状態の一例を示す説明図である。 閲覧モードに用いられるキャリブレーション用のデータテーブルの一例を示す説明図である。 身体の一部とコマンドとの割り付けを示す割付テーブルの一例を示す説明図である。
以下、本実施形態に係るヘッドマウントディスプレイ(以下、「HMD:Head Mount Display」という。)の一例について、図面を参照して説明する。
[1.HMDの概要]
図1に示すように、本実施形態に係るHMDは、外光400の一部が少なくともユーザ100のいずれかの眼101に到達する状態で、画像情報に応じた画像光500をハーフミラー10で反射させてユーザ100の眼101に投射し、当該ユーザ100に表示画像200を外景と重ねて視認させるシースルー型の表示部1を表示手段として備えている。
図2に示すように、HMDは、ユーザ100の頭部102に装着される略眼鏡形状とした装着部11に取り付けられた筐体13と接続ケーブル52を介して当該筐体13と接続されたコントロールユニット3とを備えている。そして、本実施形態に係るHMDの表示部1は、後に詳述するように筐体13に収納された投影ユニット1aとコントロールユニット3に収納配設された光源ユニット1bとから構成される。
したがって、図2に示すように、コントロールユニット3をポケットなどに収納してHMDを頭部102に装着すれば、ユーザ100は、ハンズフリーの状態で持ち運び可能であり、室内、屋外を問わず、外景を見ながら様々な表示画像200を視認することができる。
このように、本実施形態に係るHMDは、画像信号に基づいて生成した画像光を2次元的に走査し、その走査された画像光をユーザの眼に投射して網膜上に結像させる網膜走査型であって、なおかつ、画像光を外光と共にユーザの眼に入射させ、画像を外景と重ねて表示するシースルー型としている。しかし、画像情報に応じた画像光をユーザの眼に入射させ、前記画像情報に応じた画像を表示する表示手段を備えたヘッドマウントディスプレイであれば、その構成は何ら限定されるものではない。
また、本実施形態に係るHMDは、ユーザ100の視野方向の所定範囲を撮像する撮像手段としてのCCDカメラ2を備えている。
CCDカメラ2は、図1及び図2に示すように、表示部1の筐体13に取り付けられる小型のものであり、ユーザ100の視野範囲を撮像することができ、この撮像データを解析することにより、ユーザ100がどの方向に顔を向けているかを判定することが可能になっている。また、CCDカメラ2のシャッタを切ることで、ユーザ100は、撮像した画像を表示画像200として表示部1により表示させて視認することもできる。
なお、表示画像200の画像情報は、CCDカメラ2で撮像した撮像画像のファイルの他、主にパーソナルコンピュータ(以下「PC」と呼ぶ)などにより作成されたコンテンツデータ、あるいはPCを介してインターネットサイトやCD−ROMやDVD−ROMなどの記録媒体から取得されたコンテンツデータであり、静止画のみならず、例えば映画などのような動画の表示も可能である。そのために、本実施形態に係るHMDはイヤホン9を用いて音声データを再生することもできる。
また、本実施形態に係るHMDは、ユーザ100の頭部102の角度を検出する頭部状態検出手段としての角度センサ4を備えている。角度センサは地磁気を利用した磁気センサ、重力方向を検知する傾斜センサ、ジャイロセンサなどが単独あるいは組み合わせて用いられる。
この角度センサ4は、図1に示すように、筐体13の内部に設けられており、ユーザ100の頭部102の傾きを三次元的に検出することができる。すなわち、頭部102がどの方向にどの程度傾いているかを、上下方向角度θ、水平方向角度φで決定することができる。
このように、本実施形態におけるHMDは、CCDカメラ2で撮像した撮像画像のファイルやPCを介して取得したコンテンツデータなどの画像情報に応じた画像を表示することが可能であり、電源投入すると、図2に示すように、表示画像200として、先ずメニュー画面が表示され、カメラモードと閲覧モードとのいずれかを選択できるようになっている。カメラモードでは撮像画像の表示や保存を行え、閲覧モードではコンテンツデータの再生、停止などが行える。
そして、いずれのモードを選択するかを、角度センサ4を用いて、ユーザ100の頭部102の傾きなどの検出によるハンズフリーで行えるようにしている。本実施形態では、表示部1により表示された選択枝からの選択する場合や、同じく表示された設問に「Yes」と答える意思表示に対応する場合について、例えば、Yesの意思表示は、「ユーザは自分の腹部に手を当ててその手を見る」、Noの意志表示は、「ユーザは手を頭の前方に挙げた状態で手を見る」などが予め設定されている。
さらに、本実施形態に係るHMDは、上述したCCDカメラ2及び角度センサ4に加え、CCDカメラ2により撮像した画像と、角度センサ4により検出したユーザ100の頭部102の角度とによりユーザ100の視野方向にある当該ユーザ100の身体の部位(以下、単に「身体部位」という場合もある)を特定する部位特定手段と、この部位特定手段により特定したユーザ100の身体の部位の情報に応じた操作を実行する制御処理手段とを備えている。
すなわち、ユーザ100は、操作キーなどを操作することなく、自分の身体の部位を見つめるだけで、HMDに所定の動作を正確に行わせることが可能となっている。
部位特定手段及び制御処理手段としての機能は、図3に示すように、実質的にはHMD全体を制御する制御部30が担っている。なお、この制御部30は、後に詳述するが、図示するように記憶手段を備えており、この記憶手段には、ユーザ100の身体の部位に操作の情報を関連付けたテーブルが記憶されている。ここで、操作とは、表示部1への画像の表示処理に対する操作であり、表示、保存、消去、さらに動画などであれば再生、停止などのコマンドを含む概念である。
また、ユーザ100の身体の部位の状態に操作の情報を関連付けた第2のテーブルが記憶された第2記憶手段を備えており、制御部30は、この第2のテーブルに基づき、ユーザ100の身体の部位の状態に応じて、さらに表示部1への画像の表示処理に対する操作を実行するようにしている。なお、記憶手段及び第2記憶手段は、いずれも後に詳述するフラッシュROM42などがその機能を担う。
かかる構成により、本実施形態に係るHMDでは、ユーザ100が自分の身体の一部、例えば、手や腕や肘、あるいは膝などを見ると、その見た身体の部位を腕なら腕、肘なら肘と特定し、特定した部位に応じた操作、例えばカメラモードであれば、CCDカメラ2で撮像した画像を表示画像200として表示したり、あるいは身体に関連付けて保存したりすることができる。また、閲覧モードであれば、動画の再生あるいは停止などを行うことができる。
例えばカメラモードの場合であれば、ファイルを保存する記憶手段上の仮想フォルダと身体の部位とを、予め関連付けさせてテーブル化して記憶しておけば、図2に示すような風景をCCDカメラ2で撮像すると、制御部30(制御処理手段)は、「この画像を保存しますか?」のメッセージとともに撮像画像を表示画像200として表示部1により表示させる。
この撮像画像を、肘に関連付けさせて保存したい場合、ユーザ100は頭部102を動かして自分の肘を正視する。
そうすると、ユーザ100が撮像した風景の画像(現在の表示画像200)が、記憶手段の所定領域、すなわち、この場合は仮想的に規定された肘フォルダに記憶されるのである。
何らかのものを身体の一部と関連付けて記憶するのは記憶術としてもポピュラーであるため、例えばこの場合の風景の画像などの保存先は肘フォルダである、といったことをユーザ100は記憶しやすい。したがって、この画像を呼び出す場合もユーザ100は容易に肘フォルダから探し出すことができる。当然ながら、肘フォルダの他に、腕フォルダ、手フォルダなどのように、ファイル保存先を、ユーザ100の身体の複数の部位と関連付けておくことができる。
撮像画像をハンズフリーにより保存操作する場合についてより詳しく説明する。例えば、図2に示した風景をCCDカメラ2で撮像したとすると、図4(a)に示すように、制御部30(制御処理手段)は、「この画像09001.JPGを保存しますか?」のメッセージとともに撮像画像を表示画像200として表示部1により表示させる。
本実施形態におけるCCDカメラ2は、ユーザ100の視野方向のうち、正視方向を中心とした範囲を撮像可能に取付けられているため、ユーザ100が肘フォルダを選択しようとして肘を正視した場合、図4(a)に示すように、ユーザ100の肘が画像中心となるような撮像画像を得られる。
また、制御部30(制御処理手段)は、先ず、角度センサ4の検出値により、頭部102がどの方向にどれだけ傾いているかを判定し、これによって、ユーザ100の身体の部位のうちいずれの部位近傍に顔面が向いているかを判定するようにしている。これにより、CCDカメラ2で撮像された肘の画像が自分の肘か他人の肘かを頭部の方向で区別でき、誤動作を防止することができる。
つまり、この場合のユーザ100が見つめている身体部位は「左腕の中央部分」であると絞られることになる。そして、制御部30は、撮像画像のデータに含まれる各画素のRGB値から色温度を算出し、画像の中央に設定された規定領域250内において、同規定領域250の中央に位置する画素の色温度をサンプルし、サンプルした色温度に対して所定の許容差範囲内の色温度の画素が集合した領域の輪郭から部位形状を認識し、予め各身体の部位を示す形状として記憶しておいた複数のモデル形状のいずれに相当するかを判定し、「肘」を示すモデル形状に相当すると判定された場合、制御部30は、ユーザ100は「肘」を見ていると判定するのである。
なお、例えば、腕などが露出している場合であれば、肌色を示す色温度の画素が集合した領域の面積(以下、「肌色面積」とも呼ぶ)が、予め各身体の部位を示す面積値として記憶しておいた複数のモデル面積のいずれに相当するかを判定し、「肘」を示すモデル面積に相当すると判定された場合、制御部30は、ユーザ100は「肘」を見ていると判定することもできる。
そして、その判定状態が所定時間(例えば2秒)連続した場合、制御部30は、フラッシュROMなどの記憶手段に規定された領域(肘フォルダに相当)に画像ファイルを記憶する(保存する)。
そして、制御部30は、図4(b)に示すように、表示部1により、「肘フォルダに画像09001.JPGを保存しました」のメッセージが含まれる表示画像200を表示させ、ユーザ100に撮像した画像が保存されたことを報知する。
また、制御部30は、前記部位特定手段により特定したユーザ100の身体の部位の状態を判定する部位状態判定手段としても機能する(図3)。つまり、制御部30が制御処理手段として機能する場合、部位特定手段で特定した部位に対応する操作のうち、当該部位状態判定手段により判定した部位の状態に応じた操作を実行するのである。したがって、HMDのハンズフリーによる操作をより確実に行わせることが可能になるとともに、操作の種類を多岐にわたらせることができる。
ここで、部位の状態とは、例えば、ユーザ100の身体の部位にユーザ100の手が接触又は近接した状態が含まれている。
身体の部位にユーザ100の手が接触又は近接した状態を判定するには、例えば、身体の部位として認識するために検出していた部位形状に、さらに接触又は近接した手の形状が加わることによって形状が変化したことを検出して判定することができる。また、肌色面積で部位を検出していた場合、肌色面積に、さらに接触又は近接した手によって肌色面積が増加したことを検出して判定することもできる。
例えば、これまでにユーザ100がCCDカメラ2で撮像した複数の画像ファイルが、前述したように、複数のフォルダ(肘フォルダ、腕フォルダ、手フォルダなど)毎にカテゴリー別に保存されているとする。
ユーザ100が、所望する画像ファイルを表示させたい場合、例えば、それが人物画像であって、それが手フォルダに保存されているとする。その場合、図5(a)に示すように、ユーザ100が自分自身の手(ここでは左手)を見ると、制御部30は、手に関連付けられて記憶されている複数の画像ファイルをサムネイル化して表示部1により表示するとともに、図示するように、例えば画像の枠を太くしたりするなどして、順次、強調表示していく。
表示したい画像ファイルが強調表示された際に、ユーザ100は、図5(b)に示すように、見つめていた左手に右手を添える。すなわち、左手に右手が重なる状態となって身体の部位の状態が変化する。
制御部30では、一つの手を示す輪郭形状に他の手の輪郭が加わり、全体の形状が変化したことにより、現在表示中が画像ファイルが選択されたと判定し、その判定結果に応じて、図示するように、当該画像ファイルを表示画像200の全領域に表示するのである。
また、ユーザ100の身体の部位、あるいはその部位の状態に応じた操作を実行するために、制御部30は、CCDカメラ2による撮像画像からユーザ100の身体の部位を特定する情報を抽出して、テーブルに記憶するキャリブレーション手段を備えている(図3)。
すなわち、身体の部位とこの部位に応じた操作の情報とがデフォルトで設定されていたとしても、実際にHMDを用いるユーザ100の骨格や体質、さらには姿勢などによっては、身体の部位を見る際の頭部102の角度はそれぞれ異なると考えられる。そこで、HMDを使用するに先立って、キャリブレーションを行うようにしている。このようにキャリブレーションを行うようにしたため、ユーザ100の個体差などにも対応でき、ハンズフリーによる操作の精度を高めることができる。
図6にキャリブレーション済みのデータテーブルの一例を示している。これは、撮像画像のファイルを保存する仮想フォルダと身体の部位とを、キャリブレーションを行うことによって予め関連付けさせたテーブルであり、後述するフラッシュROM42に記憶されている。ここでは、身体の部位の一例として、「左腕」、「左肘」、「左手」を用いるようにした場合としており、図4に示すように、左腕を前方に突き出し、肘を中心に略直角に曲げた状態のときの「腕」、「肘」、「手」を特定できるようにしている。
図6で示すテーブルには、ユーザ100が実際に前述した姿勢のときの「腕」、「肘」、「手」を見るために頭部102を動かしたときの角度センサ4の検出値と、その頭部角度においてCCDカメラ2が撮像した撮像画像とが、頭部角度、パターン画像として身体の部位(「腕」、「肘」、「手」)に関連付けられる。なお、本実施形態では、角度センサ4からの検出値は、θ(上下方向角度)、φ(水平方向角度)として得ることができる。
ところで、このテーブルでは、「肘」が肘フォルダに対応し、画像カテゴリーとして風景画像が割り付けられている(図4参照)。同じように、「手」は手フォルダに対応して画像カテゴリーとしては人物画像が割り付けられ(図5参照)、「腕」は腕フォルダに対応して画像カテゴリーとしてはその他画像が割り付けられている。
また、図7に示すテーブルは、ユーザ100の身体の部位の状態に操作の情報を関連付けた第2のテーブルに相当するものであり、これも後述するフラッシュROM42に記憶されている。この第2のテーブルには、図示するように、ユーザ100の一方(ここでは左方)の「腕」、「手」、「肘」にユーザ100の他方の手が接触又は近接した状態がパターン画像として関連付けられている。そして、それぞれの対応コマンドとしては、撮像画像の全体表示が対応付けられている。
こうして、前述したように、カメラモードにおいて、例えばCCDカメラ2で撮像して保存しておいた所定の人物画像を表示させたい場合、ユーザ100は「手」を見ることで手フォルダ内の複数の人物画像がサムネイルで表示され、所望する人物画像が強調表示されたときに、その手にユーザ100の他の手を添えた状態にすると、図7に示すテーブルを参照した制御部30は、該当する人物画像を、表示画像200として表示領域全体に表示するのである。
ところで、図7からも分かるように、本実施形態では、ユーザ100の身体の部位の状態を判定する場合、ユーザ100の身体の部位にユーザ100の手が接触又は近接した状態か否かを判定するものとして説明した。
このように、ユーザ100の身体の部位の状態を判定することで、ユーザ100が見ている身体部位の特定だけで行える操作の数よりも多くの操作を正確に行うことも可能となる効果がある。
また、ユーザ100の身体の部位の状態を判定してユーザ100が見ている身体部位を正確に特定するとした場合、ユーザ100の手に装着された装着具110を検出することによってユーザ100の手の位置を検出することにより、当該身体部位を正確に特定することもできる。
例えば、図8に示すように、ユーザ100は右手の指に、認識しやすい特定の色の装着具110を嵌めておく。そして、ユーザ100が肘を見つめ、かつ肘に手を置いた場合、CCDカメラ2が撮像した画像の中央に設定された規定領域250内には装着具110が位置しているため、CPU40は、装着具110による特定の色の画素領域を認識することができる。
したがって、角度センサ4の検出値により、頭部102がどの方向にどれだけ傾いているかが判定され、ユーザ100が見つめている身体部位が「左腕の中央部分」であると絞られ、さらに、特定の色の画素が所定面積だけ集合した領域が画面の座標中央に位置することが検出されると、制御部30は、腕の中央部分のその中央、すなわち、肘をユーザ100は見ていると判定することができる。
このように、ユーザ100の手に装着された装着具110を検出することによってユーザ100の手の位置を検出すれば、ユーザ100が見ている身体部位を正確に特定することができる。なお、装着具11としては、図示するような指輪タイプのみならず、手に装着できるものであれば何でもよく、手袋なども含まれる。
こうして、本実施形態によれば、ユーザ100は本実施形態に係るHMDを装着し、カメラモードを選択した場合は、CCDカメラ2で撮像した画像の表示や保存の操作を、ハンズフリーで正確に行うことが可能となる。
[2.HMDの電気的構成及び光学的構成を含む具体的構成]
ここで、HMDの外観構成、電気的構成及び光学的構成を含むより具体的構成について詳細に説明する。
(HMDの外観)
図9にHMDの外観構成を示す。図示するように、HMDは、ユーザ100の頭部102に装着される装着部11に取り付けられた筐体13と、光ファイバケーブル50や電送ケーブル51や音声ケーブル99などからなる接続ケーブル52を介して当該筐体13と接続されたコントロールユニット3とを備えている。そして、筐体13に収納された投影ユニット1aと、コントロールユニット3に収納配設された光源ユニット1bとから表示部1を構成している。なお、装着部11は略眼鏡形状とした支持部材からなり、あたかも眼鏡のようにして簡単に装着することができ、装着したときに、投影ユニット1aを収納した筐体13がユーザ100の顔面左前方に位置するようにしている。
本実施形態における筐体13は、装着部11をユーザ100の頭部102へ装着したとき、ユーザ100の左眼部分と左側こめかみ部分とを被覆するような平面視略L字形状に形成されている。そして、この筐体13の上面13a側にCCDカメラ2を配設し、電送ケーブル51を介してコントロールユニット3の制御部30に接続している。CCDカメラ2は、ユーザ100が当該ユーザ100の手や腕や脚などの身体を正視したときに、その視線が捉えた身体の部位に焦点が合わせられるように光軸が合わせられている。さらに、このCCDカメラ2は、図示しないシャッタボタンを備えており、このシャッタボタンの操作により撮像することができる。なお、コントロールユニット3に撮像用の操作ボタンを設け、その撮像ボタンを押すことで手動撮像させても良い。
また、図示するように、筐体13の先端側には、左の眼101の前方に位置するようにハーフミラー10が取り付けられており、外光400をハーフミラー10から透過させてユーザ100の左の眼101に入射させ、画像光500はハーフミラー10で反射させてユーザ100の眼101に入射させるようにしている(図1参照)。また、当然ながら、外光400は右の眼101にも入射している。したがって、ユーザ100は、両眼101,101を開けている場合は当然のこと、右の眼101を閉じた状態であっても、表示画像200を見ながら外界を見ることができる。
コントロールユニット3は、ユーザ100が衣服のポケットなどに収納して携行可能であり(図2参照)、ケース表面には電源スイッチ7と電源ランプ8とが設けられている。また、このコントロールユニット3内に光源ユニット1bとともに収納配設された制御部30は、通信I/F39を介して画像情報などを外部のPCなどから取得可能となっている。そして、取得した画像情報などを、光源ユニット1bの画像信号供給回路6に送信している。なお、PCなどの外部機器との接続は無線、有線いずれでも可能である。
光源ユニット1bの画像信号供給回路6では、取得した画像情報を画素単位で強度変調して画像光500を形成し、この画像光500を、光ファイバケーブル50を介して投影ユニット1aへ伝送し、投影ユニット1aでは、伝送された画像光500を走査してユーザ100にコンテンツ画像200を視認させることができる。
また、制御部30に設けた音声回路45では、PCなどから取得したコンテンツデータに含まれる音声データを音声信号に変換して、音声ケーブル99を介してイヤホン9に伝送可能としている。
図10はHMDの電気的構成及び光学的構成を示したブロック図、図11は制御部の構成を示したブロック図である。図10及び図11に示すように、HMDは表示部1、CCDカメラ2、角度センサ4及びイヤホン9を備えており、表示部1は、前述したように装着部11に設けられた投影ユニット1aと、コントロールユニット3に配設された光源ユニット1bとから構成されている。
このコントロールユニット3には、HMD全体の動作を統括制御する制御部30も配設されており、光源ユニット1bは、この制御部30から供給される画像信号Sから画像情報を画素単位で読み出し、読み出した画素単位の画像情報に基づいてR(赤色),G(緑色),B(青色)の各色毎に強度変調されたレーザ光を生成して出射するようになっている。
なお、光源ユニット1bをコントロールユニット3内に設けるのではなく、投影ユニット1a内に設けるようにしてもよい。また、本実施形態では表示部1として2次元的に走査したレーザ光をユーザ100の眼101に入射し網膜101b上に画像を投影する網膜走査型の表示部を例に挙げて説明するが、これに限らず、例えば、液晶型の表示部を用いることもできる。液晶型の表示部としては、例えば、透過型液晶パネルに光源からの光を照射してこの液晶パネルを透過した光を画像光としてユーザの眼に入射する透過型のものや、反射型液晶パネルに光源からの光を照射してこの液晶パネルを反射した光を画像光としてユーザの眼に入射する反射型のものがある。
(光源ユニット1b)
光源ユニット1bには、画像を合成するための要素となる信号等を発生する画像信号供給回路6が設けられている。PCから供給される画像データが制御部30に入力されると、制御部30はその画像データに基づいて画像信号Sを生成して画像信号供給回路6に送る。画像信号供給回路6は、画像信号Sに基づいて、表示画像200を形成するための要素となる各信号を画素単位で生成する。すなわち、画像信号供給回路6からは、R(赤色)画像信号60r,G(緑色)画像信号60g,B(青色)画像信号60bが生成されて出力される。また、画像信号供給回路6は、水平走査部80で使用される水平駆動信号61と、垂直走査部90で使用される垂直駆動信号62とをそれぞれ出力する。
また、光源ユニット1bには、画像信号供給回路6から画素単位で出力されるR画像信号60r、G画像信号60g、B画像信号60bの各画像信号60r,60g,60bをもとに、それぞれ強度変調されたレーザ光(「光束」とも呼ぶ。)である画像光500を出射するように、Rレーザ63,Gレーザ64,Bレーザ65をそれぞれ駆動するためのRレーザドライバ66,Gレーザドライバ67,Bレーザドライバ68が設けられている。各レーザ63,64,65は、例えば、半導体レーザや高調波発生機構付き固体レーザとして構成することが可能である。なお、半導体レーザを用いる場合は駆動電流を直接変調して、レーザ光の強度変調を行うことができるが、固体レーザを用いる場合は、各レーザそれぞれに外部変調器を備えてレーザ光の強度変調を行う必要がある。
さらに、光源ユニット1bは、各レーザ63,64,65より出射されたレーザ光を平行光にコリメートするように設けられたコリメート光学系71,72,73と、このコリメートされたレーザ光を合波するためのダイクロイックミラー74,75,76と、合波されたレーザ光を光ファイバケーブル50に導く結合光学系77とが設けられている。
従って、各レーザ63,64,65から出射したレーザ光は、コリメート光学系71,72,73によってそれぞれ平行化された後に、ダイクロイックミラー74,75,76に入射される。その後、これらのダイクロイックミラー74,75,76により、各レーザ光が波長に関して選択的に反射・透過される。そして、これら3つのダイクロイックミラー74,75,76にそれぞれ入射した3原色のレーザ光は、波長選択的に反射または透過して結合光学系77に達し、集光されて光ファイバケーブル50へ出力される。
(投影ユニット1a)
光源ユニット1bとユーザ100の眼101との間に位置する投影ユニット1aには、光源ユニット1bで生成され、光ファイバケーブル50を介して出射されるレーザ光を平行光化するコリメート光学系79と、このコリメート光学系79で平行光化されたレーザ光を画像表示のために水平方向に往復走査する水平走査部80と、水平走査部80で水平方向に走査されたレーザ光を垂直方向に走査する垂直走査部90と、水平走査部80と垂直走査部90との間に設けられた第1リレー光学系85と、このように水平方向と垂直方向に走査されたレーザ光を瞳孔101aへ出射するための第2リレー光学系95とが設けられている。
水平走査部80及び垂直走査部90は、光ファイバケーブル50から入射されたレーザ光を画像としてユーザ100の網膜101bに投影可能な状態にするために、水平方向と垂直方向に走査して走査光束とする光学系であり、水平走査部80は、レーザ光を水平方向に走査するため偏向面を有する共振型の偏向素子81と、この偏向素子81を共振させて偏向素子81の偏向面を揺動させる駆動信号を水平駆動信号61に基づいて発生する水平走査駆動回路82を備えている。
一方、垂直走査部90は、レーザ光を垂直方向に走査するため偏向面を有する非共振型の偏向素子91と、この偏向素子91の偏向面を非共振状態で揺動させる駆動信号を垂直駆動信号62に基づいて発生する垂直走査制御回路92とを備え、表示すべき画像の1フレームごとに、画像を形成するためのレーザ光を最初の水平走査線から最後の水平走査線に向かって垂直に走査する。ここで「水平走査線」とは、水平走査部80による水平方向への1走査を意味する。
なお、偏向素子81,91は、ここではガルバノミラーを用いることとするが、レーザ光を走査するようにその偏向面(反射面)を揺動又は回転させられるものであれば、圧電駆動、電磁駆動、静電駆動等いずれの駆動方式によるものであってもよい。また、本実施形態においては、水平走査部80に共振タイプの偏向素子を用い、垂直走査部90を非共振タイプの偏向素子を用いることとしているが、これに限らず、例えば、垂直走査系に共振タイプの偏向素子を用いてもよく、どちらも非共振タイプの偏向素子としてもよい。
また、水平走査部80と垂直走査部90との間でレーザ光を中継する第1リレー光学系85は、偏向素子81の偏向面によって水平方向に走査されたレーザ光を偏向素子91の偏向面に収束させる。そして、このレーザ光が偏向素子91の偏向面によって垂直方向に走査され、正の屈折力を持つ2つのレンズ95a,95bが直列配置された第2リレー光学系95を介して、眼101の前方に位置させたハーフミラー10で反射されてユーザ100の瞳孔101aに入射し、網膜101b上に画像信号Sに応じた表示画像200が投影される。これにより、ユーザ100はこのように瞳孔101aに入射する画像光500であるレーザ光を、表示画像200として認識する(図1及び図2参照)。
なお、第2リレー光学系95においては、レンズ95aによって、それぞれのレーザ光がそのレーザ光の中心線を相互に略平行にされ、かつそれぞれ収束レーザ光に変換される。そして、レンズ95bによってそれぞれほぼ平行なレーザ光となると共に、これらのレーザ光の中心線がユーザ100の瞳孔101aに収束するように変換される。
(制御部30)
制御部30は、その内部に記憶されている制御プログラムにしたがって後述する所定の処理を実行することによって、前述した頭部状態検出手段、部位特定手段、制御処理手段、部位状態判別手段、及びキャリブレーション手段等として機能する。
図11に示すように、制御部30は、各コントローラ31,32,36と、各VRAM(Video Random Access Memory)33,37と、周辺機器インターフェース(図中「I/F」と示し、以下「I/F」とも呼ぶ)38と、通信I/F39とを備えている。
主コントローラ31は、CPU(Central Processing Unit)40と、プログラムROM(Read Only Memory)41と、不揮発性メモリであるフラッシュROM(フラッシュメモリ)42と、RAM(Random Access Memory)43とを備えており、これらはデータ通信用のバスにそれぞれ接続され、このデータ通信用のバスを介して、角度センサ4からの頭部角度などをはじめとする各種情報の送受信を行う。
CPU40は、プログラムROM41に記憶されている制御プログラムを実行することにより、主コントローラ31として、HMDを構成する各部を動作させて、当該HMDが備える各種機能を実行させる演算処理装置である。
また、フラッシュROM42は、CCDカメラ2などから出力される画像データや、HMDの動作制御に必要な各種テーブルや表示画像200の輝度の設定値などを記憶する。フラッシュROM42に記憶されたテーブルとしては、図6、図7、さらに後述する図18及び図19に示すように、ユーザの身体の部位や当該部位の状態に操作の情報を関連付けたテーブルなどが含まれる。
そして、CPU40は、CCDカメラ2により撮像した画像と角度センサ4により検出したユーザ100の頭部102の角度とにより、当該ユーザ100の視野方向にある当該ユーザ100の身体の部位を特定することが可能となっている。
HMD用コントローラ32は、主コントローラ31からの要求に応じて表示手段である表示部1を制御し、主コントローラ31によりHMD用VRAM33に記憶された画像データに基づいた画像信号Sを表示部1に供給する。表示部1は、HMD用コントローラ32から画像信号Sが入力されると、この画像信号Sに基づいて強度変調した各色のレーザ光を生成及び走査してユーザ100の眼101に出射し、ユーザ100の網膜101bに画像信号Sに応じた画像を投影する。こうして、主コントローラ31は、画像を表示させる制御を行う。
カメラ用コントローラ36は、撮像手段であるCCDカメラ2を制御し、カメラ用VRAM37は、CCDカメラ2から出力される画像データを一時的に記憶する。主コントローラ31は、CCDカメラ2から出力される画像データをカメラ用VRAM37を介してHMD用VRAM33に出力することにより、CCDカメラ2から出力される画像データを主コントローラ31で取得することができる。
主コントローラ31は、ユーザ100の視野方向にある当該ユーザ100自身の身体の部位を特定するために、カメラ用コントローラ36を介してCCDカメラ2を制御し、ユーザ100の視野範囲のうち、ユーザ100の顔に正対する方向にある対象物が、表示部1による画像の表示領域の略中心位置となるようにCCDカメラ2により撮像させ、CCDカメラ2から出力される画像データをカメラ用VRAM37を介して取得する。これによって、主コントローラ31は、CCDカメラ2によって撮像された画像を取得することができる。
そして、主コントローラ31は、先ず、前述したように、角度センサ4の検出値により、頭部102がどの方向にどれだけ傾いているかを判定し、これによって、ユーザ100の身体の部位のうちいずれの部位近傍に顔面が向いているかを判定する。すなわち、頭部102の傾きによって、ユーザ100が見つめている身体部位を、例えば「左腕の中央部分」あるいは「左腕の先端部分」であるというように絞るのである。
そして、CCDカメラ2によって撮像された画像を解析して部位形状を検出するとともに、予め記憶しておいたモデル形状と比較することによって、ユーザ100の身体部位を検出できるようにしている。また、部位形状を検出することにより、ユーザ100の身体の部位に接触又は近接する手についても認識することができる。なお、CCDカメラ2によって撮像された画像の処理をするために主コントローラ31内に別途画像処理部をハードウェアで構成することにより画像処理を高速に行うこともできる。
周辺機器I/F38は、電源スイッチ7やコンテンツ表示スイッチやランプ類等(図示せず)の周辺機器5を主コントローラ31に接続するためのインターフェースである。例えば、電源スイッチ7やコンテンツ表示スイッチやランプ類が周辺機器I/F38に接続されたとき、主コントローラ31は、電源スイッチ7やコンテンツ表示スイッチ等のスイッチ類からの操作情報を周辺機器I/F38から受け取り、周辺機器I/F38を介してランプ類の点灯情報をランプ類に供給する。
通信I/F39は、主コントローラ31とPCとを通信可能に制御する。主コントローラ31は、例えば、通信I/F39を介して画像データの供給をPCに要求し、PCから通信I/F39を介して供給された画像データに基づいた画像信号SをHMD用コントローラ32により表示部1に供給する。
なお、上述においては、撮像手段としてCCDカメラ2を用いることとしたが、これに限られず、CMOSカメラなどを用いてもよい。
[3.HMDにおける制御処理]
ここで、カメラモードを選択した場合の動作を実現させるための制御部30による処理の一例について、図12〜図14を参照して説明する。図12はキャリブレーションの処理の流れを示す説明図、図13はカメラモードの処理の一例である撮像処理の流れを示す説明図、図14は同じくカメラモードの処理の一例である画像データの表示処理の流れを示した説明図である。なお、各処理においては、HMDの電源スイッチ7は既にオン操作されており、電源スイッチ7がオン操作された後の初期設定処理などは全て完了していることとしている。また、図13及び図14の処理では、既にカメラモードが選択された場合としている(図2参照)。
(キャリブレーション)
キャリブレーションが開始されると、図12に示すように、主コントローラ31のCPU40は、表示部1により、身体の特定の部位(ここでは左肘、左手、左腕のいずれか)を見て所定の決定トリガーを入力するようにユーザ100に対して指示コメントを表示する(ステップS101)。ユーザ100は、指示された身体の部位を見るとともに、例えばコントロールユニット3に設けた決定トリガーとしての操作ボタン(図示せず)を押すなどして決定トリガーを入力することになる。なお、ボタン操作に代えて角度センサ4を利用し、この角度センサ4が検出したユーザ100の頭部102の傾きが所定の傾きとなったことを決定トリガーとすることもできる。
次いで、CPU40は、ユーザ100が入力した決定トリガーを取得する(ステップS102)。
次いで、CPU40は、決定トリガーが入力されたときの頭の傾きのデータ、すなわち角度センサ4が検出したデータ値と、決定トリガーが入力されたときのCCDカメラ2による撮像データとを、ステップS101で見るように指示した身体の部位の名称と関連付けてテーブルに記憶する(ステップS103)。
そして、ステップS104において、CPU40は設定すべき必要な身体の部位に対して全て関連付けを行ったか否かを判定し、全て終えるまで、必要な身体の部位に対する関連付け処理を繰り返し、全ての関連付けを終えるとキャリブレーションの処理を終了する。こうして、図6に示すテーブルが生成されることになる。
(撮像処理)
次に、カメラモードの処理の一例として、CCDカメラ2による撮像処理について、図13を参照しながら説明する。図13に示すように、CPU40は、CCDカメラ2のシャッタ操作がなされたか否かを判定する(ステップS201)。
シャッタ操作がなされた場合(ステップS201:Yes)、CPU40は、図4(a)に示すように、撮った画像を表示部1により表示させる(ステップS202)。このとき、画像の保存をするか否かを尋ねるメッセージも表示させる。
ユーザ100は、この画像を保存すると決めた場合、画像を記憶(保存)させたい身体の部位を見る。本実施形態では、前述したように、風景は肘(肘フォルダ)に、人物は手(手フォルダ)に、その他であれば腕(腕フォルダ)に記憶するようにしている。このように、その被写体のカテゴリー別に画像を保存すると、後に画像を検索しやすい。
ステップS203において、CPU40は、ユーザ100が見ている身体部位を特定する。すなわち、角度センサ4の検出値からユーザ100の頭部102の傾きを検出し、検出した頭の傾きから、ユーザ100が見ていると推定される身体部位を絞り込むとともに、頭部102に装着されたCCDカメラ2による撮像データを取得して、絞り込まれた身体部位と撮像された画像とが一致する身体部位の情報をフラッシュROM42のテーブルから取得する。
次に、CPU40は、CCDカメラ2による撮像画像の状態から、特定した部位が所定時間(例えば2秒)見続けられているか否かを判定する(ステップS204)。例えば、撮像データに所定時間変化がない場合、CPU40はユーザ100の視線が固定されていると判定するのである。
CPU40は、特定された部位が所定時間(例えば2秒)見続けられていると判定した場合(ステップS204:Yes)はステップS205へ、見続けられていないと判定した場合(ステップS204:No)はステップS206へ処理を移す。
ステップS205では、特定された部位に関連付けられたフォルダに撮像画像のファイルを保存する。すなわち、フラッシュROM42の所定領域に記憶する。
一方、例えば撮像した画像をユーザ100が気に入らない場合などは、特定部位から視線を外せばよい。その場合、ステップS204においては、CPU40は、特定部位は見続けられていないと判定し、撮像画像のファイルを削除するか否かのコメントを表示部1により表示させる(ステップS206)。
そして、CPU40は、角度センサ4の検出値から、ユーザ100の頭部102が上下に振れたと判定した場合(ステップS206:Yes)、撮像画像のファイルを削除する(ステップS207)。他方、ユーザ100の頭部102が左右に振れたと判定した場合(ステップS206:No)、CPU40は処理をステップS203に移す。このとき、CPU40は、「保存する場所を2秒以上見続けてください」などのコメントを表示部1に表示させるとよい。
こうして、ユーザ100はCCDカメラ2で撮像した画像をボタン操作あるいはスイッチ操作などをすることなく、ハンズフリーで保存させることが可能となる。特に、保存先を身体の一部と関連付けているので、保存先のフォルダを記憶しやすい。
(画像データの表示処理)
次に、同じくカメラモードの処理の一例として、CCDカメラ2で既に撮像して、身体に関連付けたフォルダに保存されている画像データを表示する処理について、図14を参照しながら説明する。
ユーザ100により選択されたカメラモードが開始されると、図14に示すように、CPU40は、角度センサ4の検出値からユーザ100の頭部102の傾きを検出する(ステップS301)。そして、CPU40は、検出した頭の傾きから、ユーザ100が見ていると推定される身体部位を絞り込む(ステップS302)。さらに、CPU40は、頭部102に装着されたCCDカメラ2から撮像データを取得する(ステップS303)。このステップS301〜S303の流れについては、そのステップの順番は必ずしも限定されるものではない。
次に、CPU40は、絞り込まれた身体部位と撮像された画像とが一致する身体部位の情報がフラッシュROM42のテーブルにあるか否かを判定する(ステップS304)。テーブルにないと判定された場合(ステップS304:No)、CPU40は処理をステップS301に移す。すなわち、テーブルに身体部位があると判定されるまでユーザ100は頭部102の傾きを微調整したりすることにより、ステップS301〜S304の処理が繰り返される。
絞り込まれた身体部位と撮像された画像とが一致する身体部位の情報がフラッシュROM42のテーブルにあると判定されると(ステップS304:Yes)、検出された身体部位に対応する画像(情報)を表示する(ステップS305)。
具体的には、図5(a)に示したように、例えば身体部位が手(例えば左手)の場合であれば、仮想フォルダである手フォルダに記憶されている人物画像の一覧をサムネイル表示する。このとき身体部位が肘の場合であれば風景画像が、身体部位が腕の場合であればその他のカテゴリーの画像がサムネイル表示される。しかも、CPU40は、サムネイル表示中、一つずつ順次強調表示する。
サムネイルの中から、表示したい画像を選択するにあたって、ユーザ100は、表示した画像が強調表示されたタイミングで画像のカテゴリーに関連付けられている身体部位に手(例えば右手)を差し出して接触又は近接させる。
ステップS306において、CPU40は、このときの右手が身体部位に接触、あるいは近接したか否か、すなわち、左手の輪郭形状に右手の輪郭形状が重なったことで身体部位の状態が変化したか否かを判定する。また、手の場合であれば、右手の肌色領域がCCDカメラ2により撮像されて、肌色面積が増加したか否かを判定して、身体部位の状態が変化したか否かを判定することもできる。
このステップS306の処理において、右手が身体部位に接触、あるいは近接したと判定されない場合(ステップS306:No)、CPU40は処理をステップS305に戻す。このとき、表示部1により、ユーザ100に対して「右手の位置を前後左右に少しずらしてみてください。」などのメッセージを表示できるようにしておくことが好ましい。
他方、右手が身体部位に接触、あるいは近接したと判定された場合(ステップS306:Yes)、CPU40は、このタイミングで強調表示していたサムネイルに相当する画像、すなわちユーザ100が選択した画像全体を表示部1により表示させ(ステップS307)、この画像表示処理を終了する。
こうして、ユーザ100は所望する画像を、特別にボタン操作あるいはスイッチ操作などをすることなく、ハンズフリーで表示させることが可能となる。また、ステップS301〜S307の処理を繰り返すことで、画像表示を連続して行える。
このように、本実施形態に係るHMDでは、カメラモードを選択した後は、撮像した画像の保存操作、また保存した画像を呼び出して表示部1により表示させる操作を、ボタンやスイッチ操作などを行うことなく、ハンズフリーにて行うことが可能となる。
(HMDの使用形態の一例)
次に、ユーザ100が閲覧モードを選択した場合について簡単に説明する。ここでは、映画などのような動画コンテンツを鑑賞する場合としている。
図15〜図17は、HMDの閲覧モードにおける使用形態の一例を示す説明図である。図15に示すように、例えば電車などの中で映画を鑑賞しようとした場合、ユーザ100は、図16(a)に示すように、表示部1により表示されている表示画像200内のメニューから閲覧モードを選択する。このときの選択も、前述したように、頭部102の傾きを角度センサ4で検出することによってハンズフリーで行うことができる。
また、閲覧モードにあっては、身体の部位と関連付けたフラッシュROM42上の仮想フォルダに1つのタイトルが保存されていることとしている。したがって、例えば、肘フォルダに保存されている映画を見る場合は、ユーザ100は図16(b)に示すように、自分の左手の肘を所定時間(例えば2秒)正視する。
すると、先のカメラモードの処理において説明したように、制御部30は、ユーザ100の頭部102の傾きと、画像の中央に設定された規定領域250内における肌色面積とからユーザ100が「肘」を見ていると判定し、肘フォルダに保存されている映画タイトル(例えば「七人の用心棒」)を表示部1により表示する。
その映画タイトルが所望する映画であれば、図17に示すように、ユーザ100は、再生コマンドが割り付けられている腕を所定時間(例えば2秒)見つめる。すると、映画「七人の用心棒」が表示部1により再生される。
このように、本実施形態に係るHMDを用いれば、電車の中であっても、横の客などから覗かれたりすることなく、所望の映画などのコンテンツなどを楽しむことができる。しかも、ハンズフリーで再生や停止ができるため、吊革などに掴まって立っている場合でも表示部1の操作に支障を来すことがない。
ところで、この閲覧モードにおいても、カメラモード同様にキャリブレーションを行っている。すなわち、身体の部位と、この部位に応じた操作の情報とを、HMDを実際に使用するユーザ100の体格などの特徴に合わせるようにしている。
図18は、キャリブレーション済みのデータテーブルの一例、図19に示すものはユーザ100の身体の部位の状態に操作コマンドを関連付けた第2のテーブルの一例であり、いずれもフラッシュROM42に記憶されている。
図18に示すように、映画タイトルで示される動画ファイルを保存する仮想フォルダと身体の部位とが、キャリブレーションを行うことによって予め関連付けられている。身体の部位の一例としては、ここでも「腕」、「肘」、「手」を用いており、図16(b)に示すように、左腕を前方に突き出し、肘を中心に略直角に曲げた状態のときの「腕」、「肘」、「手」が特定できるようにしている。
また、この図18で示したテーブルには、ユーザ100が実際に前述した姿勢のときの「腕」、「肘」、「手」を見るために頭部102を動かしたときの角度センサ4の検出値と、その頭部角度においてCCDカメラ2が撮像した撮像画像とが、頭部角度、パターン画像として身体の部位(「腕」、「肘」、「手」)に関連付けられている。
ところで、このテーブルでは、「肘」が肘フォルダに対応し、動画ファイルとしては映画「七人の用心棒」が割り付けられている。また、「手」は手フォルダに対応しており、動画ファイルとしては映画「荒野のおくりびと」が割り付けられ、「腕」は腕フォルダに対応して動画ファイルとしては映画「鰆四十浪」が割り付けられている。
また、図19に示すテーブルでは、ユーザ100の身体の部位の状態に操作コマンドが関連付けられており、図示するように、「腕」は再生コマンド、「肘」は停止コマンド、「手」に関しては一時停止コマンドが関連付けられている。
したがって、映画を再生中、ユーザ100は、手を見つめたり、肘や腕を見つめたりすることによって映画の再生に関する操作をハンズフリーで行うことができる。
このように、本実施形態によれば、ユーザ100は本実施形態に係るHMDを装着し、閲覧モードを選択した場合は、映画の鑑賞など関する操作をハンズフリーで正確に行うことが可能となる。
なお、本実施形態における閲覧モードでは、映画などの動画ファイルを鑑賞(閲覧)することとしたが、勿論静止画像の閲覧であってもよい。
上述してきた本実施形態によれば、以下の効果が期待できる。
(1)画像情報に応じた画像光500をユーザ100の眼に入射させ、前記画像情報に応じた表示画像200を表示する表示部1(表示手段)を備えたHMDにおいて、ユーザ100の視野方向の所定範囲を撮像するCCDカメラ2(撮像手段)と、ユーザ100の頭部102の角度を検出する角度センサ4(頭部状態検出手段)と、CCDカメラ2により撮像した画像と前記検出したユーザ100の頭部102の角度とによりユーザ100の視野方向にある当該ユーザ100の身体の部位(例えば、腕、肘、手など)を特定し、特定したユーザ100の身体の部位の情報に応じた操作を実行する制御部30(部位特定手段、制御処理手段として機能する)を備えているため、表示された表示画像200をハンズフリーで楽しめるHMDの操作を、視認するときと同じように、様々な操作についてもハンズフリーで確実に実行させることができる。
(2)前記制御部30は、特定したユーザ100の身体の部位の状態を判定する部位状態判定手段としても機能し、特定した部位に対応する操作のうち、判定した部位の状態に応じた操作を実行するようにしたため、ハンズフリー操作をより確実に行わせることが可能になるとともに、操作の種類を多岐にわたらせることも可能となる。
(3)前記制御部30は、特定したユーザ100の身体の部位の状態として、ユーザ100の身体の部位にユーザ100の手が接触又は近接した状態か否かを判定することとしたので、身体部位を正確に特定することができる。
(4)前記制御部30は、ユーザ100の手に装着された装着具110を検出することによって、ユーザ100の手の位置を検出することとしたので、簡単な制御で身体部位を正確に特定することが可能となる。
(5)ユーザ100の身体の部位に操作の情報を関連付けたテーブルを記憶したフラッシュROM42など(記憶手段)を備え、前記制御部30は、判定した部位に応じた操作の情報を前記テーブルが記憶されたフラッシュROM42などから読み出して、当該操作を実行するようにしたため、制御部30は複雑な演算などが不要で処理の高速化が図れるとともに、制御部30のCPU40への負荷の軽減を図ることもできる。
(6)前記テーブルに情報を記憶した操作は、表示部1への表示画像200の表示処理に対する操作としたため、HMDとしての使い勝手が良好となる。
(7)ユーザ100の身体の部位の状態に操作の情報を関連付けた第2のテーブルをフラッシュROM42(第2記憶手段)に記憶し、制御部30は、前記第2のテーブルに基づき、ユーザ100の身体の部位の状態に応じて、さらに表示部1への表示画像200の表示処理に対する操作を実行することとしたため、HMDとしての使い勝手を良好としながら、制御部30は複雑な演算などが不要で処理の高速化が図れるとともに、制御部30のCPU40への負荷の軽減を図ることもできる。
(8)前記制御部30が部位特定手段として特定したユーザ100の身体の部位に応じて、操作情報を前記テーブルに設定することとしたため、様々な操作を正確かつ高速に処理することが可能となる。
(9)前記制御部30は、前記CCDカメラ2による撮像画像からユーザ100の身体の部位を特定する情報を抽出して、前記テーブルに記憶するキャリブレーション手段として機能するため、ユーザ100の個体差などに対応でき、ハンズフリーによる操作の精度を高めることができる。
(10)前記表示部1は、画像光500を外光400と共にユーザ100の眼101に入射させ、外景と重ねて表示画像200を表示可能としたため、当該HMDを装着したままでも何ら支障なく移動したりすることができ、しかも、移動した先々で表示部1をハンズフリーによって操作することができる。
以上、実施形態を通して本発明を説明してきたが、本発明はこれらに限定されるものではない。例えば、HMDの操作に関連付けられる身体部位としては腕、肘、手を例に挙げて説明したが、これらに代えて、あるいは加えて、膝や足などを用いることもできる。また、上述した各効果は、本実施形態から生じる効果を列挙したに過ぎず、本発明による効果は、本実施形態に記載されたものに限定されるものではない。
1 表示部(表示手段)
1a 投影ユニット
1b 光源ユニット
2 CCDカメラ(撮像手段)
3 コントロールユニット
4 角度センサ(頭部状態検出手段)
30 制御部(部位特定手段、部位状態判定手段、制御処理手段、キャリブレーション手段)
31 主コントローラ
40 CPU
42 フラッシュROM(記憶手段、第2記憶手段)
100 ユーザ
102 頭部

Claims (10)

  1. 画像情報に応じた画像光をユーザの眼に入射させ、前記画像情報に応じた画像を表示する表示手段を備えたヘッドマウントディスプレイにおいて、
    前記ユーザの視野方向の所定範囲を撮像する撮像手段と、
    前記ユーザの頭部の角度を検出する頭部状態検出手段と、
    前記撮像手段により撮像した画像と前記検出した前記ユーザの頭部の角度とにより前記ユーザの視野方向にある当該ユーザの身体の部位を特定する部位特定手段と、
    前記部位特定手段により特定したユーザの身体の部位の情報に応じた操作を実行する制御処理手段と、を備えたヘッドマウントディスプレイ。
  2. 前記部位特定手段により特定した前記ユーザの身体の部位の状態を判定する部位状態判定手段を備え、
    前記制御処理手段は、前記部位特定手段で特定した部位に対応する操作のうち前記部位状態判定手段により判定した前記部位の状態に応じた操作を実行することを特徴とする請求項1に記載のヘッドマウントディスプレイ。
  3. 前記部位状態判定手段は、前記部位特定手段により特定した前記ユーザの身体の部位の状態として、前記ユーザの身体の部位にユーザの手が接触又は近接した状態か否かを判定することを特徴とする請求項2に記載のヘッドマウントディスプレイ。
  4. 前記部位状態判定手段は、前記ユーザの手に装着された装着具を検出することによって、前記ユーザの手の位置を検出することを特徴とする請求項3に記載のヘッドマウントディスプレイ。
  5. 前記ユーザの身体の部位に操作の情報を関連付けたテーブルを記憶した記憶手段を備え、
    前記制御処理手段は、前記部位状態判定手段により判定した前記部位に応じた操作の情報を前記テーブルが記憶された記憶手段から読み出して、当該操作を実行することを特徴とする請求項2〜4のいずれか1項に記載のヘッドマウントディスプレイ。
  6. 前記テーブルに情報を記憶した操作は、前記表示手段への画像の表示処理に対する操作であることを特徴とする請求項5に記載のヘッドマウントディスプレイ。
  7. 前記ユーザの身体の部位の状態に操作の情報を関連付けた第2のテーブルを記憶した第2記憶手段を備え、
    前記制御処理手段は、前記第2のテーブルに基づき、前記ユーザの身体の部位の状態に応じて、さらに前記表示手段への画像の表示処理に対する操作を実行することを特徴とする請求項6に記載のヘッドマウントディスプレイ。
  8. 前記部位特定手段により特定したユーザの身体の部位に応じて、操作情報を前記テーブルに設定することを特徴とする請求項5〜7のいずれか1項に記載のヘッドマウントディスプレイ。
  9. 前記撮像手段による撮像画像から前記ユーザの身体の部位を特定する情報を抽出して、前記テーブルに記憶するキャリブレーション手段を備えたことを特徴とする請求項5〜8のいずれか1項に記載のヘッドマウントディスプレイ。
  10. 前記表示手段は、前記画像光を外光と共にユーザの眼に入射させ、外景と重ねて画像を表示可能としたことを特徴とする請求項1〜9のいずれか1項に記載のヘッドマウントディスプレイ。
JP2009066514A 2009-03-18 2009-03-18 ヘッドマウントディスプレイ Expired - Fee Related JP5272827B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2009066514A JP5272827B2 (ja) 2009-03-18 2009-03-18 ヘッドマウントディスプレイ
PCT/JP2010/054585 WO2010107072A1 (ja) 2009-03-18 2010-03-17 ヘッドマウントディスプレイ

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009066514A JP5272827B2 (ja) 2009-03-18 2009-03-18 ヘッドマウントディスプレイ

Publications (2)

Publication Number Publication Date
JP2010218405A JP2010218405A (ja) 2010-09-30
JP5272827B2 true JP5272827B2 (ja) 2013-08-28

Family

ID=42739731

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009066514A Expired - Fee Related JP5272827B2 (ja) 2009-03-18 2009-03-18 ヘッドマウントディスプレイ

Country Status (2)

Country Link
JP (1) JP5272827B2 (ja)
WO (1) WO2010107072A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9335547B2 (en) 2013-03-25 2016-05-10 Seiko Epson Corporation Head-mounted display device and method of controlling head-mounted display device

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9213405B2 (en) * 2010-12-16 2015-12-15 Microsoft Technology Licensing, Llc Comprehension and intent-based content for augmented reality displays
US9153195B2 (en) 2011-08-17 2015-10-06 Microsoft Technology Licensing, Llc Providing contextual personal information by a mixed reality device
WO2013028908A1 (en) 2011-08-24 2013-02-28 Microsoft Corporation Touch and social cues as inputs into a computer
JP5821464B2 (ja) 2011-09-22 2015-11-24 セイコーエプソン株式会社 頭部装着型表示装置
JP2013206412A (ja) * 2012-03-29 2013-10-07 Brother Ind Ltd ヘッドマウントディスプレイ及びコンピュータプログラム
JP6201990B2 (ja) * 2012-06-18 2017-09-27 ソニー株式会社 画像表示装置、画像表示プログラム及び画像表示方法
JP5904887B2 (ja) * 2012-06-27 2016-04-20 株式会社オプティム メッセージ送信システム、メッセージ送信方法、プログラム
CN109656354B (zh) * 2013-02-22 2022-05-31 索尼公司 信息处理装置和信息处理方法
JP5962547B2 (ja) * 2013-03-08 2016-08-03 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP6057396B2 (ja) * 2013-03-11 2017-01-11 Necソリューションイノベータ株式会社 3次元ユーザインタフェース装置及び3次元操作処理方法
JP6169462B2 (ja) * 2013-09-30 2017-07-26 株式会社Nttドコモ 情報処理装置及び情報処理方法
US10386637B2 (en) * 2014-01-15 2019-08-20 Maxell, Ltd. Information display terminal, information display system, and information display method
JP6065960B2 (ja) * 2015-10-08 2017-01-25 セイコーエプソン株式会社 頭部装着型表示装置
JP6308249B2 (ja) * 2016-07-14 2018-04-11 セイコーエプソン株式会社 頭部装着型表示装置および方法
WO2018079446A1 (ja) * 2016-10-27 2018-05-03 日本電気株式会社 情報入力装置および情報入力方法
JP7301615B2 (ja) * 2019-06-17 2023-07-03 キヤノン株式会社 電子機器およびその制御方法
CN113267892A (zh) * 2020-02-17 2021-08-17 深圳岱仕科技有限公司 头戴式显示器
JP2021157231A (ja) * 2020-03-25 2021-10-07 カシオ計算機株式会社 電子機器、計測システム、動作指示方法及びプログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH086708A (ja) * 1994-04-22 1996-01-12 Canon Inc 表示装置
JP2000148381A (ja) * 1998-11-05 2000-05-26 Telecommunication Advancement Organization Of Japan 入力画像処理方法、入力画像処理装置、及び入力画像処理プログラムを記録した記録媒体
JP2004013326A (ja) * 2002-06-04 2004-01-15 Canon Inc 画像処理装置及びその制御方法、並びにコンピュータプログラム及びコンピュータ可読記憶媒体
JP4927631B2 (ja) * 2006-06-27 2012-05-09 パナソニック株式会社 表示装置、その制御方法、プログラム、記録媒体および集積回路
JP4883774B2 (ja) * 2006-08-07 2012-02-22 キヤノン株式会社 情報処理装置及びその制御方法、プログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9335547B2 (en) 2013-03-25 2016-05-10 Seiko Epson Corporation Head-mounted display device and method of controlling head-mounted display device
US9921646B2 (en) 2013-03-25 2018-03-20 Seiko Epson Corporation Head-mounted display device and method of controlling head-mounted display device

Also Published As

Publication number Publication date
JP2010218405A (ja) 2010-09-30
WO2010107072A1 (ja) 2010-09-23

Similar Documents

Publication Publication Date Title
JP5272827B2 (ja) ヘッドマウントディスプレイ
KR102179142B1 (ko) 착용식 식품 영양 피드백 시스템
CN107430278B (zh) 基于用户的上下文敏感全息图反应
US9767524B2 (en) Interaction with virtual objects causing change of legal status
US9967487B2 (en) Preparation of image capture device in response to pre-image-capture signal
JP2023517073A (ja) コンピュータ生成体験を提供するためのデバイス、方法、及びグラフィカルユーザインタフェース
CN103984097B (zh) 头戴式显示装置、头戴式显示装置的控制方法以及图像显示系统
JP6149403B2 (ja) 表示装置、および、表示装置の制御方法
JP6277673B2 (ja) 頭部装着型表示装置および頭部装着型表示装置の制御方法
JP6094305B2 (ja) 頭部装着型表示装置、および、頭部装着型表示装置の制御方法
CN113709410A (zh) 基于mr眼镜的人眼视觉能力增强的方法、系统及设备
JP2017016056A (ja) 表示システム、表示装置、表示装置の制御方法、及び、プログラム
JPH086708A (ja) 表示装置
JP6554948B2 (ja) 表示装置、表示装置の制御方法、及び、プログラム
JP2011070458A (ja) ヘッドマウントディスプレイおよびこのヘッドマウントディスプレイを含む撮像データ利用システム
JP6303274B2 (ja) 頭部装着型表示装置および頭部装着型表示装置の制御方法
KR20170135762A (ko) 시선 검출 시스템
US20240020371A1 (en) Devices, methods, and graphical user interfaces for user authentication and device management
JP6740613B2 (ja) 表示装置、表示装置の制御方法、及び、プログラム
JP6337534B2 (ja) 頭部装着型表示装置および頭部装着型表示装置の制御方法
JP6638392B2 (ja) 表示装置、表示システム、表示装置の制御方法、及び、プログラム
JP2018042004A (ja) 表示装置、頭部装着型表示装置、及び、表示装置の制御方法
US20220036615A1 (en) Animation production system
JP6304415B2 (ja) 頭部装着型表示装置、および、頭部装着型表示装置の制御方法
WO2023203923A1 (ja) 頭部装着型情報処理装置、情報処理方法、記憶媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130416

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130429

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5272827

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees