JP2012114755A - ヘッドマウントディスプレイ及びコンピュータプログラム - Google Patents
ヘッドマウントディスプレイ及びコンピュータプログラム Download PDFInfo
- Publication number
- JP2012114755A JP2012114755A JP2010263013A JP2010263013A JP2012114755A JP 2012114755 A JP2012114755 A JP 2012114755A JP 2010263013 A JP2010263013 A JP 2010263013A JP 2010263013 A JP2010263013 A JP 2010263013A JP 2012114755 A JP2012114755 A JP 2012114755A
- Authority
- JP
- Japan
- Prior art keywords
- user
- image
- person
- unit
- operation state
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
【課題】ユーザの危険防止対策に役立てることが可能な情報を報知することができるヘッドマウントディスプレイ及びヘッドマウントディスプレイのためのコンピュータプログラムを提供することを目的とする。
【解決手段】ユーザの頭部に装着され、ユーザに対して画像を表示するヘッドマウントディスプレイである。ヘッドマウントディスプレイでは、ユーザの視野範囲外の少なくとも一部として視線方向と反対方向が撮像され(S14)、ユーザの動作状態が検出される(S10)。撮像部の撮像方向においてユーザに接近する物体が検出される(S18)。ヘッドマウントディスプレイでは、撮像部によって撮像された撮像画像に基づいて、検出された物体が人物であるかについて判断され(S20)、物体が人物であると判断された場合(S20:Yes)、検出された動作状態に応じた態様で、検出された物体に関連した情報を含む画像が表示される(S34,S38)。
【選択図】図3
【解決手段】ユーザの頭部に装着され、ユーザに対して画像を表示するヘッドマウントディスプレイである。ヘッドマウントディスプレイでは、ユーザの視野範囲外の少なくとも一部として視線方向と反対方向が撮像され(S14)、ユーザの動作状態が検出される(S10)。撮像部の撮像方向においてユーザに接近する物体が検出される(S18)。ヘッドマウントディスプレイでは、撮像部によって撮像された撮像画像に基づいて、検出された物体が人物であるかについて判断され(S20)、物体が人物であると判断された場合(S20:Yes)、検出された動作状態に応じた態様で、検出された物体に関連した情報を含む画像が表示される(S34,S38)。
【選択図】図3
Description
本発明は、ヘッドマウントディスプレイ及びヘッドマウントディスプレイのためのコンピュータプログラムに関する。
従来から、ヘッドマウントディスプレイに関する提案がされている。例えば、出願人は、接近する障害物の方向を使用者に知らせることができるヘッドマウントディスプレイを提案している(特許文献1参照)。このヘッドマウントディスプレイでは、ヘッドマウントディスプレイに接近する接近物体を検知する接近物体検知処理が実行される。そして、接近物体を検出したか否かが判断される。接近物体を検知した場合、接近物体の接近する方向に対して、誘導情報を表示する警告表示処理が行われる。
特許文献1に示されるようにヘッドマウントディスプレイは、各種の場面に使用することが可能な表示装置である。発明者は、このような好適な表示装置であるヘッドマウントディスプレイを応用し、さらに好適な利用方法を提供することを検討した。発明者は、例えば夜道等を独りで歩く等して移動する場合の危険防止対策に、ヘッドマウントディスプレイを用いることができないかを検討した。発明者は、独りで移動しているときに自身に接近してくる人物がいる場合、そのことを好適に報知することができれば、危険防止対策に役立つのではないかと考えた。なお、特許文献1では、接近物体が人物か否かの判断が行われない。そのため、危険防止対策という観点では、好適な報知をすることができない。
本発明は、ユーザの危険防止対策に役立てることが可能な情報を報知することができるヘッドマウントディスプレイ及びヘッドマウントディスプレイのためのコンピュータプログラムを提供することを目的とする。
上記従来の課題に鑑みなされた本発明の一側面は、ユーザの頭部に装着され、前記ユーザに対して画像を表示するヘッドマウントディスプレイであって、前記ユーザの視野範囲外の少なくとも一部を撮像する撮像部と、前記ユーザの動作状態を検出する動作状態検出部と、前記撮像部の撮像方向において前記ユーザに接近する物体を検出する物体検出手段と、前記撮像部によって撮像された撮像画像に基づいて、前記物体検出手段で検出された物体が人物であるかについて判断する第一判断手段と、前記第一判断手段によって前記物体が人物であると判断された場合、前記動作状態検出部で検出された動作状態に応じた態様で、前記物体に関連した情報を含む画像を表示する表示制御手段と、を備えるヘッドマウントディスプレイである。
これによれば、ヘッドマウントディスプレイを装着しているユーザに、人物が接近してくる場合、ユーザの動作状態に応じた態様で、物体に関連した情報を含む画像を表示することができる。ここで、物体に関連した情報は、物体としての人物に関連した情報と、言い換えることもできる。つまり、人物が接近してくる場合、物体としての人物に関連した情報を、ユーザに報知することができる。なお、第一判断手段における、物体が人物であるかについての判断は、物体が人物を含むものであるかについての判断を含み、物体が人物であると判断された場合には、物体が人物を含むものであると判断された場合が含まれる。
このヘッドマウントディスプレイは、次のような構成とすることもできる。前記物体検出手段で検出された物体との距離を測定する測定部を備え、前記表示制御手段は、前記第一判断手段によって前記物体が人物であると判断され、且つ前記測定部で測定された距離が第一距離より接近している場合、前記物体に関連した情報として、前記第一距離より接近している前記物体の存在を示す第一情報を含む画像を表示する、ようにしてもよい。これによれば、第一距離より接近している物体(人物)の存在を示す第一情報を含む画像を表示することができる。つまり、接近してくる人物の存在を、ユーザに報知することができる。
また、異なるタイミングにおいて前記物体検出手段で検出された物体それぞれの同一性について判断する第二判断手段を備え、前記表示制御手段は、さらに、前記動作状態検出部で検出された動作状態が前記ユーザが移動していることを示し、前記第二判断手段で物体の同一性があると判断された状態で、前記測定部で測定された距離が前記第一距離と比較して長い第二距離より接近し且つ前記第二距離より接近した状態が基準時間より長く継続している場合、前記物体に関連した情報として、前記第二距離より接近した状態が基準時間より長く継続している前記物体の存在を示す第二情報を含む画像を表示する、ようにしてもよい。これによれば、第一距離より接近している物体(人物)の存在を示す第一情報を含む画像を表示し、第二距離より接近した状態が基準時間より長く継続している物体(人物)の存在を示す第二情報を含む画像を表示することができる。つまり、接近してくる人物の存在と、ユーザを尾行している人物の存在とを、ユーザに報知することができる。
また、前記第一判断手段によって前記物体検出手段で検出された物体が人物であると判断された場合、前記物体としての人物の数と、基準となる基準数とを比較する比較手段を備え、前記表示制御手段は、前記比較手段によって人物の数が前記基準数より多いと判断された場合、前記物体に関連した情報を含む画像を表示しない、ようにしてもよい。これによれば、人物の数が基準数より多い場合に、画像の表示が行われないようにすることができる。例えば、人混み等にいる場合、画像の表示が継続されるといった事態の発生を防止することができる。
また、前記撮像部は、前記ユーザを基準とした全方位を撮像可能に構成され、前記動作状態検出部で検出された動作状態が前記ユーザが移動していないことを示す状態である場合、前記撮像部は前記ユーザを基準とした全方位を撮像する、ようにしてもよい。これによれば、ユーザが移動していない状態において、ユーザの全方位を対象とすることができる。
また、前記第一判断手段によって前記物体検出手段で検出された物体が人物であると判断された場合、前記物体としての人物が特定の人物であるかについて判断する第三判断手段を備え、前記表示制御手段は、前記第三判断手段によって前記物体が特定の人物であると判断された場合、前記物体に関連した情報として、前記特定の人物についての第三情報を含む画像を表示する、ようにしてもよい。これによれば、特定の人物についての第三情報を含む画面を表示することができる。
本発明の他の側面は、ユーザの頭部に装着され、前記ユーザに対して画像を表示し、前記ユーザの視野範囲外の少なくとも一部を撮像する撮像部と、前記ユーザの動作状態を検出する動作状態検出部と、を備えるヘッドマウントディスプレイを制御するコンピュータが読み取り可能なコンピュータプログラムであって、前記コンピュータを、前記撮像部の撮像方向において前記ユーザに接近する物体を検出する物体検出手段と、前記撮像部によって撮像された撮像画像に基づいて、前記物体検出手段で検出された物体が人物であるかについて判断する第一判断手段と、前記第一判断手段によって前記物体が人物であると判断された場合、前記動作状態検出部で検出された動作状態に応じた態様で、前記物体に関連した情報を含む画像を表示する表示制御手段と、して機能させるためのコンピュータプログラムである。
これによれば、本発明の一側面におけるヘッドマウントディスプレイを実現することができる。なお、このコンピュータプログラムは、上述した構成をさらに含むヘッドマウントディスプレイのためのコンピュータプログラムとすることもできる。
本発明によれば、ユーザの危険防止対策に役立てることが可能な情報を報知することができるヘッドマウントディスプレイ及びヘッドマウントディスプレイのためのコンピュータプログラムを得ることができる。
本発明を実施するための実施形態について、図面を用いて説明する。本発明は、以下に記載の構成に限定されるものではなく、同一の技術的思想において種々の構成を採用することができる。例えば、以下に示す構成の一部は、省略し又は他の構成等に置換してもよい。また、他の構成を含むようにしてもよい。
<ヘッドマウントディスプレイ>
ヘッドマウントディスプレイ(以下、「HMD」という。)1は、いわゆるシースルー型のHMDである。ユーザは、図1に示される状態において、HMD1で表示される画像を視認しつつ、ユーザが存在する外界の像を、表示される画像と重ねて視認することができる。HMD1は、通常の眼鏡と同様のフレーム構造12を有する。HMD1は、フレーム構造12によって、ユーザの頭部に支持される。フレーム構造12の所定の位置には、画像表示部32が取り付けられている。画像表示部32は、ユーザが視認する画像を、ユーザの眼、例えば図1に基づけば、左眼に表示する。画像表示部32は、フレーム構造12に取り付けられた状態において、HMD1を装着したユーザの左眼と略同一の高さとなる位置に配置されている。
ヘッドマウントディスプレイ(以下、「HMD」という。)1は、いわゆるシースルー型のHMDである。ユーザは、図1に示される状態において、HMD1で表示される画像を視認しつつ、ユーザが存在する外界の像を、表示される画像と重ねて視認することができる。HMD1は、通常の眼鏡と同様のフレーム構造12を有する。HMD1は、フレーム構造12によって、ユーザの頭部に支持される。フレーム構造12の所定の位置には、画像表示部32が取り付けられている。画像表示部32は、ユーザが視認する画像を、ユーザの眼、例えば図1に基づけば、左眼に表示する。画像表示部32は、フレーム構造12に取り付けられた状態において、HMD1を装着したユーザの左眼と略同一の高さとなる位置に配置されている。
HMD1は、図2に示されるように、CPU20と、RAM22と、プログラムROM24と、ビデオRAM26と、フラッシュROM28とを備える。CPU20は、HMD1で実行される各種処理を制御する。RAM22は、HMD1で各種処理が実行される際の作業領域となる。プログラムROM24は、例えば、後述する図3、図10及び図11に示す処理のためのコンピュータプログラムを記憶する。ビデオRAM26は、画像表示部32で表示される画像(画像を示す画像データ)を記憶する。また、ビデオRAM26は、後述するカメラ36A,36Bで撮像された撮像画像(撮像画像データ)を記憶する。フラッシュROM28は、画像表示部32で画像を表示する際に、ビデオRAM26に記憶される画像のためのデータ等を記憶する。つまり、ビデオRAM26に記憶され、画像表示部32で表示される画像は、フラッシュROM28から読み出される。
また、HMD1は、図2に示されるように、映像信号処理部30と、上述した画像表示部32と、カメラ制御部34と、カメラ36A,36Bと、通信制御部38と、通信モジュール40と、入力制御部42と、操作ボタン44と、3軸加速度センサ46と、距離センサ48と、周辺インターフェース(以下、「周辺I/F」という。)50とを備える。映像信号処理部30には、画像表示部32が接続されている。映像信号処理部30は、CPU20からの指令に従い、ビデオRAM26に記憶されている画像が、画像表示部32で表示されるように制御する。画像表示部32は、網膜走査型ディスプレイによって構成される。網膜走査型ディスプレイは、映像信号処理部30で処理された画像信号に応じた画像光を二次元走査する。画像表示部32は、その走査された画像光をユーザの左眼に導き網膜上に画像を形成する。画像表示部32から出射された画像光は、ユーザの左眼前方の位置に配置されたハーフミラー14で反射して、左眼に導かれる。HMD1を装着しているユーザは、このようにして、所定の画像を視認する。画像表示部32は、網膜走査型ディスプレイの他、液晶ディスプレイ、有機EL(Organic Electroluminescence)ディスプレイその他の装置を用いた構成としてもよい。
カメラ制御部34には、図2に示されるように、カメラ36A,36Bが接続されている。カメラ制御部34は、CPU20からの指令に従い、カメラ36A,36Bによる撮像を制御し、撮像された撮像画像を、ビデオRAM26に記憶する。カメラ36A,36Bは、例えばCCDセンサによって構成される。カメラ36Aは、図1に示されるように、フレーム構造12のモダン部分に取り付けられ、ユーザの視線方向と反対方向を撮像する。カメラ36Bは、図1に示されるように、画像表示部32の上面に取り付けられ、ユーザの視線方向を撮像する。カメラ36A,36Bは、例えば180度よりも広い広角な範囲を撮像することができる。カメラ36A,36Bの両方を用いることで、ユーザを基準とした全方位を撮像することができる。
通信制御部38には、図2に示されるように、通信モジュール40が接続されている。通信制御部38は、CPU20からの指令に従い、通信モジュール40を介した外部装置との通信を制御する。通信モジュール40は、外部装置にデータを送信し、また外部装置から送信されるデータを受信する。入力制御部42には、操作ボタン44と、3軸加速度センサ46と、距離センサ48と、周辺I/F50とが接続されている。入力制御部42は、CPU20からの指令に従い、操作ボタン44、3軸加速度センサ46、距離センサ48及び周辺I/F50からの入力を制御する。操作ボタン44は、所定のボタンによって構成されている。ユーザは、操作ボタン44を操作し、所定の指示を入力する。3軸加速度センサ46は、3軸(X軸、Y軸及びZ軸)方向の加速度を検出する。例えば、HMD1を装着したユーザが、歩行する等して移動している場合、3軸加速度センサ46では、Z軸方向(鉛直方向)の加速度が検出される。また、HMD1を装着したユーザが、頭部(首)を左方向及び/又は右方向に振り、視線方向を変化させると、3軸加速度センサ46では、X軸方向及び/又はY軸方向の加速度が検出される。つまり、3軸加速度センサ46では、HMD1を装着したユーザの動作状態が取得される。
距離センサ48は、例えばレーザ方式の距離センサであって、所定の対象物までの距離を測定する。周辺I/F50は、外部装置を接続するためのインターフェースであり、例えばパーソナルコンピュータが接続される。外部装置からは、画像等の所定のデータが入力される。入力された画像等の所定のデータは、例えばフラッシュROM28に記憶される。なお、図2に示される各部は、図1に示される画像表示部32を構成する筐体の内部に収納される。
CPU20は、RAM22上でプログラムROM24に記憶されたコンピュータプログラムを実行する。例えば、CPU20は、図3に示されるメイン処理、図10に示される動作状態検出処理及び図11に示される接近物体検出処理の各処理を実行する際、これら各処理のためのコンピュータプログラムを、プログラムROM24から読み出し、読み出したコンピュータプログラムをRAM22上で実行する。その際、CPU20は、フラッシュROM28に記憶されているデータ等を用いて所定の画像(画像データ)を生成し、所定の画像をビデオRAM26に記憶し、これを用いて所定の処理を実行する。また、CPU20は、ビデオRAM26に記憶されている撮像画像を用いて所定の処理を実行する。さらに、CPU20は、上述した通り、映像信号処理部30と、カメラ制御部34と、通信制御部38と、入力制御部42とで、それぞれ所定の処理が実行されるよう、これら各部に対して所定の指令を出力する。
<メイン処理>
図3に示されるメイン処理は、ユーザが操作ボタン44を操作し、メイン処理の開始を指示した場合に開始される。メイン処理を開始したCPU20は、動作状態検出処理を実行する(S10)。動作状態検出処理は、HMD1を装着しているユーザの動作状態を検出するための処理である。動作状態検出処理については、後述する。続けてCPU20は、S10の動作状態検出処理で検出されたユーザの動作状態が、移動中であるかについて判断する(S12)。判断の結果、動作状態が移動中である場合(S12:Yes)、CPU20は、危険防止対策のための監視対象をユーザの視線方向と反対方向とし、この方向の監視を開始する(S14)。具体的に、CPU20は、カメラ制御部34に撮像開始のための指令を出力する。この指令を受信したカメラ制御部34は、ユーザの視線方向と反対方向に向けられたカメラ36Aでの撮像を開始する。カメラ36Aでは、ユーザに接近してくる人物又は乗り物を、好適に監視することができる所定の間隔で連続して撮像がなされる。カメラ36Aで撮像された撮像画像は、ビデオRAM26に記憶される。なお、視線方向と反対方向は、ユーザを基準とした全方位のうち、視野範囲外の少なくとも一部に含まれる。視線方向と反対方向は、ユーザの後頭部側の方向に対応する。一方、動作状態が移動中でなかった場合(S12:No)、CPU20は、監視対象をユーザを基準とした全方位とし、全方位の監視を開始する(S16)。具体的に、CPU20は、カメラ制御部34に撮像開始のための指令を出力する。この指令を受信したカメラ制御部34は、カメラ36A,36Bでの撮像を開始する。カメラ36A,36Bでは、ユーザに接近してくる人物又は乗り物を、好適に監視することができる所定の間隔で連続して撮像がなされる。カメラ36A,36Bで撮像された撮像画像は、ビデオRAM26に記憶される。
図3に示されるメイン処理は、ユーザが操作ボタン44を操作し、メイン処理の開始を指示した場合に開始される。メイン処理を開始したCPU20は、動作状態検出処理を実行する(S10)。動作状態検出処理は、HMD1を装着しているユーザの動作状態を検出するための処理である。動作状態検出処理については、後述する。続けてCPU20は、S10の動作状態検出処理で検出されたユーザの動作状態が、移動中であるかについて判断する(S12)。判断の結果、動作状態が移動中である場合(S12:Yes)、CPU20は、危険防止対策のための監視対象をユーザの視線方向と反対方向とし、この方向の監視を開始する(S14)。具体的に、CPU20は、カメラ制御部34に撮像開始のための指令を出力する。この指令を受信したカメラ制御部34は、ユーザの視線方向と反対方向に向けられたカメラ36Aでの撮像を開始する。カメラ36Aでは、ユーザに接近してくる人物又は乗り物を、好適に監視することができる所定の間隔で連続して撮像がなされる。カメラ36Aで撮像された撮像画像は、ビデオRAM26に記憶される。なお、視線方向と反対方向は、ユーザを基準とした全方位のうち、視野範囲外の少なくとも一部に含まれる。視線方向と反対方向は、ユーザの後頭部側の方向に対応する。一方、動作状態が移動中でなかった場合(S12:No)、CPU20は、監視対象をユーザを基準とした全方位とし、全方位の監視を開始する(S16)。具体的に、CPU20は、カメラ制御部34に撮像開始のための指令を出力する。この指令を受信したカメラ制御部34は、カメラ36A,36Bでの撮像を開始する。カメラ36A,36Bでは、ユーザに接近してくる人物又は乗り物を、好適に監視することができる所定の間隔で連続して撮像がなされる。カメラ36A,36Bで撮像された撮像画像は、ビデオRAM26に記憶される。
S14又はS16を実行した後、CPU20は、接近物体検出処理を実行する(S18)。接近物体検出処理は、S14又はS16で監視対象とされた方向において、ユーザに接近してくる物体を検出するための処理である。接近物体検出処理については、後述する。続けてCPU20は、S18の接近物体検出処理で検出された物体が、人物であるかについて判断する(S20)。CPU20は、S20の判断を、S18の接近物体検出処理で設定された人物フラグと乗り物フラグとによって判断する。具体的に、人物フラグ又は乗り物フラグがオンである場合、CPU20は判断を肯定し(S20:Yes)、処理をS22に移行する。なお、S20において、乗り物フラグがオンの場合、人物フラグがオンの場合と同様、S18の接近物体検出処理で検出された物体が、人物であると判断する理由は、通常、接近してくる(動いている)乗り物には、人物が乗車しているためである。一方、両フラグの何れもがオフである場合、CPU20は判断を否定し(S20:No)、処理をS18に戻す。
S22でCPU20は、S18の接近物体検出処理で検出された物体としての人物の数が、所定値以上であるかについて判断する。判断の結果、人物数が所定値以上である場合(S22:Yes)、CPU20は、画像表示部32で報知情報を含む画像の表示が行われないよう報知オフの状態とし(S24)、処理をS10に戻す。ここで、不審者による危険及び/又は怪しい行為は、人気の少ない場所等で行われることが多い。そのため本実施形態では、監視対象の方向においてユーザの近辺(周辺)に複数の人物が存在していれば、ユーザは安全であるとして、後述する処理を実行しないこととしている。一方、人物数が所定値以上ではない、換言すれば、所定値未満である場合(S22:No)、CPU20は、S18の接近物体検出処理で検出された物体としての人物が、登録人物であるかについて判断する(S26)。登録人物は、ユーザの知人等の特定の人物であって、例えばフラッシュROM28に記憶されたデータベース形式の管理手段に登録されて管理されている。管理手段には、登録人物を示す情報として、特定の人物の顔画像(顔画像を示す顔画像データ)が登録される。ユーザは、例えば、周辺I/F50にパーソナルコンピュータを接続し、パーソナルコンピュータを介して特定の人物の顔画像をHMD1に入力する。CPU20は、入力された特定の人物の顔画像を、管理手段に登録する。
S26でCPU20は、フラッシュROM28に記憶された管理手段にアクセスし、管理手段に登録された顔画像を取得しRAM22に記憶する。そして、CPU20は、RAM22に記憶された顔画像と、S18の接近物体検出処理のS70(図11参照)で取得された第一撮像画像に含まれる人物の顔画像又はS76(図11参照)で取得された第二撮像画像に含まれる人物の顔画像とを比較する。CPU20は、比較に際し、第一撮像画像又は第二撮像画像から、これに含まれる人物の顔画像を抽出する。CPU20は、この比較を通して、S18の接近物体検出処理で検出された物体としての人物が、登録人物であるかについて判断する。管理手段に複数の登録人物が登録されている場合、CPU20は、複数の登録人物の顔画像それぞれについて比較し、登録人物であるかについて判断する。この比較には、周知の顔認証技術が採用される。例えば、顔画像から抽出された眼窩、鼻、あごの輪郭等の際立った特徴点の位置を比較する方法等が採用される。また、S22の判断基準である所定値が、例えば3以上の複数に設定されているとする。このような状態において、S18の接近物体検出処理で検出された物体として人物が2以上である場合、CPU20は、2以上の人物それぞれの顔画像について、管理手段の複数の登録人物の顔画像と比較する。なお、管理手段は、通信モジュール40を介して通信できる外部装置に記憶されていてもよい。この場合、CPU20は、通信制御部38に外部装置と通信するための指令を出力し、通信モジュール40を介して外部装置に記憶された管理手段にアクセスする。そして、CPU20は、管理手段に登録された顔画像を取得しRAM22に記憶する。判断の結果、登録人物である場合(S26:Yes)、CPU20は、処理をS28に移行し、登録人物でない場合(S26:No)、処理をS30に移行する。
S28でCPU20は、例えば図4又は図5に示される画像を画像表示部32で表示する。図4又は図5に示される画像は、報知情報Aと、S26の判断が肯定(S26:Yes)される原因となった登録人物についての顔画像とを含む。報知情報Aは、S18の接近物体検出処理で検出された物体としての人物に関連した情報であって、登録人物である特定の人物についての情報である。例えば、「登録された特定の人物が、あなたの近辺に存在しています」といった情報である。ユーザは、図4又は図5のような画像を視認し、登録人物として登録された特定の人物が自身の近辺に存在していることを認識する。この際、顔画像を視認することで、特定の人物が、何れであるかを特定することもできる。S28での表示に際し、CPU20は、フラッシュROM28から報知情報A(文字データ)を読み出しRAM22に記憶する。CPU20は、報知情報Aと、S26の判断が肯定される原因となった顔画像とを用いて、図4又は図5に示される画像(画像データ)を生成し、ビデオRAM26に記憶する。ビデオRAM26に記憶された画像は、上述した通り、CPU20からの指令に従い、映像信号処理部30によって画像表示部32で表示される。
ここで、S10の動作状態検出処理で検出された動作状態が、移動中であってS14が実行されていた場合、画像表示部32では、図4に示される画像が表示される。一方、動作状態が、移動中ではなくS16が実行されていた場合、画像表示部32では、図5に示される画像が表示される。図4及び図5を比較すると、報知情報Aを示す文字のサイズ及び顔画像のサイズが相違する。図4に示す画像に含まれる報知情報Aを示す文字のサイズ及び顔画像のサイズは、図5の場合より大きく設定されている。ユーザが歩行する等して移動している場合、ユーザの頭部は鉛直方向(図10のS52における「Z軸方向」参照)に移動する。そのため、表示されている画像に含まれる情報を認識することは、ユーザにとって困難となる場合もある。本実施形態では、ユーザが表示されている文字及び顔画像を認識し易くするため、移動中である場合においては、文字サイズ及び顔画像を大きくすることとしている。なお、文字サイズ及び顔画像の何れか一方のみを、大きくするようにしてもよい。また、画像表示部32で表示される画像には、顔画像に換えて、例えば、第一撮像画像(図11のS70参照)又は第二撮像画像(図11のS76参照)が含まれるようにしてもよい。
S30でCPU20は、S18の接近物体検出処理のS86(図11参照)で測定された距離F(m)と、S30の判断基準となる第二距離として登録された値L2(m)との関係について判断する。CPU20は、距離Fが値L2以下である場合、S30の判断を肯定し(S30:Yes)、処理をS32に移行する。一方、CPU20は、距離Fが値L2より大きい場合、S30の判断を否定し(S30:No)、処理をS18に戻す。S32でCPU20は、S18の接近物体検出処理のS82(図11参照)で計測が開始された時間T(秒)と、S32の判断基準となる基準時間として登録された値t1(秒)との関係について判断する。CPU20は、時間Tが値t1以上である場合、S32の判断を肯定し(S32:Yes)、処理をS34に移行する。一方、CPU20は、時間Tが値t1未満である場合、S32の判断を否定し(S32:No)、処理をS36に移行する。
S34でCPU20は、例えば図6又は図7に示されるような画像を、画像表示部32で表示する。表示される画像は、報知情報Bと、不審者又は乗り物を示すアイコン画像とを含む。報知情報Bは、S18の接近物体検出処理で検出された物体に関連した情報であって、第二距離より接近した状態が基準時間より長く継続している物体の存在を示す情報である。具体的には、「一定の距離をおいて一定時間以上、尾行されている可能性があります」といった情報である。ユーザは、図6又は図7のような画像を視認し、不審な人物又は乗り物が自身の近辺に一定時間以上存在していることを認識する。S34での表示に際し、CPU20は、フラッシュROM28から、報知情報B(文字データ)と、アイコン画像(アイコン画像を示すアイコン画像データ)とを読み出しRAM22に記憶する。CPU20は、S18の接近物体検出処理で設定された人物フラグ又は乗り物フラグに従って、読み出すアイコン画像を特定する。つまり、CPU20は、人物フラグが設定されていた場合、不審者を示すアイコン画像を読み出し、乗り物フラグが設定されていた場合、乗り物を示すアイコン画像を読み出す。図6及び図7に示される例では、人物フラグが設定されており、不審者を示すアイコン画像が読み出されている。CPU20は、報知情報Bと、アイコン画像とを用いて、図6又は図7に示される画像(画像データ)を生成し、ビデオRAM26に記憶する。ビデオRAM26に記憶された画像は、上述した通り、CPU20からの指令に従い、映像信号処理部30によって画像表示部32で表示される。
ここで、S10の動作状態検出処理で検出された動作状態が、移動中であってS14が実行されていた場合、画像表示部32では、図6に示される画像が表示される。一方、動作状態が、移動中ではなくS16が実行されていた場合、画像表示部32では、図7に示される画像が表示される。図6及び図7を比較すると、報知情報Bを示す文字のサイズ及び不審者を示すアイコン画像のサイズが相違する。図6に示す画像に含まれる報知情報Bを示す文字のサイズ及びアイコン画像のサイズは、図7の場合より大きく設定されている。上述した図4及び図5の場合と同様の理由による。なお、文字サイズ及び顔画像の何れか一方のみを、大きくするようにしてもよい。また、画像表示部32で表示される画像には、不審者又は乗り物を示すアイコン画像に換えて、例えば、第一撮像画像(図11のS70参照)又は第二撮像画像(図11のS76参照)が含まれるようにしてもよい。この他、S26で第一撮像画像又は第二撮像画像から抽出された顔画像が含まれるようにしてもよい。第一撮像画像又は第二撮像画像等を視認することで、ユーザを尾行している物体(不審な人物又は乗り物)を具体的に特定することができる。
S36でCPU20は、S18の接近物体検出処理のS86(図11参照)で測定された距離F(m)と、S36の判断基準となる第一距離として登録された値L1(m)との関係について判断する。CPU20は、距離Fが値L1以下である場合、S36の判断を肯定し(S36:Yes)、処理をS38に移行する。一方、CPU20は、距離Fが値L1より大きい場合、S36の判断を否定し(S36:No)、処理をS18に戻す。S30の判断基準となる第二距離として登録された値L2と、第一距離として登録された値L1とは、「値L2>値L1」の関係となる。第一距離として登録された値L1について、ユーザの動作状態が、移動中である場合と、移動中でない場合とで、異なる値が設定されるようにしてもよい。この場合、CPU20は、S10の動作状態検出処理で検出された動作状態に応じて、S36を判断する。なお、上述したS30の判断基準となる第二距離として登録された値L2についても、値L1と同様、異なる値としてもよい。
S38でCPU20は、例えば図8又は図9に示されるような画像を、画像表示部32で表示する。表示される画像は、報知情報Cと、不審者又は乗り物を示すアイコン画像とを含む。報知情報Cは、S18の接近物体検出処理で検出された物体に関連した情報であって、第一距離より接近している物体の存在を示す情報である。具体的には、「かなり近くまで接近してきている物体が存在します」といった情報である。ユーザは、図8又は図9の何れかを視認し、不審な人物又は乗り物が自身の近辺に存在していることを認識する。S38での表示に際し、CPU20は、フラッシュROM28から、報知情報C(文字データ)と、アイコン画像を示すアイコン画像(アイコン画像を示すアイコン画像データ)とを読み出しRAM22に記憶する。読み出されるアイコン画像については、S34の場合と同様である。図8及び図9に示される例では、乗り物フラグが設定されており、乗り物を示すアイコン画像が読み出されている。CPU20は、報知情報Cを示す画像と、アイコン画像とを用いて、図8又は図9に示される画像(画像データ)を生成し、ビデオRAM26に記憶する。ビデオRAM26に記憶された画像は、上述した通り、CPU20からの指令に従い、映像信号処理部30によって画像表示部32で表示される。
ここで、S10の動作状態検出処理で検出された動作状態が、移動中であってS14が実行されていた場合、画像表示部32では、図8に示される画像が表示される。一方、動作状態が、移動中ではなくS16が実行されていた場合、画像表示部32では、図9に示される画像が表示される。図8及び図9を比較すると、報知情報Cを示す文字のサイズ及びアイコン画像のサイズが相違する。図8に示される画像に含まれる報知情報Cを示す文字のサイズ及びアイコン画像のサイズは、図9の場合より大きく設定されている。上述した図4及び図5の場合と同様の理由による。なお、文字サイズ及び顔画像の何れか一方のみを、大きくするようにしてもよい。また、画像表示部32で表示される画像には、不審者又は乗り物を示すアイコン画像に換えて、例えば、第一撮像画像(図11のS70参照)又は第二撮像画像(図11のS76参照)が含まれるようにしてもよい。この他、S26で第一撮像画像又は第二撮像画像から抽出された顔画像が含まれるようにしてもよい。第一撮像画像又は第二撮像画像等を視認することで、ユーザにかなり接近している物体(不審な人物又は乗り物)を具体的に特定することができる。
S28、S34又はS38を実行した後、CPU20は、ユーザが操作ボタン44を操作し、メイン処理の終了を指示したかについて判断する(S40)。判断の結果、終了指示が入力されていた場合(S40:Yes)、CPU20は、メイン処理を終了する。一方、終了指示が入力されていない場合(S40:No)、CPU20は、処理をS10に戻し、上述した処理を繰り返して実行する。なお、S28、S34又はS38が実行された場合、図11のS82で開始された時間の計測を終了する。
<動作状態検出処理>
図3のS10で実行される動作状態検出処理について、図10を参照して説明する。動作状態検出処理を開始したCPU20は、入力制御部42を介して、3軸加速度センサ46で測定された動作状態情報を取得する(S50)。続けてCPU20は、取得された動作状態情報を解析し、Z軸方向の移動成分が動作状態情報に含まれているかについて判断する(S52)。上述した通り、ユーザが歩行する等して移動している場合、ユーザの頭部は鉛直方向(上下方向)に移動する。そのため、動作状態情報にはZ軸方向の移動成分が含まれる。S52では、ユーザのこのような動作の有無を判断する。Z軸方向の移動成分が含まれている場合(S52:Yes)、CPU20は、ユーザの動作状態として、移動中を特定する(S54)。S54を実行した後、又は、Z軸方向の移動成分が含まれていない場合(S52:No)、CPU20は、動作状態検出処理を終了し、処理を図3のS12に戻す。
図3のS10で実行される動作状態検出処理について、図10を参照して説明する。動作状態検出処理を開始したCPU20は、入力制御部42を介して、3軸加速度センサ46で測定された動作状態情報を取得する(S50)。続けてCPU20は、取得された動作状態情報を解析し、Z軸方向の移動成分が動作状態情報に含まれているかについて判断する(S52)。上述した通り、ユーザが歩行する等して移動している場合、ユーザの頭部は鉛直方向(上下方向)に移動する。そのため、動作状態情報にはZ軸方向の移動成分が含まれる。S52では、ユーザのこのような動作の有無を判断する。Z軸方向の移動成分が含まれている場合(S52:Yes)、CPU20は、ユーザの動作状態として、移動中を特定する(S54)。S54を実行した後、又は、Z軸方向の移動成分が含まれていない場合(S52:No)、CPU20は、動作状態検出処理を終了し、処理を図3のS12に戻す。
<接近物体検出処理>
図3のS18で実行される接近物体検出処理について、図11を参照して説明する。接近物体検出処理を開始したCPU20は、ビデオRAM26に記憶されている第一撮像画像を取得する(S70)。図3でS14が実行されていた場合、CPU20は、このS14においてカメラ36Aで撮像が開始され、ビデオRAM26に記憶されている第一撮像画像を取得する。一方、図3でS16が実行されていた場合、CPU20は、このS16においてカメラ36A,36Bで撮像が開始され、ビデオRAM26に記憶されている第一撮像画像を取得する。続けて、CPU20は、取得された第一撮像画像を画像解析する。そして、CPU20は、画像解析によって、第一撮像画像から人物が検出されたかについて判断する(S72)。画像解析によって人物の顔が認識された場合、CPU20は、人物が検出されたと判断し(S72:Yes)、人物の顔が認識されない場合、人物は検出されないと判断する(S72:No)。この場合、人物フラグは、オンされず、初期値としてのオフのままである。一方、人物が検出された場合(S72:Yes)、CPU20は、人物フラグをオンとし、処理をS76に移行する。
図3のS18で実行される接近物体検出処理について、図11を参照して説明する。接近物体検出処理を開始したCPU20は、ビデオRAM26に記憶されている第一撮像画像を取得する(S70)。図3でS14が実行されていた場合、CPU20は、このS14においてカメラ36Aで撮像が開始され、ビデオRAM26に記憶されている第一撮像画像を取得する。一方、図3でS16が実行されていた場合、CPU20は、このS16においてカメラ36A,36Bで撮像が開始され、ビデオRAM26に記憶されている第一撮像画像を取得する。続けて、CPU20は、取得された第一撮像画像を画像解析する。そして、CPU20は、画像解析によって、第一撮像画像から人物が検出されたかについて判断する(S72)。画像解析によって人物の顔が認識された場合、CPU20は、人物が検出されたと判断し(S72:Yes)、人物の顔が認識されない場合、人物は検出されないと判断する(S72:No)。この場合、人物フラグは、オンされず、初期値としてのオフのままである。一方、人物が検出された場合(S72:Yes)、CPU20は、人物フラグをオンとし、処理をS76に移行する。
これに対し、人物が検出されない場合(S72:No)、CPU20は、画像解析によって乗り物が検出されたかについて判断する(S74)。乗り物としては、自動車又はオートバイ(自動二輪車)が例示される。なお、ヘルメットを被ってオートバイを運転している人物について、その人物の顔がヘルメットで覆われ認識されなければ、S72の判断は否定されるが(S72:No)、S74では、乗り物としてのオートバイが検出されるため、判断は肯定される(S74:Yes)。乗り物が検出されない場合(S74:No)、CPU20は、接近物体検出処理を終了し、処理を図3のS20に戻す。この場合、乗り物フラグはオンされず、初期値としてのオフのままである。一方、乗り物が検出された場合(S74:Yes)、CPU20は、乗り物フラグをオンとし、処理をS76に移行する。なお、人物フラグ及び乗り物フラグは、例えばRAM22に記憶される。
S76でCPU20は、ビデオRAM26に記憶されている第二撮像画像を取得する(S76)。第二撮像画像は、第一撮像画像が撮像された後に撮像された撮像画像である。続けて、CPU20は、第一撮像画像と第二撮像画像とを比較し、差分を取得する(S78)。ここで、S78でCPU20は、S72で検出された人物、又は、S74で検出された乗り物を対象として、第一撮像画像に含まれるこれら人物又は乗り物と、第二撮像画像に含まれるこれら人物又は乗り物との差分を取得するようにしてもよい。また、例えば図3のS32及びS36の判断が否定され(S32,S36:No)、処理が図3のS18に戻り、この接近物体検出処理が繰り返される場合において、図3のS32が肯定され(S32:Yes)、同一の人物又は乗り物に一定時間以上、尾行されている状況で適切にS34を実行するためには、同一の人物又は乗り物を含む撮像画像を基準として差分が取得される必要がある。この場合、先に実行されたS70及びS76で取得される第一撮像画像及び第二撮像画像と、後に実行されるS70及びS76で取得される第一撮像画像及び第二撮像画像との間で、連続性が確保される必要がある。連続性は、例えば、次のようにして確保することができる。撮像画像A、撮像画像B、撮像画像C及び撮像画像Dが撮像されているとする。4つの撮像画像のうち、撮像画像Aは、最初に撮像されたものであり、以下、撮像画像B、撮像画像C、撮像画像Dの順で撮像されている。先に実行された接近物体検出処理のS70では、第一撮像画像として撮像画像Aが取得され、S76では、第二撮像画像として撮像画像Bが取得される。次に実行される接近物体検出処理のS70では、第一撮像画像として撮像画像Bが取得され、S76では、第二撮像画像として撮像画像Cが取得される。又は、第一撮像画像として撮像画像Aが取得され、S76では、第二撮像画像として撮像画像Cが取得される。さらに次に実行される接近物体検出処理のS70では、第一撮像画像として撮像画像Cが取得され、S76では、第二撮像画像として撮像画像Dが取得される。又は、第一撮像画像として撮像画像Aが取得され、S76では、第二撮像画像として撮像画像Dが取得される。
そして、CPU20は、S78で両画像から差分が取得されない場合(S80:Yes)、タイマ等の計時部(不図示)を用いて、時間の計測を開始する(S82)。S82でCPU20は、既に時間の計測が行われていた場合、その計測を継続する。一方、CPU20は、S78で両画像から差分が取得された場合(S80:No)、第二撮像画像が第一撮像画像に対して拡大された画像であるかについて判断する(S84)。具体的に、CPU20は、S72で検出された人物、又は、S74で検出された乗り物を対象として、第一撮像画像に含まれるこれら人物又は乗り物が、第二撮像画像において拡大されているかについて判断する。拡大されていない場合(S84:No)、CPU20は、処理をS70に戻し、上述した処理を繰り返して実行する。一方、拡大されている場合(S84:Yes)、CPU20は、入力制御部42を介して、S84の判断が肯定(S84:Yes)される原因となった人物又は乗り物までの距離Fを、距離センサ48で測定する(S86)。測定された距離Fは、例えばRAM22に記憶される。S82又はS86を実行した後、CPU20は、接近物体検出処理を終了し、処理を図3のS20に戻す。なお、S84の判断が肯定される場合(S84:Yes)、第一撮像画像に含まれる人物又は乗り物は、第二撮像画像が撮像された時点において、第一撮像画像が撮像された時点より、ユーザに接近していることとなる。
以上説明した本実施形態によれば、報知情報A,B,C等を含む画像それぞれを、画像表示部32で表示することができる(図3のS28,S34,S38参照)。従って、ユーザに登録人物が近辺に存在していることと、不審者が近辺に存在していることとを、好適に報知することができる。登録人物の存在を認識したユーザは、例えば登録人物と接触することができる。また、不審者に対する危険防止対策を講じることができる。
本実施形態の構成は、次のようにすることもできる。すなわち、上記では、一体型のHMD1とした。HMD1は、HMD本体と制御ボックスとの二つから構成されていてもよい。この場合、例えば、図2に示される画像表示部32以外の各部は、制御ボックスを構成する筐体の内部に収納される。制御ボックス(映像信号処理部30)と、HMD本体(画像表示部32)とは、信号ケーブルによってデータ通信可能に接続される。
上記では、広角な範囲を撮像することができるカメラ36A,36Bを採用し、これらによって、視線方向と反対方向を監視し(図3のS14参照)、又は、全方位を監視した(図3のS16参照)。この他、カメラのタイプは、広角カメラではなくてもよい。この場合、HMD1は、視野範囲(撮像範囲)が隣り合う複数(三台以上)のカメラを備える。複数のカメラによって全方位を撮像することができる。この場合、図10に示される動作状態検出処理のS52が否定された場合(S52:No)、CPU20は、動作状態情報にX軸方向及び/又はY軸方向の移動成分が含まれているかについて判断する。X軸方向とY軸方向とは直交し、それぞれがZ軸方向に垂直な方向である。ユーザが停止した状態で、頭部を左方向及び/又は右方向に振り、視線方向を変化させているような場合、動作状態情報にはX軸方向及び/又はY軸方向の移動成分が含まれる。この判断では、ユーザのこのような動作の有無が判断される。判断の結果、X軸方向及び/又はY軸方向の移動成分が含まれている場合、CPU20は、ユーザの動作状態として、視線移動を特定する。その後、CPU20は、処理を図3のメイン処理に戻す。メイン処理では、移動中ではない場合(S12:No)、動作状態が、視線移動であるかについて判断される。動作状態が視線移動である場合、CPU20は、処理をS14に移行し、視線方向と反対方向を監視する。CPU20は、カメラ制御部34に撮像開始のための指令を出力する。この指令を受信したカメラ制御部34は、ユーザの視線方向と反対方向に向けられたカメラでの撮像を開始する。このとき、ユーザの視線方向に追従させて、撮像用のカメラが切り替えられるようにしてもよい。なお、動作状態が、視線移動ではない場合、CPU20は、上記同様、処理をS16に移行する。
上記では、図3に示されるメイン処理のS26で登録人物であるかについて判断し、登録人物である場合(S26:Yes)、S28で、例えば図4又は図5に示される画像が画像表示部32で表示されるようにした。この他、又は、このような構成と共に、人物が身に付ける物品を登録しておき、登録された物品(この物品を示す物品画像)に一致する物品、又は、登録された物品に一致する物品を身に付けた人物が、検出された場合、「登録された物品を身に付けた人物が、あなたの近辺に存在しています」といった情報を含む画像が、画像表示部32で表示されるようにしてもよい。この場合、マスク、サングラス及び/又は帽子等の物品が登録される。
上記では、図11に示される接近物体検出処理のS76で、第二撮像画像を取得し、S70で取得された第一撮像画像と、この第二撮像画像とを比較して差分を取得し(S78)、差分の有無について判断した(S80)。この他、S72の判断が肯定(S72:Yes)される原因となった人物、又は、S74の判断が肯定(S74:Yes)される原因となった乗り物までの距離を、例えばそれぞれの判断が肯定された時点で、距離センサ48を用いて測定する。そして、その時点から所定時間経過した時点で、再度、同一対象物までの距離を測定する。CPU20は、両時点で測定された距離を比較する。CPU20は、距離に相違が認められない場合には差分なしとして(S80:Yes)、S82を実行する。一方、距離に相違が認められる場合(S80:No)、S84を実行する。S84では、距離が短縮されていない場合、判断は否定される(S84:No)。一方、距離が短縮されている場合、判断は肯定される(S84:Yes)。この場合、S86で、再度、距離Fを測定してもよいが、前述の所定時間経過した時点で測定された距離を、そのまま用いるようにしてもよい。
また、上記では、図11に示される接近物体検出処理のS86で、人物又は乗り物までの距離Fを、距離センサ48で測定した。この他、第二撮像画像における人物又は乗り物の大きさから、距離Fを推定するようにしてもよい。図11のS76及びS78を採用し、且つ前述のように距離Fを推定する構成によれば、距離センサ48を省略することができる。
1 ヘッドマウントディスプレイ(HMD)
20 CPU
22 RAM
24 プログラムROM
26 ビデオRAM
28 フラッシュROM
30 映像信号処理部
32 画像表示部
34 カメラ制御部
36A カメラ
36B カメラ
38 通信制御部
40 通信モジュール
42 入力制御部
44 操作ボタン
44 操作部
46 3軸加速度センサ
48 距離センサ
20 CPU
22 RAM
24 プログラムROM
26 ビデオRAM
28 フラッシュROM
30 映像信号処理部
32 画像表示部
34 カメラ制御部
36A カメラ
36B カメラ
38 通信制御部
40 通信モジュール
42 入力制御部
44 操作ボタン
44 操作部
46 3軸加速度センサ
48 距離センサ
Claims (7)
- ユーザの頭部に装着され、前記ユーザに対して画像を表示するヘッドマウントディスプレイであって、
前記ユーザの視野範囲外の少なくとも一部を撮像する撮像部と、
前記ユーザの動作状態を検出する動作状態検出部と、
前記撮像部の撮像方向において前記ユーザに接近する物体を検出する物体検出手段と、
前記撮像部によって撮像された撮像画像に基づいて、前記物体検出手段で検出された物体が人物であるかについて判断する第一判断手段と、
前記第一判断手段によって前記物体が人物であると判断された場合、前記動作状態検出部で検出された動作状態に応じた態様で、前記物体に関連した情報を含む画像を表示する表示制御手段と、を備えるヘッドマウントディスプレイ。 - 前記物体検出手段で検出された物体との距離を測定する測定部を備え、
前記表示制御手段は、前記第一判断手段によって前記物体が人物であると判断され、且つ前記測定部で測定された距離が第一距離より接近している場合、前記物体に関連した情報として、前記第一距離より接近している前記物体の存在を示す第一情報を含む画像を表示する、請求項1に記載のヘッドマウントディスプレイ。 - 異なるタイミングにおいて前記物体検出手段で検出された物体それぞれの同一性について判断する第二判断手段を備え、
前記表示制御手段は、さらに、前記動作状態検出部で検出された動作状態が前記ユーザが移動していることを示し、前記第二判断手段で物体の同一性があると判断された状態で、前記測定部で測定された距離が前記第一距離と比較して長い第二距離より接近し且つ前記第二距離より接近した状態が基準時間より長く継続している場合、前記物体に関連した情報として、前記第二距離より接近した状態が基準時間より長く継続している前記物体の存在を示す第二情報を含む画像を表示する、請求項2に記載のヘッドマウントディスプレイ。 - 前記第一判断手段によって前記物体検出手段で検出された物体が人物であると判断された場合、前記物体としての人物の数と、基準となる基準数とを比較する比較手段を備え、
前記表示制御手段は、前記比較手段によって人物の数が前記基準数より多いと判断された場合、前記物体に関連した情報を含む画像を表示しない、請求項1から請求項3の何れか1項に記載のヘッドマウントディスプレイ。 - 前記撮像部は、前記ユーザを基準とした全方位を撮像可能に構成され、
前記動作状態検出部で検出された動作状態が前記ユーザが移動していないことを示す状態である場合、前記撮像部は前記ユーザを基準とした全方位を撮像する、請求項1から請求項4の何れか1項に記載のヘッドマウントディスプレイ。 - 前記第一判断手段によって前記物体検出手段で検出された物体が人物であると判断された場合、前記物体としての人物が特定の人物であるかについて判断する第三判断手段を備え、
前記表示制御手段は、前記第三判断手段によって前記物体が特定の人物であると判断された場合、前記物体に関連した情報として、前記特定の人物についての第三情報を含む画像を表示する、請求項1から請求項5の何れか1項に記載のヘッドマウントディスプレイ。 - ユーザの頭部に装着され、前記ユーザに対して画像を表示し、前記ユーザの視野範囲外の少なくとも一部を撮像する撮像部と、前記ユーザの動作状態を検出する動作状態検出部と、を備えるヘッドマウントディスプレイを制御するコンピュータが読み取り可能なコンピュータプログラムであって、
前記コンピュータを、
前記撮像部の撮像方向において前記ユーザに接近する物体を検出する物体検出手段と、
前記撮像部によって撮像された撮像画像に基づいて、前記物体検出手段で検出された物体が人物であるかについて判断する第一判断手段と、
前記第一判断手段によって前記物体が人物であると判断された場合、前記動作状態検出部で検出された動作状態に応じた態様で、前記物体に関連した情報を含む画像を表示する表示制御手段と、して機能させるためのコンピュータプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010263013A JP2012114755A (ja) | 2010-11-25 | 2010-11-25 | ヘッドマウントディスプレイ及びコンピュータプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010263013A JP2012114755A (ja) | 2010-11-25 | 2010-11-25 | ヘッドマウントディスプレイ及びコンピュータプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012114755A true JP2012114755A (ja) | 2012-06-14 |
Family
ID=46498458
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010263013A Pending JP2012114755A (ja) | 2010-11-25 | 2010-11-25 | ヘッドマウントディスプレイ及びコンピュータプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012114755A (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015191124A (ja) * | 2014-03-28 | 2015-11-02 | ソフトバンクBb株式会社 | 非透過型ヘッドマウントディスプレイ及びプログラム |
JP5919546B1 (ja) * | 2015-01-19 | 2016-05-18 | 株式会社アクセル | 画像再生方法、画像再生装置、及び画像再生プログラム |
WO2016163183A1 (ja) * | 2015-04-08 | 2016-10-13 | 株式会社コロプラ | 没入型仮想空間に実空間のユーザの周辺環境を提示するためのヘッドマウント・ディスプレイ・システムおよびコンピュータ・プログラム |
WO2018173399A1 (ja) * | 2017-03-21 | 2018-09-27 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
CN110832438A (zh) * | 2017-06-28 | 2020-02-21 | 株式会社OPTiM | 可穿戴终端显示系统、可穿戴终端显示方法以及程序 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007163634A (ja) * | 2005-12-12 | 2007-06-28 | Olympus Corp | 情報表示装置 |
JP2008083289A (ja) * | 2006-09-27 | 2008-04-10 | Sony Corp | 撮像表示装置、撮像表示方法 |
JP2008096868A (ja) * | 2006-10-16 | 2008-04-24 | Sony Corp | 撮像表示装置、撮像表示方法 |
JP2009075610A (ja) * | 2008-12-04 | 2009-04-09 | Olympus Corp | 危険防止機能付きシースルー型表示装置、及びシースルー型表示装置を使用するときの危険防止方法 |
JP2010191620A (ja) * | 2009-02-17 | 2010-09-02 | Fujitsu Ltd | 不審人物検出方法、及び不審人物検出システム |
-
2010
- 2010-11-25 JP JP2010263013A patent/JP2012114755A/ja active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007163634A (ja) * | 2005-12-12 | 2007-06-28 | Olympus Corp | 情報表示装置 |
JP2008083289A (ja) * | 2006-09-27 | 2008-04-10 | Sony Corp | 撮像表示装置、撮像表示方法 |
JP2008096868A (ja) * | 2006-10-16 | 2008-04-24 | Sony Corp | 撮像表示装置、撮像表示方法 |
JP2009075610A (ja) * | 2008-12-04 | 2009-04-09 | Olympus Corp | 危険防止機能付きシースルー型表示装置、及びシースルー型表示装置を使用するときの危険防止方法 |
JP2010191620A (ja) * | 2009-02-17 | 2010-09-02 | Fujitsu Ltd | 不審人物検出方法、及び不審人物検出システム |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015191124A (ja) * | 2014-03-28 | 2015-11-02 | ソフトバンクBb株式会社 | 非透過型ヘッドマウントディスプレイ及びプログラム |
JP5919546B1 (ja) * | 2015-01-19 | 2016-05-18 | 株式会社アクセル | 画像再生方法、画像再生装置、及び画像再生プログラム |
WO2016163183A1 (ja) * | 2015-04-08 | 2016-10-13 | 株式会社コロプラ | 没入型仮想空間に実空間のユーザの周辺環境を提示するためのヘッドマウント・ディスプレイ・システムおよびコンピュータ・プログラム |
WO2018173399A1 (ja) * | 2017-03-21 | 2018-09-27 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
CN110832438A (zh) * | 2017-06-28 | 2020-02-21 | 株式会社OPTiM | 可穿戴终端显示系统、可穿戴终端显示方法以及程序 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10572746B2 (en) | Apparatus detecting driving incapability state of driver | |
US11688162B2 (en) | Drive assist device | |
US8525874B2 (en) | Assistance system for visually handicapped persons | |
KR101821496B1 (ko) | 안전운전 보조 시스템 동작방법 | |
US10474411B2 (en) | System and method for alerting VR headset user to real-world objects | |
EP3438948A1 (en) | Image processing apparatus, image processing method, and mobile body | |
US10604160B2 (en) | Driver condition detection system | |
EP3163407B1 (en) | Method and apparatus for alerting to head mounted display user | |
JP6926636B2 (ja) | 状態推定装置 | |
JP2016057839A (ja) | 顔向き検出装置及び車両用警告システム | |
JP2012114755A (ja) | ヘッドマウントディスプレイ及びコンピュータプログラム | |
KR20180090644A (ko) | 운전자 및 차량 간의 상호 작용을 위한 장치 및 그 방법 | |
US20160131905A1 (en) | Electronic apparatus, method and storage medium | |
US20210072824A1 (en) | Contextual awareness based on eye motion tracking by an eye-mounted system | |
JP2010191793A (ja) | 警告表示装置及び警告表示方法 | |
JP2016206617A (ja) | 表示システム | |
JP2024073526A (ja) | ヘッドマウント情報処理装置 | |
US11137600B2 (en) | Display device, display control method, and display system | |
WO2018155098A1 (ja) | 情報処理方法、情報処理装置及びプログラム | |
US11903647B2 (en) | Gaze detector, method for controlling gaze detector, method for detecting corneal reflection image position, and storage medium | |
WO2019155914A1 (ja) | データ処理装置、モニタリングシステム、覚醒システム、データ処理方法、データ処理プログラム、及び記憶媒体 | |
JP6321848B2 (ja) | ウェアラブルデバイス | |
JP2011134119A (ja) | 車両周辺監視装置 | |
WO2021085371A1 (ja) | 運転支援装置、運転支援方法、及び運転支援プログラム | |
JP2023097182A (ja) | ドライバ挙動判定装置、ドライバ挙動判定方法及びドライバ挙動判定用コンピュータプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120914 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130214 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130226 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20130625 |