JP2004233909A - Head-mounted display - Google Patents
Head-mounted display Download PDFInfo
- Publication number
- JP2004233909A JP2004233909A JP2003025320A JP2003025320A JP2004233909A JP 2004233909 A JP2004233909 A JP 2004233909A JP 2003025320 A JP2003025320 A JP 2003025320A JP 2003025320 A JP2003025320 A JP 2003025320A JP 2004233909 A JP2004233909 A JP 2004233909A
- Authority
- JP
- Japan
- Prior art keywords
- head
- mounted display
- user
- head mounted
- image output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、ユーザの頭部に装着された状態で、ユーザが画像を見ることができるように画像出力を行うヘッドマウントディスプレイに関する。
【0002】
【従来の技術】
ヘッドマウントディスプレイ(以下、HMDと略記する)は、ユーザの頭部に装着されて、当該ユーザに対して画像を表示する。このようなHMDは、装着すると視野が画像で遮られるため、外部に設けられたスイッチ等を手動で操作し、音声出力、画像出力等を変更するのは、困難となる。したがって、ハンズフリーで操作できるHMDが求められる。
【0003】
【発明が解決しようとする課題】
本発明は、上記の問題を解決すべくなされたものであり、音声出力、画像出力等のHMDの特定の動作を、ハンズフリーでかつユーザの意思に従って誤動作が発生しにくいHMDを提供することを課題とする。
【0004】
【課題を解決するための手段】
前記目的を達成するため、請求項1に係る発明のヘッドマウントディスプレイは、画像を出力する画像出力部を有し、頭部に装着可能なヘッドマウントディスプレイであって、ユーザの特定のアクションを検出して、ユーザの指示を受け付ける指示入力手段と、前記指示入力手段により入力された指示に応じて、ヘッドマウントディスプレイの特定の動作を行わせる制御手段とを有し、
前記指示入力手段は、ユーザの頭部の動きを検出する動き検出機能を有することを特徴とするヘッドマウントディスプレイである。
【0005】
請求項2に係る発明のヘッドマウントディスプレイは、請求項1に記載のヘッドマウントディスプレイであって、前記動き検出機能は、少なくとも、身体軸方向の軸回りの頭部の動きと、身体軸に直交する軸回りの頭部の動きとを検出し、前記制御手段は、前記動き検出手段で検出された前記身体軸方向の軸回りの頭部の動きと、身体軸に直交する軸回りの頭部の動きとの組み合わせに応じて制御がなされることを特徴とするヘッドマウントディスプレイである。
【0006】
請求項3に係る発明のヘッドマウントディスプレイは、請求項1および請求項2のいずれかに記載のヘッドマウントディスプレイであって、前記指示入力手段は、ユーザの視線の動きを検出する視線検出機能をさらに有し、前記制御手段は、前記動き検出機能による動き検出結果と前記視線検出機能による視線検出結果に応じて制御を行うことを特徴とするヘッドマウントディスプレイである。
【0007】
請求項4に係る発明のヘッドマウントディスプレイは、請求項3に記載のヘッドマウントディスプレイであって、前記制御手段は、前記視線検出結果又は前記動き検出結果のどちらか一方の結果に応じて、前記ヘッドマウントディスプレイの特定の動作の実行の指示の受付が行われる様に制御し、前記視線検出結果又は前記動き検出結果のどちらか他方の結果に応じて、指示の実行前に、受け付けた指示の確認を前記ユーザに求める様に制御することを特徴とするヘッドマウントディスプレイである。
【0008】
請求項5に係る発明のヘッドマウントディスプレイは、請求項1から請求項4のいずれかに記載のヘッドマウントディスプレイであって、前記指示入力手段は、ユーザの発する音声を検出する音声検出機能とをさらに有し、少なくとも前記動き検出機能による動き検出結果と前記音声検出機能による音声検出結果に応じて、制御を行うことを特徴とするヘッドマウントディスプレイである。
【0009】
請求項6に係る発明のヘッドマウントディスプレイは、請求項1および請求項2のいずれかに記載のヘッドマウントディスプレイであって、前記指示入力手段は、ユーザの視線の動きを検出する視線検出機能と、ユーザの発する音声を検出する音声検出機能とをさらに有し、前記制御手段は、前記音声検出機能による音声検出結果に応じて、複数の選択肢を含む表示画面の表示を前記表示出力部で行うように制御し、前記視線検出結果に応じて、前記複数の選択肢からの選択の受付を行う様に制御し、頭部の動きの検出結果に応じて、前記受付を行った内容の確認を行うように制御することを特徴とするヘッドマウントディスプレイである。
【0010】
請求項7に係る発明のヘッドマウントディスプレイは、請求項1〜6のいずれかに記載のヘッドマウントディスプレイであって、前記指示入力手段は、異なるタイミングで行われる少なくとも2つのユーザのアクションを検出する機能を有することを特徴とするヘッドマウントディスプレイである。
【0011】
請求項8に係る発明のヘッドマウントディスプレイは、請求項1〜6のいずれかに記載のヘッドマウントディスプレイであって、前記指示入力手段は、並行して行われる少なくとも2つのユーザのアクションを検出する機能を有することを特徴とするヘッドマウントディスプレイである。
【0012】
請求項9に係る発明のヘッドマウントディスプレイは、請求項1〜8のいずれかに記載のヘッドマウントディスプレイであって、前記ヘッドマウントディスプレイの特定の動作は、音声出力及び画像出力のうち少なくとも1つの変化であることを特徴とするヘッドマウントディスプレイである。
【0013】
請求項10に係る発明のヘッドマウントディスプレイは、請求項1〜9のいずれかに記載のヘッドマウントディスプレイであって、前記ヘッドマウントディスプレイの特定の動作は、電源のオンおよびオフのいずれかであることを特徴とするヘッドマウントディスプレイである。
【0014】
請求項11に係る発明のヘッドマウントディスプレイは、請求項1〜10のいずれかに記載のヘッドマウントディスプレイであって、前記画像出力部を、ユーザの眼前に位置した状態と、眼前からはずれて待避した状態とを、動力により、切り替えられる手段をさらに有し、前記ヘッドマウントディスプレイの特定の動作は、前記画像出力部を、ユーザの眼前に位置した状態と、眼前からはずれて待避した状態とで、切り替えることことを特徴とするヘッドマウントディスプレイである。
【0015】
請求項12に係る発明のヘッドマウントディスプレイは、請求項1〜11のいずれかに記載のヘッドマウントディスプレイであって、ユーザの特定のアクションの形態と、それに応じてなされるべきヘッドマウントディスプレイの特定の動作とを対応させ一組にして登録し記憶する手段をさらに有し、前記制御手段は、前記指示入力手段により検出されたユーザの特定のアクションと、前記記憶されたユーザの特定のアクションの形態と、が一致すると判定される場合は、そのアクションに対応する前記記憶されたそのアクションに応じてなされるべきヘッドマウントディスプレイの特定の動作が行われる様に制御することを特徴とするヘッドマウントディスプレイである。
【0016】
【発明の実施の形態】
以下、本発明の実施形態について、図面を参照して説明する。
(第1実施形態)
図1〜図3に、本発明の第1の実施形態に係るヘッドマウントディプレイの一例を示す。本実施形態に係るヘッドマウントディスプレイは、画像出力部100を、ユーザの眼前に位置した状態(図2参照)と、眼前からはずれて待避した状態(図3参照)とで位置変位可能である。不使用時にユーザの眼前位置から後方に待避することができる構造を有するものである。
【0017】
図1〜図3に示すように、ヘッドマウントディスプレイ(以下、HMDと略記する)は、ユーザUに対して画像を出力するための機能を有する画像出力部100と、音声、音楽、効果音等の音響を発生させる機能を有する音響出力部200と、画像出力部100、音響出力部200および音声検出装置470を一体的に連結すると共に、これらをユーザUの頭部1に着脱自在に装着するための支持部300とを有する。さらに、ユーザの頭部の動きを検出する頭部の動き検出装置700、ユーザの視線の動きを検出する視線検出装置900、ユーザにより発せられる音声を検出する音声検出装置470と、を有している。
【0018】
このHMDは、図1〜図3に示すように、ユーザUの頭部1に、当該頭部1を挟むように装着される。すなわち、音響出力部200がユーザUの耳に当接した状態で、支持部300が、それ自身が有する弾性力により、ユーザUの頭部を挟み込むことによって、頭部1に装着される。また、HMDは、画像表示信号および音響出力信号等を出力する情報処理装置Dを別体で設けた構成とした。そして、情報処理装置Dは、各出力部、各検出装置、各駆動装置とは、ケーブル800を介して接続される。情報処理装置Dは、電源と、画像信号を生成して出力する回路と、音響信号を生成して出力する回路とを有する。ケーブル800の先端には、プラグ810が設けられ、情報処理装置DのコネクタCNに着脱自在に接続される。従って、HMDの支持部300と一体的に連結された部分を頭部1に装着することで、ユーザUは、情報処理装置Dから供給される画像表示信号および音響出力信号により形成される画像および音響を、HMDを介して視聴することができる。
【0019】
次に各構成要素について説明する。
【0020】
画像出力部100は、画像を現す画像表示信号を光信号に変換して画像を形成する電気‐光変換器と、形成された画像を拡大する光学系とを有する。電気‐光変換器では、例えば、情報処理装置のディスプレイ画面のように画面を形成することができる。例えば、図9に一例を示すように、選択肢選択ウィンドウ等を表示することができる。もちろん、動画を表示することも可能である。
【0021】
音響出力部200は、音響出力信号を音響に変換するものである。本実施形態では、左音響出力部200Lと、右音響出力部200Rとが設けられている。この音響出力部200には、電気信号を音響に変換する音響変換器が設けられている。また、音響出力部200は、本実施形態では、その構造上、後述する支持部300と共に、当該HMDをユーザUの頭部1に装着させる際の、耳への当接部としても機能する。
【0022】
なお、本実施形態では、音響出力部200L側に、ケーブル800と内部配線とを接続する接続部が設けられている。
【0023】
支持部300は、図1〜3に示すように、左右の音響出力部200Lと200Rとを連結するバンド310と、バンド310の一端側に設けられた画像出力部支持アーム320と、音声検出装置支持アーム333とを有する。
【0024】
バンド310は、ユーザUの頭部1を後方から挟むことができるように湾曲した形状を持っている。そして、両端に音響出力部200Lと200Rとが連結固定されている。バンド310は、本体311と、画像出力部支持アーム320を出没自在に収容する画像出力部支持アーム収容部312とにより構成される。バンド310には、情報処理装置Dからのケーブル800に接続される配線(図示せず)が設けられている。これら配線のうち一部は、画像出力部100、音声検出装置470に通じ、他の一部は、左右の音響出力部200L,200Rに通じる。さらに、後述する視線検出装置900、頭部動き検出装置700に通じる配線もある。
【0025】
画像出力部支持アーム収容部312には、本実施形態では、音響出力部200Lに隣接して、開口部312bが設けられている。画像出力部支持アーム320は、この開口部312bから出没することができる。すなわち、画像出力部100は、画像出力部支持アーム320と画像出力部支持アーム収容部312とで構成されるスライド機構によりバンド310と連結されている。なお、開口部312bには、図示していないが、画像出力部支持アーム320が、引き出された際に、抜け落ちないようにするためのストッパ(図示せず)が設けられている。また、画像出力部支持アーム収容部312には、画像出力部支持アーム320の出没を円滑に行うため、案内レール(図示せず)が設けられる。これにより、画像出力部支持アーム320が円滑にスライドすることになる。
【0026】
バンド310の画像出力部支持アーム収容部312には、画像出力部支持アーム320を電動でスライドし収容するモータ391が取り付けられている。
【0027】
図4は、モータ391が取り付けられているモータ部390の断面図である。
【0028】
モータ391のモータ軸392にはローラー393が取り付けられており、ローラー393はモータ軸392を中心にモータ391の回転と連動して回転する。
【0029】
ローラー393は、画像出力部支持アーム320の側面と接しており、ローラー393が回転すると、摩擦力により、画像出力部支持アーム320が移動する。図2では、ローラー393が反時計回りに回転すると、画像出力部支持アーム320は画像出力部支持アーム収容部312に押し込まれ、図3の状態になる。
逆に、ローラー393が時計回りに回転すると、画像出力部支持アーム320は画像出力部支持アーム収容部312から引き出され、図2の状態になる。
【0030】
ローラー393の摩擦面の材質としては、所定の摩擦力を生じるものであればよいが、好ましくは、ゴム等の弾性体である。ただし、摩擦力が大きすぎると、画像出力部支持アーム320をユーザが手動で出し入れできなくなるので、好ましくない。
(頭部の動き検出装置)
頭部の動き検出装置700は、バンド310の中央部、すなわちユーザが装着したときに後頭部の位置に来る位置に取り付けてある。
【0031】
頭部の動き検出装置700の回路基板には、垂直方向と水平方向の加速度、角速度又は角加速度を検出する垂直方向ジャイロセンサ、水平方向ジャイロセンサが取り付けられている。このように取り付ければ、身体軸方向の頭部の動き(縦振り)、身体軸に直交する方向の頭部の動き(横振り)が検出できる。ジャイロとしては、筐体内のミラーやファイバでレーザー光を周回させ、筐体が方向を変えると内部で周回しているレーザーの発光から受光のタイミングが変わることを利用した光学式ジャイロ;歳差を応用して角度変位を検知する機械式ジャイロ;振動(一次振動)する質量に角速度がつくと「コリオリ」効果でそれに直交する方向にも振動(二次振動)が発生することを利用した振動式ジャイロ;等を使用できる。頭部の動き検出装置700の検出結果は、情報処理装置Dの中央制御装置854に送られる。
(視線検出装置)
視線検出装置900は、画像出力部100のユーザに対向する面に取り付けてある。視線検出装置900は、図5に示すように、ユーザの眼2に赤外光を照射する赤外光照射部901、ユーザの角膜で反射した光のうち赤外光を反射するダイクロイックミラー904、ダイクロミックミラー904からの反射光を集光する集光レンズ903、集光された赤外光を検出する視界センサー902からなる。このように構成される視線検出装置900は、赤外光でユーザの眼2を照明し、角膜で反射した赤外光と眼球全体の像から、瞳孔の中心位置と反射光の位置を求め、目の回転角を計算し、ユーザが画像のどこを見ているのか計算し求める方法を採用している。
(音声検出装置)
音声検出装置470は、音声検出装置支持アーム333を介してバンド310と連結されている。音声検出装置470は、ユーザが発する音声信号を電気信号に変換する装置である。例えば、磁界の中にあるリボン状の箔の動きを使って発電する方式のリボン型マイクロホン; 磁界の中にあるコイルを動かして発電、出力を取り出す方式のダイナミック型(ムービングコイル型)マイクロホン;静電容量を利用して音圧を電気信号に改める方式のコンデンサー型マイクロホン;カーボン粒子間の接触抵抗を音圧によって変化させることで収音するカーボン型マイクロホン等を使用できる。
(情報処理装置)
情報処理装置Dは、図6で示すように、画像出力部100に画像表示信号を送るため、当該画像表示信号を処理する画像出力信号処理装置851と、音響出力部200に音響出力信号を送るための音響出力信号処理装置852と、情報処理装置全体を管理する中央制御装置854と、電源のオンオフおよび節電モード、電池857への充電の制御を行うための電源制御回路856とを有する。また、HMD本体と情報信号のやりとりをする入出力インタフェース858を有する。
また、電源のオンオフを行うためのメインスイッチSWを有する。さらに、HMDと信号を授受するためのケーブル800のプラグ810を接続するためのコネクタCNが設けられている。また、電源として、充電可能な電池857が用意されている。
【0032】
情報処理装置Dには、画像表示信号および音響出力信号を生成する基となる画像情報および音響情報等を格納する記憶装置853が用意される。また、この他に、必要に応じて、外部より、画像情報および音響情報を受け入れるための通信装置を備えることもできる。
(記憶装置)
記憶装置853には、画像情報、音響情報のほかに以下の情報も記憶されている。
【0033】
記憶装置853には、ユーザが頭部を縦または横に振った場合に検出される、垂直方向または水平方向の加速度変化の標準的なパターンが記憶されている。このパターンは、図7で示される中央制御装置854でなされる動作入力処理8542において、ユーザが頭部を縦に振ったか横に振ったかを判断するために使用される。また、ユーザの頭部の振り方は常に一定ではなく、ある程度幅がある。
そこで、閾値が設けられており、パターンとのずれが閾値内であれば、パターンと一致するとみなす。この閾値も記憶装置853に記憶されている。
【0034】
また、頭部を縦または横に振ったと判断された場合になされるべきHMDの特定の動作についての情報が記憶されている。すなわち、ユーザの特定のアクションの形態と、それに応じてなされるべきヘッドマウントディスプレイの特定の動作とを対応させ一組にして記憶されている。例えば、頭部を縦に振った場合は、特定のメニュ選択ウインドウを画像出力させるなどのである。
【0035】
また、記憶装置853には、音声認識のための、音響モデルが記憶されている。
この音響モデルは、中央制御装置854でなされる音声入力処理8544において使用される。音響モデルは,平均的な発音データを基に作られた、いわゆる音声の単語辞書である。音声認識は、音響モデルと、ユーザにより入力された音声信号(波形)とをマッチング(照合)することにより行われる。詳しくは、音声入力処理の説明とともに述べる。
【0036】
また、ユーザが音声を発した場合、または特定の言葉を発した場合に、なされるべきHMDの特定の動作についての情報が記憶されている。例えば、ユーザが「音量」と発した場合は、音量調整メニュが画像出力されるなどである。
【0037】
また、頭部の動き、音声入力、視線入力の組み合わせに応じた、HMDの特定の動作についても記憶されている。例えば、頭部の動きの後に音声入力をした場合;音声入力した後に頭部の動きがあった場合;略同時に音声入力と頭部の動きがあった場合;など、ユーザのアクションの順番に応じて、なされるべきHMDの特定の動作について記憶されている。
【0038】
(中央制御装置)
中央制御装置854は、情報処理装置D全体を管理をする。また、図7に示すように、入力判定処理8541、動作入力処理8542、視線入力処理8543および音声入力処理8544を行う。
【0039】
入力判定処理8541は、ユーザがいずれの方法で入力したかを判定する処理である。本実施形態のHMDは、ユーザの特定のアクションにより、特定の動作をするものである。ユーザは、頭部を動かす方法、視線を動かす方法、音声を発する方法によりHMDに指示することができる。頭部の動きは、動き検出装置700で検出される。視線の動きは、視線検出装置900により検出される。ユーザが発した音声は音声検出装置470により検出される。そして、これらの検出結果に基づいて、入力判定処理8541により、ユーザのアクションがいかなる方法で行われたかが判定される。
【0040】
動作入力処理8542は、頭部の動き検出装置700の検出結果から、ユーザが頭部を縦に振ったか、横に振ったか等を判断する。中央制御装置854には、頭部の動き検出装置700から、ユーザ頭部の垂直方向の加速度変化と、水平方向の加速度変化の検出結果が送られてくる。垂直又は水平方向の加速度変化が検出された場合は、動作入力処理8542においては、その加速度変化のパターンと、記憶装置853に記憶された標準的な縦振り又は横振りパターンとを照合する。一致または所定の閾値範囲であればユーザが頭部を縦又は横に振ったと区別して判断する。
【0041】
そして、判断結果に基づいて、それに応じてなされるべきHMDの動作がなされるように、各処理装置に命令する。
【0042】
視線入力処理8543においては、視線検出装置900からの検出結果に基づいて、ユーザが画面上のどこを見ているかが判断される。視線検出装置900の検出結果からユーザの視線の方向がわかる。ユーザの眼と画像出力部の位置関係および視線の方向から、画面上のユーザの視点の位置が求められる。
【0043】
また、選択肢が列挙された画面を出力している場合において、所定時間、視点が一定の選択肢の位置から動かない場合は、その選択肢を選択したと判断し、次の処理に移行する。
【0044】
音声入力処理8544においては、音声検出装置470の検出結果を基に、ユーザが発した音声が分析される。単に音声を発したか否かを判断する段階と、発した言葉の意味を分析する音声認識の段階を有する。
【0045】
単に音声を発したか否かは、音声検出装置470が所定値以上の音量の音声を検出したか否かで判断できる。ただし、外界の雑音等により、ユーザが音声を発していない場合であっても、当該所定地に達する場合があるので、この所定値は、適宜変更できるようにするとよい。
【0046】
音声認識は、ユーザの発した音声信号(波形)と、記憶装置853に記憶された音響モデルとを、マッチング(照合)することにより行われる。マッチングには、通常10〜20ミリ秒の単位で,単語の先頭から順次行われる。例えば「音量」という言葉を認識する場合,最初に「お」という言葉を認識する。マッチングの候補は,音響モデルのなかの「お」から始まる言葉に絞られる。次に「おん」を認識した時点で候補は、音楽、音響、音声、音節などに,さらに「おんり」を認識した時点では,音量にといった具合に候補が絞り込まれ,最終的に最もマッチングする単語が出力される。
【0047】
音声認識がなされると、その単語の意味内容に応じてなされるべきHMDの動作をするように各処理装置に命令する。
(フローチャート)
図8は、本実施形態のHMDにおける、頭部の動き、視線の動き、音声入力がされた場合の動作の流れを示した図である。
【0048】
ステップS100において、音声入力の有無は、音声検出装置470により判定される。音声入力がされた場合は、ステップS101において、音声認識される。次にステップS102において、音声認識の結果を基にユーザが何を指示(コマンド)しているか認識がされ、続いてステップS103において、コマンドが実行するように各制御装置に指示する。これらの処理は、中央制御装置854の音声入力処理8544の過程においてなされる。
【0049】
また、ステップS200において、視線入力の有無を判定する。視線入力がされた場合は、ステップS201において、ユーザの注視位置が検出される。次にステップS202において、ユーザが画面上のどの選択肢を選択しているか特定する。続いてステップS203において、選択肢の内容を実行するよう各処理装置に指示する。これらの処理は、中央制御装置854の視線入力処理8543の過程においてなされる。
【0050】
また、ステップS300において、頭部の動きによる入力の有無を判定する。頭部の動きにより入力がされた場合は、ステップS301において、頭部の動きの種類(例えば、縦振りか、横振りか等)を認識する。次にステップS302において、それに応じた指示内容を特定する。続いてステップS303において、その指示を実行するよう各制御装置に指示する。これらの処理は、中央制御装置854の動作入力処理8542の過程においてなされる。
(第1実施形態の動作の一例)
以上のように構成されるHMDについて、その動作の一例を示す。
【0051】
本発明のHMDは、頭部の動きの検出と、視線検出と、音声検出の組み合わせにより、確実にユーザの意思を反映して動作することを特徴とする。
【0052】
以下に、頭部の動きの検出と、視線検出と、音声検出の組み合わせにより、ユーザの意思を確実に読み取り、画像出力のオフおよび画像出力部100の待避を行う一例を示す。
ユーザが画像出力をオフし、画像表示部100を眼前から待避させたい場合においては、本実施形態のHMDは、以下の動作をとるようにすることができる。
【0053】
ユーザから音声検出装置470に、例えば、「オフ」という言葉が入力されると、この音声信号は音声認識される。その結果、オフ対象選択ウィンドウ151の画像出力を求める命令(コマンド)であると認識される。そして、このコマンドの実行を画像出力信号処理装置851に指示する。
【0054】
これを受けて、画像出力信号処理装置851は、オフ対象選択ウィンドウ151を表示するように、画像出力部100に画像信号を送る。そして、画像出力部100は、図9に示すように、オフ対象選択ウィンドウ151を出力する。
【0055】
これにより、ユーザは、図9で示すように、オフ対象選択ウィンドウ151を、表示画面150の中で観察することができる。オフ対象選択ウィンドウ151には、電源、音響出力、画像出力のうちいずれをオフするかについて選択肢が列挙されている。また、画像出力部を待避する選択肢も列挙されている。また、矢印アイコン159は、ユーザの視点と連動して移動する。ユーザはこの矢印アイコン159を移動させて、オフしたいものを選択肢の上に重ねる。このとき、「選択肢を注視してください」などの音声ガイドが音声出力されるようにしてもよい。音声出力によるガイドがあれば、ユーザは操作方法が理解でき、円滑かつ迅速に次の処理に進行できる。
【0056】
ユーザは選択したい選択肢に一定時間視点を合わせる。
【0057】
視線検出装置900は、ユーザの視線を検出し、検出結果を中央制御装置854に送る。そして、一定時間以上、視点が動かない場合は、画面上の視点の位置にある選択肢を選択したとして、選択肢の特定がなされる。
【0058】
次に、図10に示すように、選択肢が正しく選択されたかどうかの確認画面152を表示する。このとき、「よろしければ、頭部を縦に振ってください」などの音声ガイドが音声出力されるようにしてもよい。これにより、ユーザに次に何をすれば良いかを伝え、ユーザにとっては操作が容易となるとともに、迅速かつ確実に次の処理へ進行できるようになる。正しく選択された場合は、ユーザは頭部を縦に振る。正しく選択されていない場合は、頭部を横に振る。
【0059】
このとき、中央制御装置854では、頭部が縦に振られた場合は、正しいと判断されたと認識し、次の処理に移るように設定しておく。一方、頭部を横に振った場合は、正しくないと認識し、再び、オフ対象選択ウィンドウに戻るように処理されるように設定しておく。
【0060】
すなわち、ユーザが頭部を縦に振った場合は、正しく選択されたと認識され、中央制御装置854は、選択肢の内容を実行するように、各処理回路に命令する。
【0061】
ここでユーザが、例えば、「画像表示オフ、画像出力部の待避」の選択肢を選択した場合は、中央制御装置854は、画像出力をオフし、また、モータ391が駆動し、画像出力部100をユーザの眼前から待避するように各処理装置に指示する。
【0062】
その結果、画像出力がオフされ、画像出力部100はユーザの眼前からはずれ待避した状態になる(図3参照)。
【0063】
このように、本実施形態によれば、頭部の動きだけでなく、ユーザの他のアクションの検出を組み合わせることで、確実にユーザの意思を読み取り、ユーザの意思に沿ってHMDの動作がなされる。
【0064】
上記の例においては、音声検出結果は、複数の選択肢を含む表示画面の表示に割当てられ、視線検出結果は、ヘッドマウントディスプレイの特定の動作の実行の指示の受付に割当てられ、頭部の動きの検出結果は、指示内容の実行前に、受け付けた指示内容の確認に割当てられている。
【0065】
HMDに特定の動作をさせるように指示するためになされる、ユーザのアクションの組み合わせは、上記のものに限られない。
【0066】
例えば、頭部を縦に振り、すぐに横に振った場合など、2種以上の頭部の動きの組み合わせに応じて、HMDの特定の動作をさせるものであってもよい。例えば、頭部を縦横に1回振りさらに縦に1回振った場合は、電源をオフしたり、または、画像出力部100がユーザの眼前から待避するなどとしてもよい。
【0067】
また、頭部を縦に2度振るなど同じ動作の組み合わせでもかまわないし、最初に頭部を右、次に頭部を前に振るなどの頭部の動きの方向を用いてもかまわない。
【0068】
また、ユーザのアクションの順番に応じて、HMDの特定の動作をさせるものであってもよい。すなわち、2以上のユーザのアクションが異なるタイミングで行われたか、並行しておこなわれたかを区別して、HMDの特定の動作をさせるものであってもよい。例えば、頭部の動きがなされた後に視線入力がされた場合;頭部の動きと音声入力が同時になされた場合;頭部の動きがなされた後に、音声入力または視線入力がなされた場合;等の場合に、HMDが特定の動作をするようにしてもよい。
【0069】
また、ユーザがどのようなアクションをした場合に、HMDがどのような動作をするかについて、ユーザにより登録できるようにするとよい。
【0070】
登録の仕方としては、画面上で、視線により選択肢を選択させて登録させることにより行える。例えば、ユーザの特定のアクションの形態と、HMDの特定の動作の対応関係を列挙した選択肢を画面に出力し、選択させるようにしてもよい。
【0071】
そして、ユーザの特定のアクションの形態と、それに応じてなされるべきヘッドマウントディスプレイの特定の動作とを対応させ一組にして、記憶装置853に記憶させるようにする。
【0072】
また、ユーザのアクションによりなされるHMDの特定の動作は、音声、画像出力のオフ等に限られない。例えば、ユーザが「ソフト」と発声すると、図11に示すように、画像としてアプリケーションソフトの画面153を出力させ、その画面上でコンピュータ内のファイルを開く等の動作をさせてもよい。この場合は、視線により、矢印アイコン159を移動させ、操作対象の選択肢、例えば、「ファイル開く」を選択させる。その後、確認画面に移行させ、頭部の縦振りによって、確定させるようにしてもよい。このように、複数のアクションによりユーザに指示させることにより、HMDは、ユーザの意思を確実に読み取り、誤作動なく特定の動作をすることができる。
【0073】
以上に述べた実施形態のHMDは、情報処理装置Dを、ケーブルを介して接続される形式のものである。しかし、本発明が適用されるHMDは、これに限られない。例えば、図12に示すように、情報処理装置DをHMDに搭載した構造を有するものにも適用することができる。また、情報処理装置DとHMDとを無線で接続する構成のものに適用することもできる。後者の場合、無線通信のための回路と電源とがHMDに搭載される。また、情報処理装置側にも、無線通信のための回路が搭載される。
【0074】
また、以上の実施形態では、画像出力部および音響出力部の両者を有する例を示した。本発明の適用は、これに限られない。例えば、画像出力部のみを有するHMDにも適用可能である。
【0075】
また、以上の実施の形態では音声検出装置470を画像出力部100と独立に配置したが、音声検出装置は画像出力部の中に組み込んでもかまわない。この場合、音声検出装置支持アーム333が不要となり機構を簡略化できる。この場合、音声を確実に拾えるように音声検出装置の指向性は下向きに設定することが望ましい。
【0076】
また、本発明は片眼式のHMDに限られない。本発明は、ユーザの両眼に画像を出力するゴーグル型のHMDについても適用が可能である。
【0077】
本実施形態のHMDは、画像出力部支持アーム320が支持部300の画像出力部支持アーム収容部312に収容できるため、不使用時に、画像出力部支持アーム320が邪魔にならないため、持ち運び、収納等の際に便利である。
【0078】
【発明の効果】
本発明によれば、音声出力、画像出力等のHMDの特定の動作を、ハンズフリーでかつユーザの意思に従って誤作動が少なくなり確実に行うHMDが提供される。
【図面の簡単な説明】
【図1】図1は本発明に係る第1の実施形態に係るヘッドマウントディスプレイの外観を示す斜視図。
【図2】図2は本発明に係る第1の実施形態に係るヘッドマウントディスプレイの構造の概要を示す断面図。
【図3】図3は本発明に係る第1の実施形態に係るヘッドマウントディスプレイの構造の概要を示す断面図。
【図4】図4はモータ部の断面図。
【図5】図5は視線検出装置の構造を示す図。
【図6】図6は本発明に係る第1の実施形態に係るヘッドマウントディスプレイおよび情報処理装置の構成要素を示す図。
【図7】図7は本発明に係る第1の実施形態に係るヘッドマウントディスプレイに適用可能な情報処理装置の構成要素を示す図。
【図8】図8は本発明に係る第1の実施形態に係るヘッドマウントディスプレイおけるユーザのアクションに応じた処理の流れを示すフローチャート。
【図9】図9はオフ時の動作態様の設定を行うため画面の一例図。
【図10】図10は確認画面の一例図。
【図11】図11はアプリケーションソフトの画面上で視線で選択肢を選択しているところを示す図。
【図12】図12は本発明に係る情報処理装置一体型のヘッドマウントディスプレイの外観を示す斜視図。
【符号の説明】
D…情報処理装置、CN…コネクタ、SW…電源スイッチ、
U…ユーザ、1…頭部、2…眼
100…画像出力部、
150…表示画面、152…オフ対象選択ウィンドウ、153…ソフトアプリケーションソフト画面、159…矢印アイコン、
200(200L,200R)…音響出力部、
300…支持部、310…バンド、311…バンド本体、312…画像出力部支持アーム収容部、312b…開口部、320…画像出力部支持アーム、
333…音声検出装置支持アーム、
390…モータ部、391…モータ、392…モータ軸、393…ローラー、
470…音声検出装置、
700…動き検出装置、
800…ケーブル、
810…プラグ、
851…画像出力信号処理装置、852…音響出力信号処理装置、853…記憶装置、
854…中央制御装置、8541…入力判定処理、8542…動作入力処理、8543…視線入力処理、8544…音声入力処理、
856…電源制御回路、857…電池、858…入出力インタフェース、
900…視線検出装置、901…赤外光照射部、902…視界センサー、903…集光レンズ、904…ダイクロイックミラー[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a head mounted display that outputs an image so that a user can view an image while being mounted on the head of the user.
[0002]
[Prior art]
A head-mounted display (hereinafter abbreviated as HMD) is mounted on the head of a user and displays an image to the user. Since the field of view of such an HMD is obstructed by an image when worn, it is difficult to manually operate an external switch or the like to change audio output, image output, and the like. Therefore, an HMD that can be operated hands-free is required.
[0003]
[Problems to be solved by the invention]
The present invention has been made in order to solve the above-described problem, and it is an object of the present invention to provide an HMD that performs a specific operation of the HMD such as audio output and image output in a hands-free manner and in which a malfunction does not easily occur according to a user's intention. Make it an issue.
[0004]
[Means for Solving the Problems]
In order to achieve the above object, a head-mounted display according to the invention according to claim 1 has an image output unit that outputs an image, and is a head-mounted display that can be mounted on a head, and detects a specific action of a user. An instruction input unit that receives an instruction of the user, and a control unit that performs a specific operation of the head mounted display in accordance with the instruction input by the instruction input unit,
The instruction input means is a head mounted display having a motion detection function for detecting a motion of a user's head.
[0005]
A head-mounted display according to a second aspect of the present invention is the head-mounted display according to the first aspect, wherein the motion detection function includes at least a motion of a head around an axis in a body axis direction and a motion perpendicular to the body axis. The control means detects the movement of the head around the axis in the body axis direction detected by the movement detection means, and the head around the axis orthogonal to the body axis. The head-mounted display is characterized in that control is performed in accordance with a combination with the movement of the head-mounted display.
[0006]
A head-mounted display according to a third aspect of the present invention is the head-mounted display according to any one of the first and second aspects, wherein the instruction input unit has a line-of-sight detection function for detecting a line-of-sight movement of the user. The head-mounted display further includes a control unit, wherein the control unit performs control in accordance with a motion detection result by the motion detection function and a visual line detection result by the visual line detection function.
[0007]
A head-mounted display according to a fourth aspect of the present invention is the head-mounted display according to the third aspect, wherein the control unit is configured to perform the control based on one of the gaze detection result and the motion detection result. Control is performed so that an instruction to execute a specific operation of the head-mounted display is received, and according to one of the results of the line-of-sight detection result or the motion detection result, before the instruction is executed, the received instruction is executed. A head-mounted display, wherein control is performed so as to request confirmation from the user.
[0008]
A head-mounted display according to a fifth aspect of the present invention is the head-mounted display according to any one of the first to fourth aspects, wherein the instruction input unit has a voice detection function for detecting a voice uttered by the user. The head-mounted display further comprises a head-mounted display that performs control in accordance with at least a motion detection result by the motion detection function and a voice detection result by the voice detection function.
[0009]
A head-mounted display according to a sixth aspect of the present invention is the head-mounted display according to any one of the first and second aspects, wherein the instruction input unit includes a line-of-sight detection function for detecting a line-of-sight movement of the user. And a voice detection function of detecting a voice uttered by the user, wherein the control unit causes the display output unit to display a display screen including a plurality of options according to a voice detection result by the voice detection function. Control is performed so as to accept selection from the plurality of options according to the gaze detection result, and confirm the content of the acceptance performed according to the head movement detection result. The head mounted display is characterized by being controlled as described above.
[0010]
A head-mounted display according to a seventh aspect of the present invention is the head-mounted display according to any one of the first to sixth aspects, wherein the instruction input unit detects at least two user actions performed at different timings. A head mounted display having a function.
[0011]
The head-mounted display according to the invention according to claim 8 is the head-mounted display according to any one of claims 1 to 6, wherein the instruction input unit detects at least two user actions performed in parallel. A head mounted display having a function.
[0012]
The head-mounted display according to the ninth aspect is the head-mounted display according to any one of the first to eighth aspects, wherein the specific operation of the head-mounted display is at least one of an audio output and an image output. A head mounted display characterized by a change.
[0013]
A head-mounted display according to a tenth aspect is the head-mounted display according to any one of the first to ninth aspects, wherein the specific operation of the head-mounted display is one of turning on and off a power supply. A head mounted display characterized by the above.
[0014]
A head-mounted display according to an eleventh aspect of the present invention is the head-mounted display according to any one of the first to tenth aspects, wherein the image output unit is positioned in front of a user and retracted from the user. The state further comprises means for switching by power, the specific operation of the head-mounted display, the image output unit, in a state of being located in front of the user, and in a state of being retracted from the user's eyes and retracted And a head mounted display characterized by switching.
[0015]
A head-mounted display according to a twelfth aspect of the present invention is the head-mounted display according to any of the first to eleventh aspects, wherein the form of the user's specific action and the specification of the head-mounted display to be performed in accordance therewith are specified. And a means for registering and storing a set of actions corresponding to the actions of the user, wherein the control means is configured to store a specific action of the user detected by the instruction input means and a specific action of the stored user. And if the form is determined to match, the head mount is controlled to perform a specific operation of the head mounted display to be performed in accordance with the stored action corresponding to the action. It is a display.
[0016]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(1st Embodiment)
1 to 3 show an example of a head mounted display according to the first embodiment of the present invention. In the head mounted display according to the present embodiment, the
[0017]
As shown in FIGS. 1 to 3, a head-mounted display (hereinafter abbreviated as HMD) includes an
[0018]
The HMD is mounted on the head 1 of the user U so as to sandwich the head 1 as shown in FIGS. That is, in a state where the
[0019]
Next, each component will be described.
[0020]
The
[0021]
The
[0022]
In the present embodiment, a connection unit that connects the
[0023]
As illustrated in FIGS. 1 to 3, the
[0024]
The
[0025]
In the present embodiment, an
[0026]
A
[0027]
FIG. 4 is a sectional view of the
[0028]
A
[0029]
The
Conversely, when the
[0030]
The material of the friction surface of the
(Head motion detector)
The head
[0031]
A vertical gyro sensor and a horizontal gyro sensor for detecting vertical and horizontal accelerations, angular velocities, or angular accelerations are mounted on a circuit board of the head
(Gaze detection device)
The
(Voice detection device)
The
(Information processing device)
As shown in FIG. 6, the information processing device D sends an image output signal to the
Further, it has a main switch SW for turning on and off the power supply. Further, a connector CN for connecting a
[0032]
The information processing device D is provided with a
(Storage device)
The
[0033]
The
Therefore, a threshold value is provided, and if the deviation from the pattern is within the threshold value, it is considered that the pattern matches the pattern. This threshold is also stored in the
[0034]
Further, information on a specific operation of the HMD to be performed when it is determined that the head is swung vertically or horizontally is stored. That is, a specific action form of the user and a specific operation of the head mounted display to be performed in accordance with the specific action form are stored as a set. For example, when the head is swung vertically, a specific menu selection window is output as an image.
[0035]
Further, the
This acoustic model is used in the
[0036]
Further, information on a specific operation of the HMD to be performed when the user utters a voice or a specific word is stored. For example, when the user says "volume", a volume adjustment menu is output as an image.
[0037]
In addition, a specific operation of the HMD according to a combination of a head movement, a voice input, and a gaze input is also stored. For example, when a voice input is performed after a head motion; when a head motion is performed after a voice input; when a voice input and a head motion are performed substantially simultaneously; The specific operation of the HMD to be performed is stored.
[0038]
(Central control unit)
The
[0039]
The
[0040]
The
[0041]
Then, based on the determination result, each processing device is instructed to perform the operation of the HMD to be performed accordingly.
[0042]
In the eye
[0043]
Further, when a screen listing options is output, if the viewpoint does not move from the position of a certain option for a predetermined time, it is determined that the option has been selected, and the process proceeds to the next process.
[0044]
In the
[0045]
Whether or not a sound is simply emitted can be determined based on whether or not the
[0046]
The voice recognition is performed by matching (collating) a voice signal (waveform) emitted by the user with an acoustic model stored in the
[0047]
When the speech recognition is performed, each processing device is instructed to perform an HMD operation to be performed according to the meaning of the word.
(flowchart)
FIG. 8 is a diagram illustrating a flow of an operation when a head movement, a gaze movement, and a voice input are performed in the HMD according to the present embodiment.
[0048]
In step S100, the presence or absence of a voice input is determined by the
[0049]
Further, in step S200, it is determined whether or not there is a line-of-sight input. When the line of sight has been input, the gaze position of the user is detected in step S201. Next, in step S202, it is specified which option on the screen the user has selected. Subsequently, in step S203, each processing device is instructed to execute the content of the option. These processes are performed in the course of the line-of-
[0050]
In step S300, it is determined whether there is an input due to the movement of the head. If the input is made based on the movement of the head, in step S301, the type of the movement of the head (for example, vertical swing or horizontal swing) is recognized. Next, in step S302, the instruction content corresponding to the instruction is specified. Subsequently, in step S303, each control device is instructed to execute the instruction. These processes are performed in the process of the
(Example of Operation of First Embodiment)
An example of the operation of the HMD configured as described above will be described.
[0051]
The HMD according to the present invention is characterized in that it operates by reliably reflecting the user's intention by a combination of head movement detection, gaze detection, and voice detection.
[0052]
Hereinafter, an example will be described in which the intention of the user is reliably read, the image output is turned off, and the
When the user turns off the image output and wants to evacuate the
[0053]
When, for example, the word “OFF” is input from the user to the
[0054]
In response to this, the image output
[0055]
This allows the user to observe the off
[0056]
The user adjusts the viewpoint to the option to be selected for a certain time.
[0057]
The
[0058]
Next, as shown in FIG. 10, a
[0059]
At this time, if the head is swung vertically, the
[0060]
That is, when the user shakes his / her head vertically, it is recognized that the selection is correct, and the
[0061]
Here, for example, when the user selects the option of “image display off, evacuating the image output unit”, the
[0062]
As a result, the image output is turned off, and the
[0063]
As described above, according to the present embodiment, not only the movement of the head but also the detection of other actions of the user are combined, so that the intention of the user is reliably read, and the operation of the HMD is performed according to the intention of the user. You.
[0064]
In the above example, the voice detection result is assigned to the display of the display screen including a plurality of options, and the gaze detection result is assigned to the reception of an instruction to execute a specific operation of the head-mounted display, and the head movement Is assigned to confirm the received instruction content before executing the instruction content.
[0065]
The combination of user actions performed to instruct the HMD to perform a specific operation is not limited to the above.
[0066]
For example, a specific operation of the HMD may be performed according to a combination of two or more types of head movements, such as when the head is swung vertically and immediately swung horizontally. For example, in the case where the head is swung once in the vertical and horizontal directions and once in the vertical direction, the power may be turned off or the
[0067]
Also, a combination of the same actions such as shaking the head twice vertically may be used, or a direction of the head movement such as shaking the head right first and then the head forward may be used.
[0068]
Further, a specific operation of the HMD may be performed according to the order of the user's actions. That is, a specific operation of the HMD may be performed by distinguishing whether two or more user actions are performed at different timings or in parallel. For example, a gaze input is performed after the head is moved; a head movement and a voice input are performed at the same time; a speech input or a gaze input is performed after the head is moved; In this case, the HMD may perform a specific operation.
[0069]
Further, it is preferable that the user can register what kind of action the HMD performs when the user performs the action.
[0070]
The registration can be performed by selecting an option on the screen with a line of sight and registering it. For example, an option listing the correspondence between the specific action form of the user and the specific operation of the HMD may be output to the screen and selected.
[0071]
Then, a specific action form of the user is associated with a specific operation of the head mounted display to be performed in accordance with the specific action form, and a set is stored in the
[0072]
Further, the specific operation of the HMD performed by the action of the user is not limited to, for example, turning off the sound and the image output. For example, when the user utters “soft”, as shown in FIG. 11, an
[0073]
The HMD of the embodiment described above is of a type in which the information processing device D is connected via a cable. However, the HMD to which the present invention is applied is not limited to this. For example, as shown in FIG. 12, the present invention can be applied to a device having a structure in which an information processing device D is mounted on an HMD. Further, the present invention can be applied to a configuration in which the information processing apparatus D and the HMD are wirelessly connected. In the latter case, a circuit and a power supply for wireless communication are mounted on the HMD. Also, a circuit for wireless communication is mounted on the information processing device side.
[0074]
In the above embodiment, an example having both the image output unit and the sound output unit has been described. The application of the present invention is not limited to this. For example, the present invention is also applicable to an HMD having only an image output unit.
[0075]
Further, in the above embodiment, the
[0076]
Further, the present invention is not limited to a single-eye HMD. The present invention is also applicable to a goggle type HMD that outputs an image to both eyes of a user.
[0077]
In the HMD of the present embodiment, since the image output
[0078]
【The invention's effect】
According to the present invention, there is provided an HMD that performs a specific operation of the HMD such as an audio output and an image output in a hands-free manner and with less malfunction according to a user's intention and reliably.
[Brief description of the drawings]
FIG. 1 is a perspective view showing an appearance of a head mounted display according to a first embodiment of the present invention.
FIG. 2 is a sectional view showing an outline of the structure of the head mounted display according to the first embodiment of the present invention.
FIG. 3 is a sectional view showing an outline of the structure of the head mounted display according to the first embodiment of the present invention.
FIG. 4 is a sectional view of a motor unit.
FIG. 5 is a diagram showing a structure of a visual line detection device.
FIG. 6 is a diagram showing components of a head mounted display and an information processing apparatus according to the first embodiment of the present invention.
FIG. 7 is a diagram showing components of an information processing apparatus applicable to the head mounted display according to the first embodiment of the present invention.
FIG. 8 is a flowchart showing a flow of processing according to a user action in the head mounted display according to the first embodiment of the present invention.
FIG. 9 is a view showing an example of a screen for setting an OFF operation mode;
FIG. 10 is an example of a confirmation screen.
FIG. 11 is a view showing a state where an option is selected with a line of sight on the screen of the application software.
FIG. 12 is a perspective view showing the appearance of a head mounted display integrated with an information processing apparatus according to the present invention.
[Explanation of symbols]
D: information processing device, CN: connector, SW: power switch,
U: User, 1: Head, 2: Eye
100 image output unit,
150 ... display screen, 152 ... off target selection window, 153 ... software application software screen, 159 ... arrow icon,
200 (200L, 200R) ... sound output unit,
Reference numeral 300: support portion, 310: band, 311: band body, 312: image output portion support arm accommodation portion, 312b: opening, 320: image output portion support arm,
333: voice detection device support arm,
390: motor unit, 391: motor, 392: motor shaft, 393: roller,
470 ... voice detection device,
700: motion detection device,
800 ... cable,
810: plug,
851 image output signal processing device, 852 audio output signal processing device, 853 storage device
854: central control device, 8541: input determination process, 8542: motion input process, 8543: gaze input process, 8544: voice input process,
856: power control circuit, 857: battery, 858: input / output interface,
900: line-of-sight detection device, 901: infrared light irradiation unit, 902: field-of-view sensor, 903: condenser lens, 904: dichroic mirror
Claims (12)
ユーザの特定のアクションを検出して、ユーザの指示を受け付ける指示入力手段と、
前記指示入力手段により入力された指示に応じて、ヘッドマウントディスプレイの特定の動作を行わせる制御手段とを有し、
前記指示入力手段は、ユーザの頭部の動きを検出する動き検出機能を有することを特徴とするヘッドマウントディスプレイ。An image output unit that outputs an image, a head mounted display that can be mounted on the head,
An instruction input unit that detects a specific action of the user and receives an instruction from the user;
Control means for performing a specific operation of the head mounted display according to the instruction input by the instruction input means,
The head-mounted display, wherein the instruction input unit has a motion detecting function of detecting a motion of a user's head.
前記動き検出機能は、少なくとも、身体軸方向の軸回りの頭部の動きと、身体軸に直交する軸回りの頭部の動きとを検出し、
前記制御手段は、前記動き検出手段で検出された前記身体軸方向の軸回りの頭部の動きと、身体軸に直交する軸回りの頭部の動きとの組み合わせに応じて制御がなされることを特徴とするヘッドマウントディスプレイ。The head mounted display according to claim 1, wherein
The motion detection function, at least, detects the movement of the head around the body axis direction, and the movement of the head around the axis orthogonal to the body axis,
The control means is controlled in accordance with a combination of the movement of the head around the axis in the body axis direction detected by the movement detection means and the movement of the head about an axis orthogonal to the body axis. A head mounted display characterized by the following.
前記指示入力手段は、ユーザの視線の動きを検出する視線検出機能をさらに有し、
前記制御手段は、前記動き検出機能による動き検出結果と前記視線検出機能による視線検出結果に応じて制御を行うことを特徴とするヘッドマウントディスプレイ。The head mounted display according to any one of claims 1 and 2,
The instruction input unit further has a line-of-sight detection function of detecting the movement of the line of sight of the user,
The head mounted display, wherein the control means performs control in accordance with a result of motion detection by the motion detection function and a result of visual line detection by the visual line detection function.
前記制御手段は、前記視線検出結果又は前記動き検出結果のどちらか一方の結果に応じて、前記ヘッドマウントディスプレイの特定の動作の実行の指示の受付が行われる様に制御し、前記視線検出結果又は前記動き検出結果のどちらか他方の結果に応じて、指示の実行前に、受け付けた指示の確認を前記ユーザに求める様に制御することを特徴とするヘッドマウントディスプレイ。The head mounted display according to claim 3, wherein
The control unit performs control such that an instruction to execute a specific operation of the head-mounted display is received in accordance with one of the result of the line-of-sight detection and the result of the movement detection. Alternatively, a head-mounted display is controlled so as to request the user to confirm a received instruction before executing the instruction in accordance with one of the results of the motion detection.
前記指示入力手段は、ユーザの発する音声を検出する音声検出機能とをさらに有し、
少なくとも前記動き検出機能による動き検出結果と前記音声検出機能による音声検出結果に応じて、制御を行うことを特徴とするヘッドマウントディスプレイ。The head mounted display according to any one of claims 1 to 4, wherein
The instruction input means further has a voice detection function of detecting a voice emitted by the user,
A head-mounted display that performs control according to at least a motion detection result by the motion detection function and a voice detection result by the voice detection function.
前記指示入力手段は、ユーザの視線の動きを検出する視線検出機能と、ユーザの発する音声を検出する音声検出機能とをさらに有し、
前記制御手段は、前記音声検出機能による音声検出結果に応じて、複数の選択肢を含む表示画面の表示を前記表示出力部で行うように制御し、
前記視線検出結果に応じて、前記複数の選択肢からの選択の受付を行う様に制御し、
頭部の動きの検出結果に応じて、前記受付を行った内容の確認を行うように制御することを特徴とするヘッドマウントディスプレイ。The head mounted display according to any one of claims 1 and 2,
The instruction input unit further has a line-of-sight detection function for detecting the movement of the user's line of sight, and a sound detection function for detecting a sound emitted by the user,
The control means controls the display output unit to display a display screen including a plurality of options according to a sound detection result by the sound detection function,
In accordance with the gaze detection result, control is performed to accept a selection from the plurality of options,
A head-mounted display, wherein control is performed to confirm the content of the reception in accordance with a detection result of a head movement.
前記指示入力手段は、異なるタイミングで行われる少なくとも2つのユーザのアクションを検出する機能を有することを特徴とするヘッドマウントディスプレイ。The head mounted display according to any one of claims 1 to 6, wherein
The head mounted display, wherein the instruction input unit has a function of detecting at least two user actions performed at different timings.
前記指示入力手段は、並行して行われる少なくとも2つのユーザのアクションを検出する機能を有することを特徴とするヘッドマウントディスプレイ。7. The head mounted display according to claim 1, wherein said instruction input means has a function of detecting at least two user actions performed in parallel.
前記ヘッドマウントディスプレイの特定の動作は、音声出力及び画像出力のうち少なくとも1つの変化であることを特徴とするヘッドマウントディスプレイ。The head mounted display according to any one of claims 1 to 8,
The specific operation of the head-mounted display is a change in at least one of an audio output and an image output.
前記ヘッドマウントディスプレイの特定の動作は、電源のオンおよびオフのいずれかであることを特徴とするヘッドマウントディスプレイ。It is a head mounted display according to any one of claims 1 to 9,
The head mounted display according to claim 1, wherein the specific operation of the head mounted display is one of power on and off.
前記画像出力部を、ユーザの眼前に位置した状態と、眼前からはずれて待避した状態とを、動力により、切り替えられる手段をさらに有し、
前記ヘッドマウントディスプレイの特定の動作は、前記画像出力部を、ユーザの眼前に位置した状態と、眼前からはずれて待避した状態とで、切り替えることことを特徴とするヘッドマウントディスプレイ。The head mounted display according to any one of claims 1 to 10, wherein
The image output unit further includes a unit that can be switched between a state in which the user is positioned in front of the user and a state in which the image output unit is out of front and retracted by power,
The head mounted display according to claim 1, wherein the specific operation of the head mounted display switches between a state in which the image output unit is positioned in front of the user and a state in which the image output unit is separated from the user and retracted.
ユーザの特定のアクションの形態と、それに応じてなされるべきヘッドマウントディスプレイの特定の動作とを対応させ一組にして登録し記憶する手段をさらに有し、
前記制御手段は、前記指示入力手段により検出されたユーザの特定のアクションと、前記記憶されたユーザの特定のアクションの形態と、が一致すると判定される場合は、そのアクションに対応する前記記憶されたそのアクションに応じてなされるべきヘッドマウントディスプレイの特定の動作が行われる様に制御することを特徴とするヘッドマウントディスプレイ。The head mounted display according to any one of claims 1 to 11,
The apparatus further includes means for registering and storing a set of a specific action form of the user and a specific operation of the head mounted display to be performed in response thereto,
The control means, when it is determined that the specific action of the user detected by the instruction input means and the form of the stored specific action of the user match, the stored corresponding to the action A head-mounted display which controls so that a specific operation of the head-mounted display to be performed according to the action is performed.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003025320A JP2004233909A (en) | 2003-01-31 | 2003-01-31 | Head-mounted display |
PCT/JP2003/016422 WO2004061519A1 (en) | 2002-12-24 | 2003-12-22 | Head mount display |
US11/154,893 US7542012B2 (en) | 2002-12-24 | 2005-06-16 | Head mounted display |
US12/430,637 US8400371B2 (en) | 2002-12-24 | 2009-04-27 | Head mount display |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003025320A JP2004233909A (en) | 2003-01-31 | 2003-01-31 | Head-mounted display |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004233909A true JP2004233909A (en) | 2004-08-19 |
Family
ID=32953636
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003025320A Pending JP2004233909A (en) | 2002-12-24 | 2003-01-31 | Head-mounted display |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004233909A (en) |
Cited By (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006087049A (en) * | 2004-09-17 | 2006-03-30 | Canon Inc | Imaging device, method for controlling it and computer program |
JP2008015634A (en) * | 2006-07-03 | 2008-01-24 | Seikatsu Kyodo Kumiai Coop Sapporo | System and method for providing commodity-related information |
JP2009044387A (en) * | 2007-08-08 | 2009-02-26 | Nikon Corp | Head-mounted display |
JP2011014081A (en) * | 2009-07-06 | 2011-01-20 | Toshiba Tec Corp | Wearable terminal device and program |
JP2011048439A (en) * | 2009-08-25 | 2011-03-10 | Toshiba Tec Corp | Wearable order terminal and program |
JP2011048440A (en) * | 2009-08-25 | 2011-03-10 | Toshiba Tec Corp | Cooking assistance terminal and program |
JP2012514392A (en) * | 2008-12-30 | 2012-06-21 | ゼンハイザー・エレクトロニック・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング・ウント・コンパニー・コマンデイトゲゼルシャフト | Control system, earphone, and control method |
JP2013083731A (en) * | 2011-10-06 | 2013-05-09 | Murata Mach Ltd | Image display system |
WO2013175465A1 (en) * | 2012-05-21 | 2013-11-28 | Lumus Ltd. | Head -mounted display with an eyeball - tracker integrated system |
WO2014129105A1 (en) * | 2013-02-22 | 2014-08-28 | ソニー株式会社 | Head-mounted display system, head-mounted display, and control program for head-mounted display |
JP2015087921A (en) * | 2013-10-30 | 2015-05-07 | セイコーエプソン株式会社 | Head-mounted display device and method for controlling head-mounted display device |
KR20150078242A (en) * | 2013-12-30 | 2015-07-08 | 주식회사 케이티 | Method for controlling head mounted display, computing device and computer-readable medium |
JP2015141686A (en) * | 2014-01-30 | 2015-08-03 | 株式会社リコー | Pointing device, information processing device, information processing system, and method for controlling pointing device |
JP2016126381A (en) * | 2014-12-26 | 2016-07-11 | セイコーエプソン株式会社 | Head-mounted display device, control method thereof, and computer program |
JP2016218597A (en) * | 2015-05-18 | 2016-12-22 | 富士通株式会社 | Wearable device, display control program, and display control method |
WO2017057037A1 (en) * | 2015-09-30 | 2017-04-06 | ソニー株式会社 | Information processing device, information processing method, and program |
JP2017511636A (en) * | 2014-03-10 | 2017-04-20 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | Device and method for facilitating wireless communication based on an implicit user queue |
JP2017134601A (en) * | 2016-01-27 | 2017-08-03 | 株式会社コーエーテクモゲームス | Information processing device, setting screen display method, and setting screen display program |
KR20170090419A (en) * | 2014-10-24 | 2017-08-07 | 이매진 코퍼레이션 | Microdisplay based immersive headset |
US9921646B2 (en) | 2013-03-25 | 2018-03-20 | Seiko Epson Corporation | Head-mounted display device and method of controlling head-mounted display device |
JP2018508805A (en) * | 2014-12-29 | 2018-03-29 | 株式会社ソニー・インタラクティブエンタテインメント | Method and system for user interaction in a virtual or augmented reality scene using a head mounted display |
WO2018061743A1 (en) * | 2016-09-28 | 2018-04-05 | コニカミノルタ株式会社 | Wearable terminal |
JP2018091882A (en) * | 2016-11-30 | 2018-06-14 | セイコーエプソン株式会社 | Head-mounted display, program, and method for controlling head-mounted display |
US10366691B2 (en) | 2017-07-11 | 2019-07-30 | Samsung Electronics Co., Ltd. | System and method for voice command context |
US10506220B2 (en) | 2018-01-02 | 2019-12-10 | Lumus Ltd. | Augmented reality displays with active alignment and corresponding methods |
US10649214B2 (en) | 2005-02-10 | 2020-05-12 | Lumus Ltd. | Substrate-guide optical device |
US10732415B2 (en) | 2005-02-10 | 2020-08-04 | Lumus Ltd. | Substrate-guide optical device |
US11243434B2 (en) | 2017-07-19 | 2022-02-08 | Lumus Ltd. | LCOS illumination via LOE |
US11262587B2 (en) | 2018-05-22 | 2022-03-01 | Lumus Ltd. | Optical system and method for improvement of light field uniformity |
US11500143B2 (en) | 2017-01-28 | 2022-11-15 | Lumus Ltd. | Augmented reality imaging system |
US11849262B2 (en) | 2019-03-12 | 2023-12-19 | Lumus Ltd. | Image projector |
-
2003
- 2003-01-31 JP JP2003025320A patent/JP2004233909A/en active Pending
Cited By (52)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006087049A (en) * | 2004-09-17 | 2006-03-30 | Canon Inc | Imaging device, method for controlling it and computer program |
US8558900B2 (en) | 2004-09-17 | 2013-10-15 | Canon Kabushiki Kaisha | Image capturing apparatus and control method thereof with attitude control |
US10732415B2 (en) | 2005-02-10 | 2020-08-04 | Lumus Ltd. | Substrate-guide optical device |
US11099389B2 (en) | 2005-02-10 | 2021-08-24 | Lumus Ltd. | Substrate-guide optical device |
US10649214B2 (en) | 2005-02-10 | 2020-05-12 | Lumus Ltd. | Substrate-guide optical device |
JP2008015634A (en) * | 2006-07-03 | 2008-01-24 | Seikatsu Kyodo Kumiai Coop Sapporo | System and method for providing commodity-related information |
JP2009044387A (en) * | 2007-08-08 | 2009-02-26 | Nikon Corp | Head-mounted display |
JP2012514392A (en) * | 2008-12-30 | 2012-06-21 | ゼンハイザー・エレクトロニック・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング・ウント・コンパニー・コマンデイトゲゼルシャフト | Control system, earphone, and control method |
US8949744B2 (en) | 2008-12-30 | 2015-02-03 | Sennheiser Electronic Gmbh & Co. Kg | Control system, earphone and control method |
JP2011014081A (en) * | 2009-07-06 | 2011-01-20 | Toshiba Tec Corp | Wearable terminal device and program |
JP2011048439A (en) * | 2009-08-25 | 2011-03-10 | Toshiba Tec Corp | Wearable order terminal and program |
JP2011048440A (en) * | 2009-08-25 | 2011-03-10 | Toshiba Tec Corp | Cooking assistance terminal and program |
JP2013083731A (en) * | 2011-10-06 | 2013-05-09 | Murata Mach Ltd | Image display system |
US9804396B2 (en) | 2012-05-21 | 2017-10-31 | Lumus Ltd. | Head-mounted display with an eyeball-tracker integrated system |
EP3796069A1 (en) * | 2012-05-21 | 2021-03-24 | Lumus Ltd | Head-mounted display with an eyeball-tracker integrated system |
CN104395815A (en) * | 2012-05-21 | 2015-03-04 | 鲁姆斯有限公司 | Head-mounted display with an eyeball-tracker integrated system |
CN104395815B (en) * | 2012-05-21 | 2017-03-08 | 鲁姆斯有限公司 | Head mounted display eyeball tracking device integrated system |
US10520732B2 (en) | 2012-05-21 | 2019-12-31 | Lumus Ltd. | Head-mounted display eyeball tracker integrated system |
WO2013175465A1 (en) * | 2012-05-21 | 2013-11-28 | Lumus Ltd. | Head -mounted display with an eyeball - tracker integrated system |
CN104335155A (en) * | 2013-02-22 | 2015-02-04 | 索尼公司 | Head-mounted display system, head-mounted display, and control program for head-mounted display |
US9829997B2 (en) | 2013-02-22 | 2017-11-28 | Sony Corporation | Head-mounted display system, head-mounted display, and head-mounted display control program |
CN104335155B (en) * | 2013-02-22 | 2018-11-09 | 索尼公司 | The control program of wear-type display system, head-mounted display and head-mounted display |
WO2014129105A1 (en) * | 2013-02-22 | 2014-08-28 | ソニー株式会社 | Head-mounted display system, head-mounted display, and control program for head-mounted display |
US9921646B2 (en) | 2013-03-25 | 2018-03-20 | Seiko Epson Corporation | Head-mounted display device and method of controlling head-mounted display device |
JP2015087921A (en) * | 2013-10-30 | 2015-05-07 | セイコーエプソン株式会社 | Head-mounted display device and method for controlling head-mounted display device |
KR102122339B1 (en) | 2013-12-30 | 2020-06-12 | 주식회사 케이티 | Method for controlling head mounted display, computing device and computer-readable medium |
KR20150078242A (en) * | 2013-12-30 | 2015-07-08 | 주식회사 케이티 | Method for controlling head mounted display, computing device and computer-readable medium |
JP2015141686A (en) * | 2014-01-30 | 2015-08-03 | 株式会社リコー | Pointing device, information processing device, information processing system, and method for controlling pointing device |
JP2017511636A (en) * | 2014-03-10 | 2017-04-20 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | Device and method for facilitating wireless communication based on an implicit user queue |
US10394330B2 (en) | 2014-03-10 | 2019-08-27 | Qualcomm Incorporated | Devices and methods for facilitating wireless communications based on implicit user cues |
JP6994362B2 (en) | 2014-10-24 | 2022-01-14 | イメージン コーポレイション | Micro-display based immersive headset |
JP2018067929A (en) * | 2014-10-24 | 2018-04-26 | イメージン コーポレイション | Microdisplay based immersive headset |
KR102295452B1 (en) * | 2014-10-24 | 2021-08-27 | 이매진 코퍼레이션 | Microdisplay based immersive headset |
JP2018010318A (en) * | 2014-10-24 | 2018-01-18 | イメージン コーポレイション | Microdisplay based immersive headset |
KR20170090419A (en) * | 2014-10-24 | 2017-08-07 | 이매진 코퍼레이션 | Microdisplay based immersive headset |
US11256102B2 (en) | 2014-10-24 | 2022-02-22 | Emagin Corporation | Microdisplay based immersive headset |
JP2016126381A (en) * | 2014-12-26 | 2016-07-11 | セイコーエプソン株式会社 | Head-mounted display device, control method thereof, and computer program |
JP2018508805A (en) * | 2014-12-29 | 2018-03-29 | 株式会社ソニー・インタラクティブエンタテインメント | Method and system for user interaction in a virtual or augmented reality scene using a head mounted display |
US10073516B2 (en) | 2014-12-29 | 2018-09-11 | Sony Interactive Entertainment Inc. | Methods and systems for user interaction within virtual reality scene using head mounted display |
JP2016218597A (en) * | 2015-05-18 | 2016-12-22 | 富士通株式会社 | Wearable device, display control program, and display control method |
WO2017057037A1 (en) * | 2015-09-30 | 2017-04-06 | ソニー株式会社 | Information processing device, information processing method, and program |
JP2017134601A (en) * | 2016-01-27 | 2017-08-03 | 株式会社コーエーテクモゲームス | Information processing device, setting screen display method, and setting screen display program |
WO2018061743A1 (en) * | 2016-09-28 | 2018-04-05 | コニカミノルタ株式会社 | Wearable terminal |
JP2018091882A (en) * | 2016-11-30 | 2018-06-14 | セイコーエプソン株式会社 | Head-mounted display, program, and method for controlling head-mounted display |
US11500143B2 (en) | 2017-01-28 | 2022-11-15 | Lumus Ltd. | Augmented reality imaging system |
US10366691B2 (en) | 2017-07-11 | 2019-07-30 | Samsung Electronics Co., Ltd. | System and method for voice command context |
US11243434B2 (en) | 2017-07-19 | 2022-02-08 | Lumus Ltd. | LCOS illumination via LOE |
US10869024B2 (en) | 2018-01-02 | 2020-12-15 | Lumus Ltd. | Augmented reality displays with active alignment and corresponding methods |
US10506220B2 (en) | 2018-01-02 | 2019-12-10 | Lumus Ltd. | Augmented reality displays with active alignment and corresponding methods |
US11262587B2 (en) | 2018-05-22 | 2022-03-01 | Lumus Ltd. | Optical system and method for improvement of light field uniformity |
US11567331B2 (en) | 2018-05-22 | 2023-01-31 | Lumus Ltd. | Optical system and method for improvement of light field uniformity |
US11849262B2 (en) | 2019-03-12 | 2023-12-19 | Lumus Ltd. | Image projector |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2004233909A (en) | Head-mounted display | |
JP6271935B2 (en) | Display device and control method thereof | |
US8532871B2 (en) | Multi-modal vehicle operating device | |
US7519537B2 (en) | Method and apparatus for a verbo-manual gesture interface | |
EP2778865B1 (en) | Input control method and electronic device supporting the same | |
WO2004061519A1 (en) | Head mount display | |
WO2010062479A1 (en) | System and apparatus for eyeglass appliance platform | |
WO2012040107A1 (en) | Advanced remote control of host application using motion and voice commands | |
WO2019026616A1 (en) | Information processing device and method | |
JP2007216363A (en) | Communication robot | |
JP6470374B1 (en) | Program and information processing apparatus executed by computer to provide virtual reality | |
US20180204375A1 (en) | Smart device and method for controlling same | |
JP7466034B2 (en) | Programs and systems | |
JP2018036902A (en) | Equipment operation system, equipment operation method, and equipment operation program | |
EP1263214A2 (en) | Image-taking device | |
JP4247149B2 (en) | robot | |
JP4321083B2 (en) | Head mounted display | |
KR102136461B1 (en) | Smart projector and method for controlling thereof | |
US20200401031A1 (en) | Information processing apparatus, information processing method, and recording medium | |
JP2006327526A (en) | Operating device of car-mounted appliance | |
JP2012194626A (en) | Display device | |
JP3270403B2 (en) | Device angle control method | |
JP2016148899A (en) | Electronic apparatus | |
JP2002165156A (en) | Image display mounted on head and image-displaying system | |
KR102136462B1 (en) | Smart projector and method for controlling thereof |