Nothing Special   »   [go: up one dir, main page]

JP2004233909A - Head-mounted display - Google Patents

Head-mounted display Download PDF

Info

Publication number
JP2004233909A
JP2004233909A JP2003025320A JP2003025320A JP2004233909A JP 2004233909 A JP2004233909 A JP 2004233909A JP 2003025320 A JP2003025320 A JP 2003025320A JP 2003025320 A JP2003025320 A JP 2003025320A JP 2004233909 A JP2004233909 A JP 2004233909A
Authority
JP
Japan
Prior art keywords
head
mounted display
user
head mounted
image output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003025320A
Other languages
Japanese (ja)
Inventor
Masaki Otsuki
正樹 大槻
Nobuyuki Miyake
信行 三宅
Shigeru Kato
茂 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2003025320A priority Critical patent/JP2004233909A/en
Priority to PCT/JP2003/016422 priority patent/WO2004061519A1/en
Publication of JP2004233909A publication Critical patent/JP2004233909A/en
Priority to US11/154,893 priority patent/US7542012B2/en
Priority to US12/430,637 priority patent/US8400371B2/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a head-mounted display (HMD) whose specified operation such as sound output and picture output is performed in a hands-free state as intended by a user and which hardly causes malfunction. <P>SOLUTION: The head-mounted display having the picture output part to output a picture and mounted on the head has an instruction input means to detect user's specified action and accept user's instructions, and a control means to make the head-mounted display perform the specified operation according to the instruction inputted by the instruction input means. The instruction input means has a movement detecting function to detect the movement of the user's head. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、ユーザの頭部に装着された状態で、ユーザが画像を見ることができるように画像出力を行うヘッドマウントディスプレイに関する。
【0002】
【従来の技術】
ヘッドマウントディスプレイ(以下、HMDと略記する)は、ユーザの頭部に装着されて、当該ユーザに対して画像を表示する。このようなHMDは、装着すると視野が画像で遮られるため、外部に設けられたスイッチ等を手動で操作し、音声出力、画像出力等を変更するのは、困難となる。したがって、ハンズフリーで操作できるHMDが求められる。
【0003】
【発明が解決しようとする課題】
本発明は、上記の問題を解決すべくなされたものであり、音声出力、画像出力等のHMDの特定の動作を、ハンズフリーでかつユーザの意思に従って誤動作が発生しにくいHMDを提供することを課題とする。
【0004】
【課題を解決するための手段】
前記目的を達成するため、請求項1に係る発明のヘッドマウントディスプレイは、画像を出力する画像出力部を有し、頭部に装着可能なヘッドマウントディスプレイであって、ユーザの特定のアクションを検出して、ユーザの指示を受け付ける指示入力手段と、前記指示入力手段により入力された指示に応じて、ヘッドマウントディスプレイの特定の動作を行わせる制御手段とを有し、
前記指示入力手段は、ユーザの頭部の動きを検出する動き検出機能を有することを特徴とするヘッドマウントディスプレイである。
【0005】
請求項2に係る発明のヘッドマウントディスプレイは、請求項1に記載のヘッドマウントディスプレイであって、前記動き検出機能は、少なくとも、身体軸方向の軸回りの頭部の動きと、身体軸に直交する軸回りの頭部の動きとを検出し、前記制御手段は、前記動き検出手段で検出された前記身体軸方向の軸回りの頭部の動きと、身体軸に直交する軸回りの頭部の動きとの組み合わせに応じて制御がなされることを特徴とするヘッドマウントディスプレイである。
【0006】
請求項3に係る発明のヘッドマウントディスプレイは、請求項1および請求項2のいずれかに記載のヘッドマウントディスプレイであって、前記指示入力手段は、ユーザの視線の動きを検出する視線検出機能をさらに有し、前記制御手段は、前記動き検出機能による動き検出結果と前記視線検出機能による視線検出結果に応じて制御を行うことを特徴とするヘッドマウントディスプレイである。
【0007】
請求項4に係る発明のヘッドマウントディスプレイは、請求項3に記載のヘッドマウントディスプレイであって、前記制御手段は、前記視線検出結果又は前記動き検出結果のどちらか一方の結果に応じて、前記ヘッドマウントディスプレイの特定の動作の実行の指示の受付が行われる様に制御し、前記視線検出結果又は前記動き検出結果のどちらか他方の結果に応じて、指示の実行前に、受け付けた指示の確認を前記ユーザに求める様に制御することを特徴とするヘッドマウントディスプレイである。
【0008】
請求項5に係る発明のヘッドマウントディスプレイは、請求項1から請求項4のいずれかに記載のヘッドマウントディスプレイであって、前記指示入力手段は、ユーザの発する音声を検出する音声検出機能とをさらに有し、少なくとも前記動き検出機能による動き検出結果と前記音声検出機能による音声検出結果に応じて、制御を行うことを特徴とするヘッドマウントディスプレイである。
【0009】
請求項6に係る発明のヘッドマウントディスプレイは、請求項1および請求項2のいずれかに記載のヘッドマウントディスプレイであって、前記指示入力手段は、ユーザの視線の動きを検出する視線検出機能と、ユーザの発する音声を検出する音声検出機能とをさらに有し、前記制御手段は、前記音声検出機能による音声検出結果に応じて、複数の選択肢を含む表示画面の表示を前記表示出力部で行うように制御し、前記視線検出結果に応じて、前記複数の選択肢からの選択の受付を行う様に制御し、頭部の動きの検出結果に応じて、前記受付を行った内容の確認を行うように制御することを特徴とするヘッドマウントディスプレイである。
【0010】
請求項7に係る発明のヘッドマウントディスプレイは、請求項1〜6のいずれかに記載のヘッドマウントディスプレイであって、前記指示入力手段は、異なるタイミングで行われる少なくとも2つのユーザのアクションを検出する機能を有することを特徴とするヘッドマウントディスプレイである。
【0011】
請求項8に係る発明のヘッドマウントディスプレイは、請求項1〜6のいずれかに記載のヘッドマウントディスプレイであって、前記指示入力手段は、並行して行われる少なくとも2つのユーザのアクションを検出する機能を有することを特徴とするヘッドマウントディスプレイである。
【0012】
請求項9に係る発明のヘッドマウントディスプレイは、請求項1〜8のいずれかに記載のヘッドマウントディスプレイであって、前記ヘッドマウントディスプレイの特定の動作は、音声出力及び画像出力のうち少なくとも1つの変化であることを特徴とするヘッドマウントディスプレイである。
【0013】
請求項10に係る発明のヘッドマウントディスプレイは、請求項1〜9のいずれかに記載のヘッドマウントディスプレイであって、前記ヘッドマウントディスプレイの特定の動作は、電源のオンおよびオフのいずれかであることを特徴とするヘッドマウントディスプレイである。
【0014】
請求項11に係る発明のヘッドマウントディスプレイは、請求項1〜10のいずれかに記載のヘッドマウントディスプレイであって、前記画像出力部を、ユーザの眼前に位置した状態と、眼前からはずれて待避した状態とを、動力により、切り替えられる手段をさらに有し、前記ヘッドマウントディスプレイの特定の動作は、前記画像出力部を、ユーザの眼前に位置した状態と、眼前からはずれて待避した状態とで、切り替えることことを特徴とするヘッドマウントディスプレイである。
【0015】
請求項12に係る発明のヘッドマウントディスプレイは、請求項1〜11のいずれかに記載のヘッドマウントディスプレイであって、ユーザの特定のアクションの形態と、それに応じてなされるべきヘッドマウントディスプレイの特定の動作とを対応させ一組にして登録し記憶する手段をさらに有し、前記制御手段は、前記指示入力手段により検出されたユーザの特定のアクションと、前記記憶されたユーザの特定のアクションの形態と、が一致すると判定される場合は、そのアクションに対応する前記記憶されたそのアクションに応じてなされるべきヘッドマウントディスプレイの特定の動作が行われる様に制御することを特徴とするヘッドマウントディスプレイである。
【0016】
【発明の実施の形態】
以下、本発明の実施形態について、図面を参照して説明する。
(第1実施形態)
図1〜図3に、本発明の第1の実施形態に係るヘッドマウントディプレイの一例を示す。本実施形態に係るヘッドマウントディスプレイは、画像出力部100を、ユーザの眼前に位置した状態(図2参照)と、眼前からはずれて待避した状態(図3参照)とで位置変位可能である。不使用時にユーザの眼前位置から後方に待避することができる構造を有するものである。
【0017】
図1〜図3に示すように、ヘッドマウントディスプレイ(以下、HMDと略記する)は、ユーザUに対して画像を出力するための機能を有する画像出力部100と、音声、音楽、効果音等の音響を発生させる機能を有する音響出力部200と、画像出力部100、音響出力部200および音声検出装置470を一体的に連結すると共に、これらをユーザUの頭部1に着脱自在に装着するための支持部300とを有する。さらに、ユーザの頭部の動きを検出する頭部の動き検出装置700、ユーザの視線の動きを検出する視線検出装置900、ユーザにより発せられる音声を検出する音声検出装置470と、を有している。
【0018】
このHMDは、図1〜図3に示すように、ユーザUの頭部1に、当該頭部1を挟むように装着される。すなわち、音響出力部200がユーザUの耳に当接した状態で、支持部300が、それ自身が有する弾性力により、ユーザUの頭部を挟み込むことによって、頭部1に装着される。また、HMDは、画像表示信号および音響出力信号等を出力する情報処理装置Dを別体で設けた構成とした。そして、情報処理装置Dは、各出力部、各検出装置、各駆動装置とは、ケーブル800を介して接続される。情報処理装置Dは、電源と、画像信号を生成して出力する回路と、音響信号を生成して出力する回路とを有する。ケーブル800の先端には、プラグ810が設けられ、情報処理装置DのコネクタCNに着脱自在に接続される。従って、HMDの支持部300と一体的に連結された部分を頭部1に装着することで、ユーザUは、情報処理装置Dから供給される画像表示信号および音響出力信号により形成される画像および音響を、HMDを介して視聴することができる。
【0019】
次に各構成要素について説明する。
【0020】
画像出力部100は、画像を現す画像表示信号を光信号に変換して画像を形成する電気‐光変換器と、形成された画像を拡大する光学系とを有する。電気‐光変換器では、例えば、情報処理装置のディスプレイ画面のように画面を形成することができる。例えば、図9に一例を示すように、選択肢選択ウィンドウ等を表示することができる。もちろん、動画を表示することも可能である。
【0021】
音響出力部200は、音響出力信号を音響に変換するものである。本実施形態では、左音響出力部200Lと、右音響出力部200Rとが設けられている。この音響出力部200には、電気信号を音響に変換する音響変換器が設けられている。また、音響出力部200は、本実施形態では、その構造上、後述する支持部300と共に、当該HMDをユーザUの頭部1に装着させる際の、耳への当接部としても機能する。
【0022】
なお、本実施形態では、音響出力部200L側に、ケーブル800と内部配線とを接続する接続部が設けられている。
【0023】
支持部300は、図1〜3に示すように、左右の音響出力部200Lと200Rとを連結するバンド310と、バンド310の一端側に設けられた画像出力部支持アーム320と、音声検出装置支持アーム333とを有する。
【0024】
バンド310は、ユーザUの頭部1を後方から挟むことができるように湾曲した形状を持っている。そして、両端に音響出力部200Lと200Rとが連結固定されている。バンド310は、本体311と、画像出力部支持アーム320を出没自在に収容する画像出力部支持アーム収容部312とにより構成される。バンド310には、情報処理装置Dからのケーブル800に接続される配線(図示せず)が設けられている。これら配線のうち一部は、画像出力部100、音声検出装置470に通じ、他の一部は、左右の音響出力部200L,200Rに通じる。さらに、後述する視線検出装置900、頭部動き検出装置700に通じる配線もある。
【0025】
画像出力部支持アーム収容部312には、本実施形態では、音響出力部200Lに隣接して、開口部312bが設けられている。画像出力部支持アーム320は、この開口部312bから出没することができる。すなわち、画像出力部100は、画像出力部支持アーム320と画像出力部支持アーム収容部312とで構成されるスライド機構によりバンド310と連結されている。なお、開口部312bには、図示していないが、画像出力部支持アーム320が、引き出された際に、抜け落ちないようにするためのストッパ(図示せず)が設けられている。また、画像出力部支持アーム収容部312には、画像出力部支持アーム320の出没を円滑に行うため、案内レール(図示せず)が設けられる。これにより、画像出力部支持アーム320が円滑にスライドすることになる。
【0026】
バンド310の画像出力部支持アーム収容部312には、画像出力部支持アーム320を電動でスライドし収容するモータ391が取り付けられている。
【0027】
図4は、モータ391が取り付けられているモータ部390の断面図である。
【0028】
モータ391のモータ軸392にはローラー393が取り付けられており、ローラー393はモータ軸392を中心にモータ391の回転と連動して回転する。
【0029】
ローラー393は、画像出力部支持アーム320の側面と接しており、ローラー393が回転すると、摩擦力により、画像出力部支持アーム320が移動する。図2では、ローラー393が反時計回りに回転すると、画像出力部支持アーム320は画像出力部支持アーム収容部312に押し込まれ、図3の状態になる。
逆に、ローラー393が時計回りに回転すると、画像出力部支持アーム320は画像出力部支持アーム収容部312から引き出され、図2の状態になる。
【0030】
ローラー393の摩擦面の材質としては、所定の摩擦力を生じるものであればよいが、好ましくは、ゴム等の弾性体である。ただし、摩擦力が大きすぎると、画像出力部支持アーム320をユーザが手動で出し入れできなくなるので、好ましくない。
(頭部の動き検出装置)
頭部の動き検出装置700は、バンド310の中央部、すなわちユーザが装着したときに後頭部の位置に来る位置に取り付けてある。
【0031】
頭部の動き検出装置700の回路基板には、垂直方向と水平方向の加速度、角速度又は角加速度を検出する垂直方向ジャイロセンサ、水平方向ジャイロセンサが取り付けられている。このように取り付ければ、身体軸方向の頭部の動き(縦振り)、身体軸に直交する方向の頭部の動き(横振り)が検出できる。ジャイロとしては、筐体内のミラーやファイバでレーザー光を周回させ、筐体が方向を変えると内部で周回しているレーザーの発光から受光のタイミングが変わることを利用した光学式ジャイロ;歳差を応用して角度変位を検知する機械式ジャイロ;振動(一次振動)する質量に角速度がつくと「コリオリ」効果でそれに直交する方向にも振動(二次振動)が発生することを利用した振動式ジャイロ;等を使用できる。頭部の動き検出装置700の検出結果は、情報処理装置Dの中央制御装置854に送られる。
(視線検出装置)
視線検出装置900は、画像出力部100のユーザに対向する面に取り付けてある。視線検出装置900は、図5に示すように、ユーザの眼2に赤外光を照射する赤外光照射部901、ユーザの角膜で反射した光のうち赤外光を反射するダイクロイックミラー904、ダイクロミックミラー904からの反射光を集光する集光レンズ903、集光された赤外光を検出する視界センサー902からなる。このように構成される視線検出装置900は、赤外光でユーザの眼2を照明し、角膜で反射した赤外光と眼球全体の像から、瞳孔の中心位置と反射光の位置を求め、目の回転角を計算し、ユーザが画像のどこを見ているのか計算し求める方法を採用している。
(音声検出装置)
音声検出装置470は、音声検出装置支持アーム333を介してバンド310と連結されている。音声検出装置470は、ユーザが発する音声信号を電気信号に変換する装置である。例えば、磁界の中にあるリボン状の箔の動きを使って発電する方式のリボン型マイクロホン; 磁界の中にあるコイルを動かして発電、出力を取り出す方式のダイナミック型(ムービングコイル型)マイクロホン;静電容量を利用して音圧を電気信号に改める方式のコンデンサー型マイクロホン;カーボン粒子間の接触抵抗を音圧によって変化させることで収音するカーボン型マイクロホン等を使用できる。
(情報処理装置)
情報処理装置Dは、図6で示すように、画像出力部100に画像表示信号を送るため、当該画像表示信号を処理する画像出力信号処理装置851と、音響出力部200に音響出力信号を送るための音響出力信号処理装置852と、情報処理装置全体を管理する中央制御装置854と、電源のオンオフおよび節電モード、電池857への充電の制御を行うための電源制御回路856とを有する。また、HMD本体と情報信号のやりとりをする入出力インタフェース858を有する。
また、電源のオンオフを行うためのメインスイッチSWを有する。さらに、HMDと信号を授受するためのケーブル800のプラグ810を接続するためのコネクタCNが設けられている。また、電源として、充電可能な電池857が用意されている。
【0032】
情報処理装置Dには、画像表示信号および音響出力信号を生成する基となる画像情報および音響情報等を格納する記憶装置853が用意される。また、この他に、必要に応じて、外部より、画像情報および音響情報を受け入れるための通信装置を備えることもできる。
(記憶装置)
記憶装置853には、画像情報、音響情報のほかに以下の情報も記憶されている。
【0033】
記憶装置853には、ユーザが頭部を縦または横に振った場合に検出される、垂直方向または水平方向の加速度変化の標準的なパターンが記憶されている。このパターンは、図7で示される中央制御装置854でなされる動作入力処理8542において、ユーザが頭部を縦に振ったか横に振ったかを判断するために使用される。また、ユーザの頭部の振り方は常に一定ではなく、ある程度幅がある。
そこで、閾値が設けられており、パターンとのずれが閾値内であれば、パターンと一致するとみなす。この閾値も記憶装置853に記憶されている。
【0034】
また、頭部を縦または横に振ったと判断された場合になされるべきHMDの特定の動作についての情報が記憶されている。すなわち、ユーザの特定のアクションの形態と、それに応じてなされるべきヘッドマウントディスプレイの特定の動作とを対応させ一組にして記憶されている。例えば、頭部を縦に振った場合は、特定のメニュ選択ウインドウを画像出力させるなどのである。
【0035】
また、記憶装置853には、音声認識のための、音響モデルが記憶されている。
この音響モデルは、中央制御装置854でなされる音声入力処理8544において使用される。音響モデルは,平均的な発音データを基に作られた、いわゆる音声の単語辞書である。音声認識は、音響モデルと、ユーザにより入力された音声信号(波形)とをマッチング(照合)することにより行われる。詳しくは、音声入力処理の説明とともに述べる。
【0036】
また、ユーザが音声を発した場合、または特定の言葉を発した場合に、なされるべきHMDの特定の動作についての情報が記憶されている。例えば、ユーザが「音量」と発した場合は、音量調整メニュが画像出力されるなどである。
【0037】
また、頭部の動き、音声入力、視線入力の組み合わせに応じた、HMDの特定の動作についても記憶されている。例えば、頭部の動きの後に音声入力をした場合;音声入力した後に頭部の動きがあった場合;略同時に音声入力と頭部の動きがあった場合;など、ユーザのアクションの順番に応じて、なされるべきHMDの特定の動作について記憶されている。
【0038】
(中央制御装置)
中央制御装置854は、情報処理装置D全体を管理をする。また、図7に示すように、入力判定処理8541、動作入力処理8542、視線入力処理8543および音声入力処理8544を行う。
【0039】
入力判定処理8541は、ユーザがいずれの方法で入力したかを判定する処理である。本実施形態のHMDは、ユーザの特定のアクションにより、特定の動作をするものである。ユーザは、頭部を動かす方法、視線を動かす方法、音声を発する方法によりHMDに指示することができる。頭部の動きは、動き検出装置700で検出される。視線の動きは、視線検出装置900により検出される。ユーザが発した音声は音声検出装置470により検出される。そして、これらの検出結果に基づいて、入力判定処理8541により、ユーザのアクションがいかなる方法で行われたかが判定される。
【0040】
動作入力処理8542は、頭部の動き検出装置700の検出結果から、ユーザが頭部を縦に振ったか、横に振ったか等を判断する。中央制御装置854には、頭部の動き検出装置700から、ユーザ頭部の垂直方向の加速度変化と、水平方向の加速度変化の検出結果が送られてくる。垂直又は水平方向の加速度変化が検出された場合は、動作入力処理8542においては、その加速度変化のパターンと、記憶装置853に記憶された標準的な縦振り又は横振りパターンとを照合する。一致または所定の閾値範囲であればユーザが頭部を縦又は横に振ったと区別して判断する。
【0041】
そして、判断結果に基づいて、それに応じてなされるべきHMDの動作がなされるように、各処理装置に命令する。
【0042】
視線入力処理8543においては、視線検出装置900からの検出結果に基づいて、ユーザが画面上のどこを見ているかが判断される。視線検出装置900の検出結果からユーザの視線の方向がわかる。ユーザの眼と画像出力部の位置関係および視線の方向から、画面上のユーザの視点の位置が求められる。
【0043】
また、選択肢が列挙された画面を出力している場合において、所定時間、視点が一定の選択肢の位置から動かない場合は、その選択肢を選択したと判断し、次の処理に移行する。
【0044】
音声入力処理8544においては、音声検出装置470の検出結果を基に、ユーザが発した音声が分析される。単に音声を発したか否かを判断する段階と、発した言葉の意味を分析する音声認識の段階を有する。
【0045】
単に音声を発したか否かは、音声検出装置470が所定値以上の音量の音声を検出したか否かで判断できる。ただし、外界の雑音等により、ユーザが音声を発していない場合であっても、当該所定地に達する場合があるので、この所定値は、適宜変更できるようにするとよい。
【0046】
音声認識は、ユーザの発した音声信号(波形)と、記憶装置853に記憶された音響モデルとを、マッチング(照合)することにより行われる。マッチングには、通常10〜20ミリ秒の単位で,単語の先頭から順次行われる。例えば「音量」という言葉を認識する場合,最初に「お」という言葉を認識する。マッチングの候補は,音響モデルのなかの「お」から始まる言葉に絞られる。次に「おん」を認識した時点で候補は、音楽、音響、音声、音節などに,さらに「おんり」を認識した時点では,音量にといった具合に候補が絞り込まれ,最終的に最もマッチングする単語が出力される。
【0047】
音声認識がなされると、その単語の意味内容に応じてなされるべきHMDの動作をするように各処理装置に命令する。
(フローチャート)
図8は、本実施形態のHMDにおける、頭部の動き、視線の動き、音声入力がされた場合の動作の流れを示した図である。
【0048】
ステップS100において、音声入力の有無は、音声検出装置470により判定される。音声入力がされた場合は、ステップS101において、音声認識される。次にステップS102において、音声認識の結果を基にユーザが何を指示(コマンド)しているか認識がされ、続いてステップS103において、コマンドが実行するように各制御装置に指示する。これらの処理は、中央制御装置854の音声入力処理8544の過程においてなされる。
【0049】
また、ステップS200において、視線入力の有無を判定する。視線入力がされた場合は、ステップS201において、ユーザの注視位置が検出される。次にステップS202において、ユーザが画面上のどの選択肢を選択しているか特定する。続いてステップS203において、選択肢の内容を実行するよう各処理装置に指示する。これらの処理は、中央制御装置854の視線入力処理8543の過程においてなされる。
【0050】
また、ステップS300において、頭部の動きによる入力の有無を判定する。頭部の動きにより入力がされた場合は、ステップS301において、頭部の動きの種類(例えば、縦振りか、横振りか等)を認識する。次にステップS302において、それに応じた指示内容を特定する。続いてステップS303において、その指示を実行するよう各制御装置に指示する。これらの処理は、中央制御装置854の動作入力処理8542の過程においてなされる。
(第1実施形態の動作の一例)
以上のように構成されるHMDについて、その動作の一例を示す。
【0051】
本発明のHMDは、頭部の動きの検出と、視線検出と、音声検出の組み合わせにより、確実にユーザの意思を反映して動作することを特徴とする。
【0052】
以下に、頭部の動きの検出と、視線検出と、音声検出の組み合わせにより、ユーザの意思を確実に読み取り、画像出力のオフおよび画像出力部100の待避を行う一例を示す。
ユーザが画像出力をオフし、画像表示部100を眼前から待避させたい場合においては、本実施形態のHMDは、以下の動作をとるようにすることができる。
【0053】
ユーザから音声検出装置470に、例えば、「オフ」という言葉が入力されると、この音声信号は音声認識される。その結果、オフ対象選択ウィンドウ151の画像出力を求める命令(コマンド)であると認識される。そして、このコマンドの実行を画像出力信号処理装置851に指示する。
【0054】
これを受けて、画像出力信号処理装置851は、オフ対象選択ウィンドウ151を表示するように、画像出力部100に画像信号を送る。そして、画像出力部100は、図9に示すように、オフ対象選択ウィンドウ151を出力する。
【0055】
これにより、ユーザは、図9で示すように、オフ対象選択ウィンドウ151を、表示画面150の中で観察することができる。オフ対象選択ウィンドウ151には、電源、音響出力、画像出力のうちいずれをオフするかについて選択肢が列挙されている。また、画像出力部を待避する選択肢も列挙されている。また、矢印アイコン159は、ユーザの視点と連動して移動する。ユーザはこの矢印アイコン159を移動させて、オフしたいものを選択肢の上に重ねる。このとき、「選択肢を注視してください」などの音声ガイドが音声出力されるようにしてもよい。音声出力によるガイドがあれば、ユーザは操作方法が理解でき、円滑かつ迅速に次の処理に進行できる。
【0056】
ユーザは選択したい選択肢に一定時間視点を合わせる。
【0057】
視線検出装置900は、ユーザの視線を検出し、検出結果を中央制御装置854に送る。そして、一定時間以上、視点が動かない場合は、画面上の視点の位置にある選択肢を選択したとして、選択肢の特定がなされる。
【0058】
次に、図10に示すように、選択肢が正しく選択されたかどうかの確認画面152を表示する。このとき、「よろしければ、頭部を縦に振ってください」などの音声ガイドが音声出力されるようにしてもよい。これにより、ユーザに次に何をすれば良いかを伝え、ユーザにとっては操作が容易となるとともに、迅速かつ確実に次の処理へ進行できるようになる。正しく選択された場合は、ユーザは頭部を縦に振る。正しく選択されていない場合は、頭部を横に振る。
【0059】
このとき、中央制御装置854では、頭部が縦に振られた場合は、正しいと判断されたと認識し、次の処理に移るように設定しておく。一方、頭部を横に振った場合は、正しくないと認識し、再び、オフ対象選択ウィンドウに戻るように処理されるように設定しておく。
【0060】
すなわち、ユーザが頭部を縦に振った場合は、正しく選択されたと認識され、中央制御装置854は、選択肢の内容を実行するように、各処理回路に命令する。
【0061】
ここでユーザが、例えば、「画像表示オフ、画像出力部の待避」の選択肢を選択した場合は、中央制御装置854は、画像出力をオフし、また、モータ391が駆動し、画像出力部100をユーザの眼前から待避するように各処理装置に指示する。
【0062】
その結果、画像出力がオフされ、画像出力部100はユーザの眼前からはずれ待避した状態になる(図3参照)。
【0063】
このように、本実施形態によれば、頭部の動きだけでなく、ユーザの他のアクションの検出を組み合わせることで、確実にユーザの意思を読み取り、ユーザの意思に沿ってHMDの動作がなされる。
【0064】
上記の例においては、音声検出結果は、複数の選択肢を含む表示画面の表示に割当てられ、視線検出結果は、ヘッドマウントディスプレイの特定の動作の実行の指示の受付に割当てられ、頭部の動きの検出結果は、指示内容の実行前に、受け付けた指示内容の確認に割当てられている。
【0065】
HMDに特定の動作をさせるように指示するためになされる、ユーザのアクションの組み合わせは、上記のものに限られない。
【0066】
例えば、頭部を縦に振り、すぐに横に振った場合など、2種以上の頭部の動きの組み合わせに応じて、HMDの特定の動作をさせるものであってもよい。例えば、頭部を縦横に1回振りさらに縦に1回振った場合は、電源をオフしたり、または、画像出力部100がユーザの眼前から待避するなどとしてもよい。
【0067】
また、頭部を縦に2度振るなど同じ動作の組み合わせでもかまわないし、最初に頭部を右、次に頭部を前に振るなどの頭部の動きの方向を用いてもかまわない。
【0068】
また、ユーザのアクションの順番に応じて、HMDの特定の動作をさせるものであってもよい。すなわち、2以上のユーザのアクションが異なるタイミングで行われたか、並行しておこなわれたかを区別して、HMDの特定の動作をさせるものであってもよい。例えば、頭部の動きがなされた後に視線入力がされた場合;頭部の動きと音声入力が同時になされた場合;頭部の動きがなされた後に、音声入力または視線入力がなされた場合;等の場合に、HMDが特定の動作をするようにしてもよい。
【0069】
また、ユーザがどのようなアクションをした場合に、HMDがどのような動作をするかについて、ユーザにより登録できるようにするとよい。
【0070】
登録の仕方としては、画面上で、視線により選択肢を選択させて登録させることにより行える。例えば、ユーザの特定のアクションの形態と、HMDの特定の動作の対応関係を列挙した選択肢を画面に出力し、選択させるようにしてもよい。
【0071】
そして、ユーザの特定のアクションの形態と、それに応じてなされるべきヘッドマウントディスプレイの特定の動作とを対応させ一組にして、記憶装置853に記憶させるようにする。
【0072】
また、ユーザのアクションによりなされるHMDの特定の動作は、音声、画像出力のオフ等に限られない。例えば、ユーザが「ソフト」と発声すると、図11に示すように、画像としてアプリケーションソフトの画面153を出力させ、その画面上でコンピュータ内のファイルを開く等の動作をさせてもよい。この場合は、視線により、矢印アイコン159を移動させ、操作対象の選択肢、例えば、「ファイル開く」を選択させる。その後、確認画面に移行させ、頭部の縦振りによって、確定させるようにしてもよい。このように、複数のアクションによりユーザに指示させることにより、HMDは、ユーザの意思を確実に読み取り、誤作動なく特定の動作をすることができる。
【0073】
以上に述べた実施形態のHMDは、情報処理装置Dを、ケーブルを介して接続される形式のものである。しかし、本発明が適用されるHMDは、これに限られない。例えば、図12に示すように、情報処理装置DをHMDに搭載した構造を有するものにも適用することができる。また、情報処理装置DとHMDとを無線で接続する構成のものに適用することもできる。後者の場合、無線通信のための回路と電源とがHMDに搭載される。また、情報処理装置側にも、無線通信のための回路が搭載される。
【0074】
また、以上の実施形態では、画像出力部および音響出力部の両者を有する例を示した。本発明の適用は、これに限られない。例えば、画像出力部のみを有するHMDにも適用可能である。
【0075】
また、以上の実施の形態では音声検出装置470を画像出力部100と独立に配置したが、音声検出装置は画像出力部の中に組み込んでもかまわない。この場合、音声検出装置支持アーム333が不要となり機構を簡略化できる。この場合、音声を確実に拾えるように音声検出装置の指向性は下向きに設定することが望ましい。
【0076】
また、本発明は片眼式のHMDに限られない。本発明は、ユーザの両眼に画像を出力するゴーグル型のHMDについても適用が可能である。
【0077】
本実施形態のHMDは、画像出力部支持アーム320が支持部300の画像出力部支持アーム収容部312に収容できるため、不使用時に、画像出力部支持アーム320が邪魔にならないため、持ち運び、収納等の際に便利である。
【0078】
【発明の効果】
本発明によれば、音声出力、画像出力等のHMDの特定の動作を、ハンズフリーでかつユーザの意思に従って誤作動が少なくなり確実に行うHMDが提供される。
【図面の簡単な説明】
【図1】図1は本発明に係る第1の実施形態に係るヘッドマウントディスプレイの外観を示す斜視図。
【図2】図2は本発明に係る第1の実施形態に係るヘッドマウントディスプレイの構造の概要を示す断面図。
【図3】図3は本発明に係る第1の実施形態に係るヘッドマウントディスプレイの構造の概要を示す断面図。
【図4】図4はモータ部の断面図。
【図5】図5は視線検出装置の構造を示す図。
【図6】図6は本発明に係る第1の実施形態に係るヘッドマウントディスプレイおよび情報処理装置の構成要素を示す図。
【図7】図7は本発明に係る第1の実施形態に係るヘッドマウントディスプレイに適用可能な情報処理装置の構成要素を示す図。
【図8】図8は本発明に係る第1の実施形態に係るヘッドマウントディスプレイおけるユーザのアクションに応じた処理の流れを示すフローチャート。
【図9】図9はオフ時の動作態様の設定を行うため画面の一例図。
【図10】図10は確認画面の一例図。
【図11】図11はアプリケーションソフトの画面上で視線で選択肢を選択しているところを示す図。
【図12】図12は本発明に係る情報処理装置一体型のヘッドマウントディスプレイの外観を示す斜視図。
【符号の説明】
D…情報処理装置、CN…コネクタ、SW…電源スイッチ、
U…ユーザ、1…頭部、2…眼
100…画像出力部、
150…表示画面、152…オフ対象選択ウィンドウ、153…ソフトアプリケーションソフト画面、159…矢印アイコン、
200(200L,200R)…音響出力部、
300…支持部、310…バンド、311…バンド本体、312…画像出力部支持アーム収容部、312b…開口部、320…画像出力部支持アーム、
333…音声検出装置支持アーム、
390…モータ部、391…モータ、392…モータ軸、393…ローラー、
470…音声検出装置、
700…動き検出装置、
800…ケーブル、
810…プラグ、
851…画像出力信号処理装置、852…音響出力信号処理装置、853…記憶装置、
854…中央制御装置、8541…入力判定処理、8542…動作入力処理、8543…視線入力処理、8544…音声入力処理、
856…電源制御回路、857…電池、858…入出力インタフェース、
900…視線検出装置、901…赤外光照射部、902…視界センサー、903…集光レンズ、904…ダイクロイックミラー
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a head mounted display that outputs an image so that a user can view an image while being mounted on the head of the user.
[0002]
[Prior art]
A head-mounted display (hereinafter abbreviated as HMD) is mounted on the head of a user and displays an image to the user. Since the field of view of such an HMD is obstructed by an image when worn, it is difficult to manually operate an external switch or the like to change audio output, image output, and the like. Therefore, an HMD that can be operated hands-free is required.
[0003]
[Problems to be solved by the invention]
The present invention has been made in order to solve the above-described problem, and it is an object of the present invention to provide an HMD that performs a specific operation of the HMD such as audio output and image output in a hands-free manner and in which a malfunction does not easily occur according to a user's intention. Make it an issue.
[0004]
[Means for Solving the Problems]
In order to achieve the above object, a head-mounted display according to the invention according to claim 1 has an image output unit that outputs an image, and is a head-mounted display that can be mounted on a head, and detects a specific action of a user. An instruction input unit that receives an instruction of the user, and a control unit that performs a specific operation of the head mounted display in accordance with the instruction input by the instruction input unit,
The instruction input means is a head mounted display having a motion detection function for detecting a motion of a user's head.
[0005]
A head-mounted display according to a second aspect of the present invention is the head-mounted display according to the first aspect, wherein the motion detection function includes at least a motion of a head around an axis in a body axis direction and a motion perpendicular to the body axis. The control means detects the movement of the head around the axis in the body axis direction detected by the movement detection means, and the head around the axis orthogonal to the body axis. The head-mounted display is characterized in that control is performed in accordance with a combination with the movement of the head-mounted display.
[0006]
A head-mounted display according to a third aspect of the present invention is the head-mounted display according to any one of the first and second aspects, wherein the instruction input unit has a line-of-sight detection function for detecting a line-of-sight movement of the user. The head-mounted display further includes a control unit, wherein the control unit performs control in accordance with a motion detection result by the motion detection function and a visual line detection result by the visual line detection function.
[0007]
A head-mounted display according to a fourth aspect of the present invention is the head-mounted display according to the third aspect, wherein the control unit is configured to perform the control based on one of the gaze detection result and the motion detection result. Control is performed so that an instruction to execute a specific operation of the head-mounted display is received, and according to one of the results of the line-of-sight detection result or the motion detection result, before the instruction is executed, the received instruction is executed. A head-mounted display, wherein control is performed so as to request confirmation from the user.
[0008]
A head-mounted display according to a fifth aspect of the present invention is the head-mounted display according to any one of the first to fourth aspects, wherein the instruction input unit has a voice detection function for detecting a voice uttered by the user. The head-mounted display further comprises a head-mounted display that performs control in accordance with at least a motion detection result by the motion detection function and a voice detection result by the voice detection function.
[0009]
A head-mounted display according to a sixth aspect of the present invention is the head-mounted display according to any one of the first and second aspects, wherein the instruction input unit includes a line-of-sight detection function for detecting a line-of-sight movement of the user. And a voice detection function of detecting a voice uttered by the user, wherein the control unit causes the display output unit to display a display screen including a plurality of options according to a voice detection result by the voice detection function. Control is performed so as to accept selection from the plurality of options according to the gaze detection result, and confirm the content of the acceptance performed according to the head movement detection result. The head mounted display is characterized by being controlled as described above.
[0010]
A head-mounted display according to a seventh aspect of the present invention is the head-mounted display according to any one of the first to sixth aspects, wherein the instruction input unit detects at least two user actions performed at different timings. A head mounted display having a function.
[0011]
The head-mounted display according to the invention according to claim 8 is the head-mounted display according to any one of claims 1 to 6, wherein the instruction input unit detects at least two user actions performed in parallel. A head mounted display having a function.
[0012]
The head-mounted display according to the ninth aspect is the head-mounted display according to any one of the first to eighth aspects, wherein the specific operation of the head-mounted display is at least one of an audio output and an image output. A head mounted display characterized by a change.
[0013]
A head-mounted display according to a tenth aspect is the head-mounted display according to any one of the first to ninth aspects, wherein the specific operation of the head-mounted display is one of turning on and off a power supply. A head mounted display characterized by the above.
[0014]
A head-mounted display according to an eleventh aspect of the present invention is the head-mounted display according to any one of the first to tenth aspects, wherein the image output unit is positioned in front of a user and retracted from the user. The state further comprises means for switching by power, the specific operation of the head-mounted display, the image output unit, in a state of being located in front of the user, and in a state of being retracted from the user's eyes and retracted And a head mounted display characterized by switching.
[0015]
A head-mounted display according to a twelfth aspect of the present invention is the head-mounted display according to any of the first to eleventh aspects, wherein the form of the user's specific action and the specification of the head-mounted display to be performed in accordance therewith are specified. And a means for registering and storing a set of actions corresponding to the actions of the user, wherein the control means is configured to store a specific action of the user detected by the instruction input means and a specific action of the stored user. And if the form is determined to match, the head mount is controlled to perform a specific operation of the head mounted display to be performed in accordance with the stored action corresponding to the action. It is a display.
[0016]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(1st Embodiment)
1 to 3 show an example of a head mounted display according to the first embodiment of the present invention. In the head mounted display according to the present embodiment, the image output unit 100 can be displaced in a state where the image output unit 100 is positioned in front of the user (see FIG. 2) and in a state where the image output unit 100 is separated from the user and retracted (see FIG. 3). It has a structure that can be retracted backward from the user's eye position when not in use.
[0017]
As shown in FIGS. 1 to 3, a head-mounted display (hereinafter abbreviated as HMD) includes an image output unit 100 having a function of outputting an image to a user U, a sound, music, sound effect, and the like. The sound output unit 200 having the function of generating the sound, the image output unit 100, the sound output unit 200, and the sound detection device 470 are integrally connected, and these are detachably attached to the head 1 of the user U. And a support portion 300. Further, it has a head movement detecting device 700 that detects the movement of the user's head, a gaze detecting device 900 that detects the movement of the user's gaze, and a voice detecting device 470 that detects a voice emitted by the user. I have.
[0018]
The HMD is mounted on the head 1 of the user U so as to sandwich the head 1 as shown in FIGS. That is, in a state where the sound output unit 200 is in contact with the ear of the user U, the support unit 300 is attached to the head 1 by sandwiching the head of the user U by the elastic force of the support unit 300 itself. The HMD has a configuration in which an information processing device D that outputs an image display signal, an audio output signal, and the like is provided separately. The information processing device D is connected to each output unit, each detection device, and each drive device via a cable 800. The information processing device D includes a power supply, a circuit that generates and outputs an image signal, and a circuit that generates and outputs an audio signal. A plug 810 is provided at the end of the cable 800 and is detachably connected to the connector CN of the information processing device D. Therefore, by attaching the part integrally connected to the support part 300 of the HMD to the head 1, the user U can obtain an image formed by the image display signal and the sound output signal supplied from the information processing device D. Sound can be viewed via the HMD.
[0019]
Next, each component will be described.
[0020]
The image output unit 100 includes an electro-optical converter that converts an image display signal representing an image into an optical signal to form an image, and an optical system that enlarges the formed image. In the electro-optical converter, for example, a screen can be formed like a display screen of an information processing device. For example, as shown in FIG. 9, an option selection window or the like can be displayed. Of course, it is also possible to display a moving image.
[0021]
The sound output unit 200 converts a sound output signal into sound. In the present embodiment, a left sound output unit 200L and a right sound output unit 200R are provided. The sound output unit 200 is provided with a sound converter that converts an electric signal into sound. In addition, in the present embodiment, the sound output unit 200 also functions as a contact part with the ear when the HMD is mounted on the head 1 of the user U, together with a support unit 300 described later, due to its structure.
[0022]
In the present embodiment, a connection unit that connects the cable 800 and the internal wiring is provided on the sound output unit 200L side.
[0023]
As illustrated in FIGS. 1 to 3, the support unit 300 includes a band 310 connecting the left and right sound output units 200 </ b> L and 200 </ b> R, an image output unit support arm 320 provided at one end of the band 310, and a sound detection device. And a support arm 333.
[0024]
The band 310 has a curved shape so that the head 1 of the user U can be sandwiched from behind. The sound output units 200L and 200R are connected and fixed to both ends. The band 310 includes a main body 311 and an image output unit support arm housing 312 that houses the image output unit support arm 320 so that the image output unit support arm 320 can be retracted. The band 310 is provided with wiring (not shown) connected to the cable 800 from the information processing device D. Some of these wirings are connected to the image output unit 100 and the sound detection device 470, and others are connected to the left and right sound output units 200L and 200R. Further, there are also wirings leading to a gaze detection device 900 and a head movement detection device 700 described later.
[0025]
In the present embodiment, an opening 312b is provided in the image output unit support arm housing 312 adjacent to the sound output unit 200L. The image output section support arm 320 can protrude and retract from the opening 312b. That is, the image output unit 100 is connected to the band 310 by a slide mechanism including the image output unit support arm 320 and the image output unit support arm housing 312. Although not shown, the opening 312b is provided with a stopper (not shown) for preventing the image output unit support arm 320 from dropping out when pulled out. In addition, a guide rail (not shown) is provided in the image output unit support arm storage unit 312 in order to smoothly move the image output unit support arm 320 in and out. As a result, the image output section support arm 320 slides smoothly.
[0026]
A motor 391 that electrically slides and accommodates the image output unit support arm 320 is attached to the image output unit support arm accommodation unit 312 of the band 310.
[0027]
FIG. 4 is a sectional view of the motor unit 390 to which the motor 391 is attached.
[0028]
A roller 393 is attached to a motor shaft 392 of the motor 391, and the roller 393 rotates around the motor shaft 392 in conjunction with the rotation of the motor 391.
[0029]
The roller 393 is in contact with the side surface of the image output unit support arm 320, and when the roller 393 rotates, the image output unit support arm 320 moves due to frictional force. In FIG. 2, when the roller 393 rotates counterclockwise, the image output unit support arm 320 is pushed into the image output unit support arm accommodating unit 312 to be in the state of FIG.
Conversely, when the roller 393 rotates clockwise, the image output unit support arm 320 is pulled out from the image output unit support arm housing 312, and the state shown in FIG. 2 is obtained.
[0030]
The material of the friction surface of the roller 393 may be any material that generates a predetermined frictional force, and is preferably an elastic body such as rubber. However, if the frictional force is too large, the user cannot manually put the image output unit support arm 320 in and out, which is not preferable.
(Head motion detector)
The head movement detecting device 700 is attached to the center of the band 310, that is, a position that comes to the position of the back of the head when worn by the user.
[0031]
A vertical gyro sensor and a horizontal gyro sensor for detecting vertical and horizontal accelerations, angular velocities, or angular accelerations are mounted on a circuit board of the head movement detecting device 700. With this attachment, the head movement (vertical swing) in the body axis direction and the head movement (lateral swing) in the direction orthogonal to the body axis can be detected. As a gyro, an optical gyro that utilizes the fact that the laser beam circulates with a mirror or fiber inside the casing and the timing of receiving light changes from the emission of the laser circling inside when the casing changes direction; A mechanical gyro that detects angular displacement through application; a vibrating method that utilizes the fact that when an angular velocity is applied to a vibrating (primary vibration) mass, vibration (secondary vibration) also occurs in a direction perpendicular to it due to the "Coriolis" effect Gyro; etc. can be used. The detection result of the head movement detection device 700 is sent to the central control device 854 of the information processing device D.
(Gaze detection device)
The gaze detection device 900 is attached to a surface of the image output unit 100 facing the user. As shown in FIG. 5, the gaze detection device 900 includes an infrared light irradiating unit 901 that irradiates the user's eye 2 with infrared light, a dichroic mirror 904 that reflects infrared light out of light reflected by the user's cornea, It comprises a condenser lens 903 for condensing light reflected from the dichroic mirror 904 and a visibility sensor 902 for detecting condensed infrared light. The gaze detection device 900 configured in this manner illuminates the user's eye 2 with infrared light, and determines the center position of the pupil and the position of the reflected light from the infrared light reflected by the cornea and the image of the entire eyeball, The method employs a method of calculating the rotation angle of the eyes and calculating and finding where in the image the user is looking.
(Voice detection device)
The voice detection device 470 is connected to the band 310 via a voice detection device support arm 333. The voice detection device 470 is a device that converts a voice signal emitted by a user into an electric signal. For example, a ribbon-type microphone that generates power using the movement of a ribbon-shaped foil in a magnetic field; a dynamic-type (moving-coil-type) microphone that moves and generates power by moving a coil in a magnetic field; A condenser microphone that converts a sound pressure into an electric signal by using a capacitance; a carbon microphone that picks up sound by changing a contact resistance between carbon particles by a sound pressure can be used.
(Information processing device)
As shown in FIG. 6, the information processing device D sends an image output signal to the image output unit 100, and sends an image output signal processing device 851 that processes the image display signal and an audio output signal to the audio output unit 200. Output signal processing device 852 for managing the information processing device, a central control device 854 for controlling the entire information processing device, and a power supply control circuit 856 for controlling power on / off and power saving modes, and charging the battery 857. Further, it has an input / output interface 858 for exchanging information signals with the HMD main body.
Further, it has a main switch SW for turning on and off the power supply. Further, a connector CN for connecting a plug 810 of the cable 800 for exchanging signals with the HMD is provided. A rechargeable battery 857 is prepared as a power supply.
[0032]
The information processing device D is provided with a storage device 853 for storing image information, sound information, and the like that are the basis for generating the image display signal and the sound output signal. In addition, a communication device for accepting image information and audio information from outside may be provided as necessary.
(Storage device)
The storage device 853 stores the following information in addition to the image information and the sound information.
[0033]
The storage device 853 stores a standard pattern of a vertical or horizontal acceleration change detected when the user shakes the head vertically or horizontally. This pattern is used in motion input processing 8542 performed by the central control device 854 shown in FIG. 7 to determine whether the user has swung the head vertically or horizontally. In addition, the manner in which the user's head is swung is not always constant but has a certain range.
Therefore, a threshold value is provided, and if the deviation from the pattern is within the threshold value, it is considered that the pattern matches the pattern. This threshold is also stored in the storage device 853.
[0034]
Further, information on a specific operation of the HMD to be performed when it is determined that the head is swung vertically or horizontally is stored. That is, a specific action form of the user and a specific operation of the head mounted display to be performed in accordance with the specific action form are stored as a set. For example, when the head is swung vertically, a specific menu selection window is output as an image.
[0035]
Further, the storage device 853 stores an acoustic model for voice recognition.
This acoustic model is used in the voice input processing 8544 performed by the central control device 854. The acoustic model is a so-called speech word dictionary created based on average pronunciation data. Speech recognition is performed by matching an acoustic model with a speech signal (waveform) input by a user. The details will be described together with the description of the voice input processing.
[0036]
Further, information on a specific operation of the HMD to be performed when the user utters a voice or a specific word is stored. For example, when the user says "volume", a volume adjustment menu is output as an image.
[0037]
In addition, a specific operation of the HMD according to a combination of a head movement, a voice input, and a gaze input is also stored. For example, when a voice input is performed after a head motion; when a head motion is performed after a voice input; when a voice input and a head motion are performed substantially simultaneously; The specific operation of the HMD to be performed is stored.
[0038]
(Central control unit)
The central control device 854 manages the entire information processing device D. In addition, as shown in FIG. 7, an input determination process 8541, a motion input process 8542, a line-of-sight input process 8543, and a voice input process 8544 are performed.
[0039]
The input determination process 8541 is a process of determining which method the user has input. The HMD of the present embodiment performs a specific operation according to a specific action of the user. The user can instruct the HMD by a method of moving the head, a method of moving the line of sight, or a method of emitting a voice. The motion of the head is detected by the motion detection device 700. The movement of the line of sight is detected by the line of sight detection device 900. The voice emitted by the user is detected by the voice detection device 470. Then, based on these detection results, the input determination processing 8541 determines how the user's action was performed.
[0040]
The motion input processing 8542 determines whether or not the user has shaken the head vertically or horizontally from the detection result of the head movement detection device 700. To the central control device 854, the detection results of the vertical acceleration change and the horizontal acceleration change of the user's head are sent from the head movement detecting device 700. If a vertical or horizontal acceleration change is detected, the motion input processing 8542 checks the acceleration change pattern against a standard vertical or horizontal swing pattern stored in the storage device 853. If they match or are within a predetermined threshold range, it is determined that the user has swung the head vertically or horizontally.
[0041]
Then, based on the determination result, each processing device is instructed to perform the operation of the HMD to be performed accordingly.
[0042]
In the eye gaze input processing 8543, it is determined where the user is looking on the screen based on the detection result from the eye gaze detecting device 900. The direction of the user's line of sight can be known from the detection result of the line of sight detection device 900. The position of the user's viewpoint on the screen is obtained from the positional relationship between the user's eyes and the image output unit and the direction of the line of sight.
[0043]
Further, when a screen listing options is output, if the viewpoint does not move from the position of a certain option for a predetermined time, it is determined that the option has been selected, and the process proceeds to the next process.
[0044]
In the voice input processing 8544, the voice generated by the user is analyzed based on the detection result of the voice detection device 470. It has a step of simply determining whether or not a voice is uttered, and a step of voice recognition for analyzing the meaning of the uttered word.
[0045]
Whether or not a sound is simply emitted can be determined based on whether or not the sound detection device 470 has detected a sound having a volume equal to or higher than a predetermined value. However, even if the user does not emit a voice due to external noise or the like, the user may reach the predetermined place, so that the predetermined value may be appropriately changed.
[0046]
The voice recognition is performed by matching (collating) a voice signal (waveform) emitted by the user with an acoustic model stored in the storage device 853. The matching is performed sequentially from the beginning of the word, usually in units of 10 to 20 milliseconds. For example, when recognizing the word "volume", the word "o" is recognized first. Matching candidates are narrowed down to words starting with “O” in the acoustic model. Next, when "on" is recognized, the candidates are narrowed down to music, sound, voice, syllable, etc., and when "onri" is recognized, the candidates are narrowed down to volume, etc., and finally the best matching is performed. The word is output.
[0047]
When the speech recognition is performed, each processing device is instructed to perform an HMD operation to be performed according to the meaning of the word.
(flowchart)
FIG. 8 is a diagram illustrating a flow of an operation when a head movement, a gaze movement, and a voice input are performed in the HMD according to the present embodiment.
[0048]
In step S100, the presence or absence of a voice input is determined by the voice detection device 470. If a voice input has been made, voice recognition is performed in step S101. Next, in step S102, what the user is instructing (commanding) is recognized based on the result of the voice recognition, and in step S103, each control device is instructed to execute the command. These processes are performed in the process of the voice input process 8544 of the central control device 854.
[0049]
Further, in step S200, it is determined whether or not there is a line-of-sight input. When the line of sight has been input, the gaze position of the user is detected in step S201. Next, in step S202, it is specified which option on the screen the user has selected. Subsequently, in step S203, each processing device is instructed to execute the content of the option. These processes are performed in the course of the line-of-sight input process 8543 of the central control device 854.
[0050]
In step S300, it is determined whether there is an input due to the movement of the head. If the input is made based on the movement of the head, in step S301, the type of the movement of the head (for example, vertical swing or horizontal swing) is recognized. Next, in step S302, the instruction content corresponding to the instruction is specified. Subsequently, in step S303, each control device is instructed to execute the instruction. These processes are performed in the process of the operation input process 8542 of the central control device 854.
(Example of Operation of First Embodiment)
An example of the operation of the HMD configured as described above will be described.
[0051]
The HMD according to the present invention is characterized in that it operates by reliably reflecting the user's intention by a combination of head movement detection, gaze detection, and voice detection.
[0052]
Hereinafter, an example will be described in which the intention of the user is reliably read, the image output is turned off, and the image output unit 100 is evacuated by a combination of head movement detection, gaze detection, and voice detection.
When the user turns off the image output and wants to evacuate the image display unit 100 from his / her eyes, the HMD according to the present embodiment can perform the following operation.
[0053]
When, for example, the word “OFF” is input from the user to the voice detection device 470, the voice signal is recognized as voice. As a result, it is recognized that the command is a command for requesting image output of the OFF target selection window 151. Then, execution of this command is instructed to the image output signal processing device 851.
[0054]
In response to this, the image output signal processing device 851 sends an image signal to the image output unit 100 to display the OFF target selection window 151. Then, the image output unit 100 outputs the off target selection window 151 as shown in FIG.
[0055]
This allows the user to observe the off target selection window 151 on the display screen 150 as shown in FIG. In the OFF target selection window 151, options are listed as to which of the power supply, the sound output, and the image output is turned off. Also, options for saving the image output unit are listed. The arrow icon 159 moves in conjunction with the user's viewpoint. The user moves the arrow icon 159 so that the one to be turned off is overlaid on the option. At this time, an audio guide such as “Please pay attention to options” may be output as audio. If there is a guide by voice output, the user can understand the operation method and can proceed smoothly and quickly to the next processing.
[0056]
The user adjusts the viewpoint to the option to be selected for a certain time.
[0057]
The gaze detection device 900 detects the gaze of the user and sends the detection result to the central control device 854. If the viewpoint does not move for a certain period of time or longer, the option at the position of the viewpoint on the screen is selected, and the option is specified.
[0058]
Next, as shown in FIG. 10, a confirmation screen 152 for confirming whether the option has been correctly selected is displayed. At this time, a voice guide such as "Please shake your head vertically if you like" may be output as voice. This informs the user what to do next, which makes the operation easier for the user and allows the user to proceed to the next process quickly and reliably. If the selection is correct, the user shakes his head vertically. If not, shake your head.
[0059]
At this time, if the head is swung vertically, the central controller 854 recognizes that the head is determined to be correct, and sets so as to proceed to the next processing. On the other hand, if the head is shaken sideways, it is recognized that the head is incorrect, and the processing is set so as to return to the off target selection window again.
[0060]
That is, when the user shakes his / her head vertically, it is recognized that the selection is correct, and the central control device 854 instructs each processing circuit to execute the content of the option.
[0061]
Here, for example, when the user selects the option of “image display off, evacuating the image output unit”, the central control device 854 turns off the image output, the motor 391 is driven, and the image output unit 100 Is instructed to evacuate from the user's eyes.
[0062]
As a result, the image output is turned off, and the image output unit 100 is separated from the user's eyes and retracted (see FIG. 3).
[0063]
As described above, according to the present embodiment, not only the movement of the head but also the detection of other actions of the user are combined, so that the intention of the user is reliably read, and the operation of the HMD is performed according to the intention of the user. You.
[0064]
In the above example, the voice detection result is assigned to the display of the display screen including a plurality of options, and the gaze detection result is assigned to the reception of an instruction to execute a specific operation of the head-mounted display, and the head movement Is assigned to confirm the received instruction content before executing the instruction content.
[0065]
The combination of user actions performed to instruct the HMD to perform a specific operation is not limited to the above.
[0066]
For example, a specific operation of the HMD may be performed according to a combination of two or more types of head movements, such as when the head is swung vertically and immediately swung horizontally. For example, in the case where the head is swung once in the vertical and horizontal directions and once in the vertical direction, the power may be turned off or the image output unit 100 may be evacuated from the user's eyes.
[0067]
Also, a combination of the same actions such as shaking the head twice vertically may be used, or a direction of the head movement such as shaking the head right first and then the head forward may be used.
[0068]
Further, a specific operation of the HMD may be performed according to the order of the user's actions. That is, a specific operation of the HMD may be performed by distinguishing whether two or more user actions are performed at different timings or in parallel. For example, a gaze input is performed after the head is moved; a head movement and a voice input are performed at the same time; a speech input or a gaze input is performed after the head is moved; In this case, the HMD may perform a specific operation.
[0069]
Further, it is preferable that the user can register what kind of action the HMD performs when the user performs the action.
[0070]
The registration can be performed by selecting an option on the screen with a line of sight and registering it. For example, an option listing the correspondence between the specific action form of the user and the specific operation of the HMD may be output to the screen and selected.
[0071]
Then, a specific action form of the user is associated with a specific operation of the head mounted display to be performed in accordance with the specific action form, and a set is stored in the storage device 853.
[0072]
Further, the specific operation of the HMD performed by the action of the user is not limited to, for example, turning off the sound and the image output. For example, when the user utters “soft”, as shown in FIG. 11, an application software screen 153 may be output as an image, and an operation such as opening a file in the computer may be performed on the screen. In this case, the arrow icon 159 is moved depending on the line of sight, and an operation target option, for example, “open file” is selected. After that, the screen may be shifted to a confirmation screen, and may be determined by swinging the head vertically. As described above, by instructing the user by a plurality of actions, the HMD can reliably read the user's intention and perform a specific operation without malfunction.
[0073]
The HMD of the embodiment described above is of a type in which the information processing device D is connected via a cable. However, the HMD to which the present invention is applied is not limited to this. For example, as shown in FIG. 12, the present invention can be applied to a device having a structure in which an information processing device D is mounted on an HMD. Further, the present invention can be applied to a configuration in which the information processing apparatus D and the HMD are wirelessly connected. In the latter case, a circuit and a power supply for wireless communication are mounted on the HMD. Also, a circuit for wireless communication is mounted on the information processing device side.
[0074]
In the above embodiment, an example having both the image output unit and the sound output unit has been described. The application of the present invention is not limited to this. For example, the present invention is also applicable to an HMD having only an image output unit.
[0075]
Further, in the above embodiment, the sound detection device 470 is arranged independently of the image output unit 100, but the sound detection device may be incorporated in the image output unit. In this case, the voice detection device support arm 333 becomes unnecessary, and the mechanism can be simplified. In this case, it is desirable to set the directivity of the sound detection device downward so that the sound can be reliably picked up.
[0076]
Further, the present invention is not limited to a single-eye HMD. The present invention is also applicable to a goggle type HMD that outputs an image to both eyes of a user.
[0077]
In the HMD of the present embodiment, since the image output unit support arm 320 can be accommodated in the image output unit support arm accommodation unit 312 of the support unit 300, the image output unit support arm 320 does not become an obstacle when not in use. It is convenient in such cases.
[0078]
【The invention's effect】
According to the present invention, there is provided an HMD that performs a specific operation of the HMD such as an audio output and an image output in a hands-free manner and with less malfunction according to a user's intention and reliably.
[Brief description of the drawings]
FIG. 1 is a perspective view showing an appearance of a head mounted display according to a first embodiment of the present invention.
FIG. 2 is a sectional view showing an outline of the structure of the head mounted display according to the first embodiment of the present invention.
FIG. 3 is a sectional view showing an outline of the structure of the head mounted display according to the first embodiment of the present invention.
FIG. 4 is a sectional view of a motor unit.
FIG. 5 is a diagram showing a structure of a visual line detection device.
FIG. 6 is a diagram showing components of a head mounted display and an information processing apparatus according to the first embodiment of the present invention.
FIG. 7 is a diagram showing components of an information processing apparatus applicable to the head mounted display according to the first embodiment of the present invention.
FIG. 8 is a flowchart showing a flow of processing according to a user action in the head mounted display according to the first embodiment of the present invention.
FIG. 9 is a view showing an example of a screen for setting an OFF operation mode;
FIG. 10 is an example of a confirmation screen.
FIG. 11 is a view showing a state where an option is selected with a line of sight on the screen of the application software.
FIG. 12 is a perspective view showing the appearance of a head mounted display integrated with an information processing apparatus according to the present invention.
[Explanation of symbols]
D: information processing device, CN: connector, SW: power switch,
U: User, 1: Head, 2: Eye
100 image output unit,
150 ... display screen, 152 ... off target selection window, 153 ... software application software screen, 159 ... arrow icon,
200 (200L, 200R) ... sound output unit,
Reference numeral 300: support portion, 310: band, 311: band body, 312: image output portion support arm accommodation portion, 312b: opening, 320: image output portion support arm,
333: voice detection device support arm,
390: motor unit, 391: motor, 392: motor shaft, 393: roller,
470 ... voice detection device,
700: motion detection device,
800 ... cable,
810: plug,
851 image output signal processing device, 852 audio output signal processing device, 853 storage device
854: central control device, 8541: input determination process, 8542: motion input process, 8543: gaze input process, 8544: voice input process,
856: power control circuit, 857: battery, 858: input / output interface,
900: line-of-sight detection device, 901: infrared light irradiation unit, 902: field-of-view sensor, 903: condenser lens, 904: dichroic mirror

Claims (12)

画像を出力する画像出力部を有し、頭部に装着可能なヘッドマウントディスプレイであって、
ユーザの特定のアクションを検出して、ユーザの指示を受け付ける指示入力手段と、
前記指示入力手段により入力された指示に応じて、ヘッドマウントディスプレイの特定の動作を行わせる制御手段とを有し、
前記指示入力手段は、ユーザの頭部の動きを検出する動き検出機能を有することを特徴とするヘッドマウントディスプレイ。
An image output unit that outputs an image, a head mounted display that can be mounted on the head,
An instruction input unit that detects a specific action of the user and receives an instruction from the user;
Control means for performing a specific operation of the head mounted display according to the instruction input by the instruction input means,
The head-mounted display, wherein the instruction input unit has a motion detecting function of detecting a motion of a user's head.
請求項1に記載のヘッドマウントディスプレイであって、
前記動き検出機能は、少なくとも、身体軸方向の軸回りの頭部の動きと、身体軸に直交する軸回りの頭部の動きとを検出し、
前記制御手段は、前記動き検出手段で検出された前記身体軸方向の軸回りの頭部の動きと、身体軸に直交する軸回りの頭部の動きとの組み合わせに応じて制御がなされることを特徴とするヘッドマウントディスプレイ。
The head mounted display according to claim 1, wherein
The motion detection function, at least, detects the movement of the head around the body axis direction, and the movement of the head around the axis orthogonal to the body axis,
The control means is controlled in accordance with a combination of the movement of the head around the axis in the body axis direction detected by the movement detection means and the movement of the head about an axis orthogonal to the body axis. A head mounted display characterized by the following.
請求項1および請求項2のいずれかに記載のヘッドマウントディスプレイであって、
前記指示入力手段は、ユーザの視線の動きを検出する視線検出機能をさらに有し、
前記制御手段は、前記動き検出機能による動き検出結果と前記視線検出機能による視線検出結果に応じて制御を行うことを特徴とするヘッドマウントディスプレイ。
The head mounted display according to any one of claims 1 and 2,
The instruction input unit further has a line-of-sight detection function of detecting the movement of the line of sight of the user,
The head mounted display, wherein the control means performs control in accordance with a result of motion detection by the motion detection function and a result of visual line detection by the visual line detection function.
請求項3に記載のヘッドマウントディスプレイであって、
前記制御手段は、前記視線検出結果又は前記動き検出結果のどちらか一方の結果に応じて、前記ヘッドマウントディスプレイの特定の動作の実行の指示の受付が行われる様に制御し、前記視線検出結果又は前記動き検出結果のどちらか他方の結果に応じて、指示の実行前に、受け付けた指示の確認を前記ユーザに求める様に制御することを特徴とするヘッドマウントディスプレイ。
The head mounted display according to claim 3, wherein
The control unit performs control such that an instruction to execute a specific operation of the head-mounted display is received in accordance with one of the result of the line-of-sight detection and the result of the movement detection. Alternatively, a head-mounted display is controlled so as to request the user to confirm a received instruction before executing the instruction in accordance with one of the results of the motion detection.
請求項1から請求項4のいずれかに記載のヘッドマウントディスプレイであって、
前記指示入力手段は、ユーザの発する音声を検出する音声検出機能とをさらに有し、
少なくとも前記動き検出機能による動き検出結果と前記音声検出機能による音声検出結果に応じて、制御を行うことを特徴とするヘッドマウントディスプレイ。
The head mounted display according to any one of claims 1 to 4, wherein
The instruction input means further has a voice detection function of detecting a voice emitted by the user,
A head-mounted display that performs control according to at least a motion detection result by the motion detection function and a voice detection result by the voice detection function.
請求項1および請求項2のいずれかに記載のヘッドマウントディスプレイであって、
前記指示入力手段は、ユーザの視線の動きを検出する視線検出機能と、ユーザの発する音声を検出する音声検出機能とをさらに有し、
前記制御手段は、前記音声検出機能による音声検出結果に応じて、複数の選択肢を含む表示画面の表示を前記表示出力部で行うように制御し、
前記視線検出結果に応じて、前記複数の選択肢からの選択の受付を行う様に制御し、
頭部の動きの検出結果に応じて、前記受付を行った内容の確認を行うように制御することを特徴とするヘッドマウントディスプレイ。
The head mounted display according to any one of claims 1 and 2,
The instruction input unit further has a line-of-sight detection function for detecting the movement of the user's line of sight, and a sound detection function for detecting a sound emitted by the user,
The control means controls the display output unit to display a display screen including a plurality of options according to a sound detection result by the sound detection function,
In accordance with the gaze detection result, control is performed to accept a selection from the plurality of options,
A head-mounted display, wherein control is performed to confirm the content of the reception in accordance with a detection result of a head movement.
請求項1〜6のいずれかに記載のヘッドマウントディスプレイであって、
前記指示入力手段は、異なるタイミングで行われる少なくとも2つのユーザのアクションを検出する機能を有することを特徴とするヘッドマウントディスプレイ。
The head mounted display according to any one of claims 1 to 6, wherein
The head mounted display, wherein the instruction input unit has a function of detecting at least two user actions performed at different timings.
請求項1〜6のいずれかに記載のヘッドマウントディスプレイであって
前記指示入力手段は、並行して行われる少なくとも2つのユーザのアクションを検出する機能を有することを特徴とするヘッドマウントディスプレイ。
7. The head mounted display according to claim 1, wherein said instruction input means has a function of detecting at least two user actions performed in parallel.
請求項1〜8のいずれかに記載のヘッドマウントディスプレイであって、
前記ヘッドマウントディスプレイの特定の動作は、音声出力及び画像出力のうち少なくとも1つの変化であることを特徴とするヘッドマウントディスプレイ。
The head mounted display according to any one of claims 1 to 8,
The specific operation of the head-mounted display is a change in at least one of an audio output and an image output.
請求項1〜9のいずれかに記載のヘッドマウントディスプレイであって、
前記ヘッドマウントディスプレイの特定の動作は、電源のオンおよびオフのいずれかであることを特徴とするヘッドマウントディスプレイ。
It is a head mounted display according to any one of claims 1 to 9,
The head mounted display according to claim 1, wherein the specific operation of the head mounted display is one of power on and off.
請求項1〜10のいずれかに記載のヘッドマウントディスプレイであって、
前記画像出力部を、ユーザの眼前に位置した状態と、眼前からはずれて待避した状態とを、動力により、切り替えられる手段をさらに有し、
前記ヘッドマウントディスプレイの特定の動作は、前記画像出力部を、ユーザの眼前に位置した状態と、眼前からはずれて待避した状態とで、切り替えることことを特徴とするヘッドマウントディスプレイ。
The head mounted display according to any one of claims 1 to 10, wherein
The image output unit further includes a unit that can be switched between a state in which the user is positioned in front of the user and a state in which the image output unit is out of front and retracted by power,
The head mounted display according to claim 1, wherein the specific operation of the head mounted display switches between a state in which the image output unit is positioned in front of the user and a state in which the image output unit is separated from the user and retracted.
請求項1〜11のいずれかに記載のヘッドマウントディスプレイであって、
ユーザの特定のアクションの形態と、それに応じてなされるべきヘッドマウントディスプレイの特定の動作とを対応させ一組にして登録し記憶する手段をさらに有し、
前記制御手段は、前記指示入力手段により検出されたユーザの特定のアクションと、前記記憶されたユーザの特定のアクションの形態と、が一致すると判定される場合は、そのアクションに対応する前記記憶されたそのアクションに応じてなされるべきヘッドマウントディスプレイの特定の動作が行われる様に制御することを特徴とするヘッドマウントディスプレイ。
The head mounted display according to any one of claims 1 to 11,
The apparatus further includes means for registering and storing a set of a specific action form of the user and a specific operation of the head mounted display to be performed in response thereto,
The control means, when it is determined that the specific action of the user detected by the instruction input means and the form of the stored specific action of the user match, the stored corresponding to the action A head-mounted display which controls so that a specific operation of the head-mounted display to be performed according to the action is performed.
JP2003025320A 2002-12-24 2003-01-31 Head-mounted display Pending JP2004233909A (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2003025320A JP2004233909A (en) 2003-01-31 2003-01-31 Head-mounted display
PCT/JP2003/016422 WO2004061519A1 (en) 2002-12-24 2003-12-22 Head mount display
US11/154,893 US7542012B2 (en) 2002-12-24 2005-06-16 Head mounted display
US12/430,637 US8400371B2 (en) 2002-12-24 2009-04-27 Head mount display

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003025320A JP2004233909A (en) 2003-01-31 2003-01-31 Head-mounted display

Publications (1)

Publication Number Publication Date
JP2004233909A true JP2004233909A (en) 2004-08-19

Family

ID=32953636

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003025320A Pending JP2004233909A (en) 2002-12-24 2003-01-31 Head-mounted display

Country Status (1)

Country Link
JP (1) JP2004233909A (en)

Cited By (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006087049A (en) * 2004-09-17 2006-03-30 Canon Inc Imaging device, method for controlling it and computer program
JP2008015634A (en) * 2006-07-03 2008-01-24 Seikatsu Kyodo Kumiai Coop Sapporo System and method for providing commodity-related information
JP2009044387A (en) * 2007-08-08 2009-02-26 Nikon Corp Head-mounted display
JP2011014081A (en) * 2009-07-06 2011-01-20 Toshiba Tec Corp Wearable terminal device and program
JP2011048439A (en) * 2009-08-25 2011-03-10 Toshiba Tec Corp Wearable order terminal and program
JP2011048440A (en) * 2009-08-25 2011-03-10 Toshiba Tec Corp Cooking assistance terminal and program
JP2012514392A (en) * 2008-12-30 2012-06-21 ゼンハイザー・エレクトロニック・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング・ウント・コンパニー・コマンデイトゲゼルシャフト Control system, earphone, and control method
JP2013083731A (en) * 2011-10-06 2013-05-09 Murata Mach Ltd Image display system
WO2013175465A1 (en) * 2012-05-21 2013-11-28 Lumus Ltd. Head -mounted display with an eyeball - tracker integrated system
WO2014129105A1 (en) * 2013-02-22 2014-08-28 ソニー株式会社 Head-mounted display system, head-mounted display, and control program for head-mounted display
JP2015087921A (en) * 2013-10-30 2015-05-07 セイコーエプソン株式会社 Head-mounted display device and method for controlling head-mounted display device
KR20150078242A (en) * 2013-12-30 2015-07-08 주식회사 케이티 Method for controlling head mounted display, computing device and computer-readable medium
JP2015141686A (en) * 2014-01-30 2015-08-03 株式会社リコー Pointing device, information processing device, information processing system, and method for controlling pointing device
JP2016126381A (en) * 2014-12-26 2016-07-11 セイコーエプソン株式会社 Head-mounted display device, control method thereof, and computer program
JP2016218597A (en) * 2015-05-18 2016-12-22 富士通株式会社 Wearable device, display control program, and display control method
WO2017057037A1 (en) * 2015-09-30 2017-04-06 ソニー株式会社 Information processing device, information processing method, and program
JP2017511636A (en) * 2014-03-10 2017-04-20 クゥアルコム・インコーポレイテッドQualcomm Incorporated Device and method for facilitating wireless communication based on an implicit user queue
JP2017134601A (en) * 2016-01-27 2017-08-03 株式会社コーエーテクモゲームス Information processing device, setting screen display method, and setting screen display program
KR20170090419A (en) * 2014-10-24 2017-08-07 이매진 코퍼레이션 Microdisplay based immersive headset
US9921646B2 (en) 2013-03-25 2018-03-20 Seiko Epson Corporation Head-mounted display device and method of controlling head-mounted display device
JP2018508805A (en) * 2014-12-29 2018-03-29 株式会社ソニー・インタラクティブエンタテインメント Method and system for user interaction in a virtual or augmented reality scene using a head mounted display
WO2018061743A1 (en) * 2016-09-28 2018-04-05 コニカミノルタ株式会社 Wearable terminal
JP2018091882A (en) * 2016-11-30 2018-06-14 セイコーエプソン株式会社 Head-mounted display, program, and method for controlling head-mounted display
US10366691B2 (en) 2017-07-11 2019-07-30 Samsung Electronics Co., Ltd. System and method for voice command context
US10506220B2 (en) 2018-01-02 2019-12-10 Lumus Ltd. Augmented reality displays with active alignment and corresponding methods
US10649214B2 (en) 2005-02-10 2020-05-12 Lumus Ltd. Substrate-guide optical device
US10732415B2 (en) 2005-02-10 2020-08-04 Lumus Ltd. Substrate-guide optical device
US11243434B2 (en) 2017-07-19 2022-02-08 Lumus Ltd. LCOS illumination via LOE
US11262587B2 (en) 2018-05-22 2022-03-01 Lumus Ltd. Optical system and method for improvement of light field uniformity
US11500143B2 (en) 2017-01-28 2022-11-15 Lumus Ltd. Augmented reality imaging system
US11849262B2 (en) 2019-03-12 2023-12-19 Lumus Ltd. Image projector

Cited By (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006087049A (en) * 2004-09-17 2006-03-30 Canon Inc Imaging device, method for controlling it and computer program
US8558900B2 (en) 2004-09-17 2013-10-15 Canon Kabushiki Kaisha Image capturing apparatus and control method thereof with attitude control
US10732415B2 (en) 2005-02-10 2020-08-04 Lumus Ltd. Substrate-guide optical device
US11099389B2 (en) 2005-02-10 2021-08-24 Lumus Ltd. Substrate-guide optical device
US10649214B2 (en) 2005-02-10 2020-05-12 Lumus Ltd. Substrate-guide optical device
JP2008015634A (en) * 2006-07-03 2008-01-24 Seikatsu Kyodo Kumiai Coop Sapporo System and method for providing commodity-related information
JP2009044387A (en) * 2007-08-08 2009-02-26 Nikon Corp Head-mounted display
JP2012514392A (en) * 2008-12-30 2012-06-21 ゼンハイザー・エレクトロニック・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング・ウント・コンパニー・コマンデイトゲゼルシャフト Control system, earphone, and control method
US8949744B2 (en) 2008-12-30 2015-02-03 Sennheiser Electronic Gmbh & Co. Kg Control system, earphone and control method
JP2011014081A (en) * 2009-07-06 2011-01-20 Toshiba Tec Corp Wearable terminal device and program
JP2011048439A (en) * 2009-08-25 2011-03-10 Toshiba Tec Corp Wearable order terminal and program
JP2011048440A (en) * 2009-08-25 2011-03-10 Toshiba Tec Corp Cooking assistance terminal and program
JP2013083731A (en) * 2011-10-06 2013-05-09 Murata Mach Ltd Image display system
US9804396B2 (en) 2012-05-21 2017-10-31 Lumus Ltd. Head-mounted display with an eyeball-tracker integrated system
EP3796069A1 (en) * 2012-05-21 2021-03-24 Lumus Ltd Head-mounted display with an eyeball-tracker integrated system
CN104395815A (en) * 2012-05-21 2015-03-04 鲁姆斯有限公司 Head-mounted display with an eyeball-tracker integrated system
CN104395815B (en) * 2012-05-21 2017-03-08 鲁姆斯有限公司 Head mounted display eyeball tracking device integrated system
US10520732B2 (en) 2012-05-21 2019-12-31 Lumus Ltd. Head-mounted display eyeball tracker integrated system
WO2013175465A1 (en) * 2012-05-21 2013-11-28 Lumus Ltd. Head -mounted display with an eyeball - tracker integrated system
CN104335155A (en) * 2013-02-22 2015-02-04 索尼公司 Head-mounted display system, head-mounted display, and control program for head-mounted display
US9829997B2 (en) 2013-02-22 2017-11-28 Sony Corporation Head-mounted display system, head-mounted display, and head-mounted display control program
CN104335155B (en) * 2013-02-22 2018-11-09 索尼公司 The control program of wear-type display system, head-mounted display and head-mounted display
WO2014129105A1 (en) * 2013-02-22 2014-08-28 ソニー株式会社 Head-mounted display system, head-mounted display, and control program for head-mounted display
US9921646B2 (en) 2013-03-25 2018-03-20 Seiko Epson Corporation Head-mounted display device and method of controlling head-mounted display device
JP2015087921A (en) * 2013-10-30 2015-05-07 セイコーエプソン株式会社 Head-mounted display device and method for controlling head-mounted display device
KR102122339B1 (en) 2013-12-30 2020-06-12 주식회사 케이티 Method for controlling head mounted display, computing device and computer-readable medium
KR20150078242A (en) * 2013-12-30 2015-07-08 주식회사 케이티 Method for controlling head mounted display, computing device and computer-readable medium
JP2015141686A (en) * 2014-01-30 2015-08-03 株式会社リコー Pointing device, information processing device, information processing system, and method for controlling pointing device
JP2017511636A (en) * 2014-03-10 2017-04-20 クゥアルコム・インコーポレイテッドQualcomm Incorporated Device and method for facilitating wireless communication based on an implicit user queue
US10394330B2 (en) 2014-03-10 2019-08-27 Qualcomm Incorporated Devices and methods for facilitating wireless communications based on implicit user cues
JP6994362B2 (en) 2014-10-24 2022-01-14 イメージン コーポレイション Micro-display based immersive headset
JP2018067929A (en) * 2014-10-24 2018-04-26 イメージン コーポレイション Microdisplay based immersive headset
KR102295452B1 (en) * 2014-10-24 2021-08-27 이매진 코퍼레이션 Microdisplay based immersive headset
JP2018010318A (en) * 2014-10-24 2018-01-18 イメージン コーポレイション Microdisplay based immersive headset
KR20170090419A (en) * 2014-10-24 2017-08-07 이매진 코퍼레이션 Microdisplay based immersive headset
US11256102B2 (en) 2014-10-24 2022-02-22 Emagin Corporation Microdisplay based immersive headset
JP2016126381A (en) * 2014-12-26 2016-07-11 セイコーエプソン株式会社 Head-mounted display device, control method thereof, and computer program
JP2018508805A (en) * 2014-12-29 2018-03-29 株式会社ソニー・インタラクティブエンタテインメント Method and system for user interaction in a virtual or augmented reality scene using a head mounted display
US10073516B2 (en) 2014-12-29 2018-09-11 Sony Interactive Entertainment Inc. Methods and systems for user interaction within virtual reality scene using head mounted display
JP2016218597A (en) * 2015-05-18 2016-12-22 富士通株式会社 Wearable device, display control program, and display control method
WO2017057037A1 (en) * 2015-09-30 2017-04-06 ソニー株式会社 Information processing device, information processing method, and program
JP2017134601A (en) * 2016-01-27 2017-08-03 株式会社コーエーテクモゲームス Information processing device, setting screen display method, and setting screen display program
WO2018061743A1 (en) * 2016-09-28 2018-04-05 コニカミノルタ株式会社 Wearable terminal
JP2018091882A (en) * 2016-11-30 2018-06-14 セイコーエプソン株式会社 Head-mounted display, program, and method for controlling head-mounted display
US11500143B2 (en) 2017-01-28 2022-11-15 Lumus Ltd. Augmented reality imaging system
US10366691B2 (en) 2017-07-11 2019-07-30 Samsung Electronics Co., Ltd. System and method for voice command context
US11243434B2 (en) 2017-07-19 2022-02-08 Lumus Ltd. LCOS illumination via LOE
US10869024B2 (en) 2018-01-02 2020-12-15 Lumus Ltd. Augmented reality displays with active alignment and corresponding methods
US10506220B2 (en) 2018-01-02 2019-12-10 Lumus Ltd. Augmented reality displays with active alignment and corresponding methods
US11262587B2 (en) 2018-05-22 2022-03-01 Lumus Ltd. Optical system and method for improvement of light field uniformity
US11567331B2 (en) 2018-05-22 2023-01-31 Lumus Ltd. Optical system and method for improvement of light field uniformity
US11849262B2 (en) 2019-03-12 2023-12-19 Lumus Ltd. Image projector

Similar Documents

Publication Publication Date Title
JP2004233909A (en) Head-mounted display
JP6271935B2 (en) Display device and control method thereof
US8532871B2 (en) Multi-modal vehicle operating device
US7519537B2 (en) Method and apparatus for a verbo-manual gesture interface
EP2778865B1 (en) Input control method and electronic device supporting the same
WO2004061519A1 (en) Head mount display
WO2010062479A1 (en) System and apparatus for eyeglass appliance platform
WO2012040107A1 (en) Advanced remote control of host application using motion and voice commands
WO2019026616A1 (en) Information processing device and method
JP2007216363A (en) Communication robot
JP6470374B1 (en) Program and information processing apparatus executed by computer to provide virtual reality
US20180204375A1 (en) Smart device and method for controlling same
JP7466034B2 (en) Programs and systems
JP2018036902A (en) Equipment operation system, equipment operation method, and equipment operation program
EP1263214A2 (en) Image-taking device
JP4247149B2 (en) robot
JP4321083B2 (en) Head mounted display
KR102136461B1 (en) Smart projector and method for controlling thereof
US20200401031A1 (en) Information processing apparatus, information processing method, and recording medium
JP2006327526A (en) Operating device of car-mounted appliance
JP2012194626A (en) Display device
JP3270403B2 (en) Device angle control method
JP2016148899A (en) Electronic apparatus
JP2002165156A (en) Image display mounted on head and image-displaying system
KR102136462B1 (en) Smart projector and method for controlling thereof