Nothing Special   »   [go: up one dir, main page]

JP6515512B2 - 表示装置、表示装置のキャリブレーション方法、およびキャリブレーションプログラム - Google Patents

表示装置、表示装置のキャリブレーション方法、およびキャリブレーションプログラム Download PDF

Info

Publication number
JP6515512B2
JP6515512B2 JP2014248951A JP2014248951A JP6515512B2 JP 6515512 B2 JP6515512 B2 JP 6515512B2 JP 2014248951 A JP2014248951 A JP 2014248951A JP 2014248951 A JP2014248951 A JP 2014248951A JP 6515512 B2 JP6515512 B2 JP 6515512B2
Authority
JP
Japan
Prior art keywords
calibration
display
user
image
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014248951A
Other languages
English (en)
Other versions
JP2016110489A (ja
Inventor
邦保 柴田
邦保 柴田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2014248951A priority Critical patent/JP6515512B2/ja
Publication of JP2016110489A publication Critical patent/JP2016110489A/ja
Application granted granted Critical
Publication of JP6515512B2 publication Critical patent/JP6515512B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、表示装置、表示装置のキャリブレーション方法、およびキャリブレーションプログラムに関する。
近年、現実の環境に、付加的な情報を重畳させて表示する拡張現実(AR:Augmented Reality)と呼ばれる技術が注目されている。AR技術を採用したヘッドマウントディスプレイ(Smart Glass等)を用いれば、現実の環境に案内や広告等のAR画像を重畳させて表示できる。
AR画像が現実の環境内にあたかも存在しているかのようにユーザーに見せるためには、ユーザーの位置および顔の向き(以下、「直視方向」とも称する)に応じて、AR画像の表示位置、サイズ、形状等を、随時、変更する必要がある。そのためには、AR画像の生成の際に、ユーザーの位置および顔の向きを正確に特定できなければならない。
このような要求に応えるべく、たとえば、ジャイロセンサーを用いて、ユーザーの位置および顔の向きを特定する技術が開発されている(特許文献1)。しかし、一般的には、ジャイロセンサーの出力のみに基づいてユーザーの位置および顔の向きを特定すると、その特定結果に誤差が蓄積して、現実の環境とAR画像の間に位置ずれが発生する。
そこで、ジャイロセンサーとは別のセンサーをさらに搭載して、ユーザーの位置および顔の向きを補正する技術が開発されている(特許文献2)。
特開2008−299669号公報 特開平8−289226号公報
しかし、ユーザーの位置および顔の向きを正確に特定するために複数のセンサーを搭載すると、ジャイロセンサーのみを搭載する場合と比べて、コスト、重量、消費電力の増加を招く。
本発明は、複数のセンサーを用いることなく、ユーザーの位置および顔の向きを従来よりも正確に特定できる表示装置等を提供することを目的とする。
(1)表示部を有し、ユーザーの頭部に装着して用いられる表示装置であって、
少なくとも前記ユーザーの位置および所定の基準位置に関する実空間情報を取得する情報取得部と、前記ユーザーの頭部の動きに応じた信号を出力するセンサーと、前記センサーが出力する信号により定まる直視方向をキャリブレーションするキャリブレーション部と、前記情報取得部により取得した前記実空間情報と、前記センサーが出力する信号により定まる直視方向とに基づき、AR画像を前記表示部に表示させる表示制御部と、を備え、キャリブレーションモード実行時において、前記表示制御部は、前記情報取得部により取得した前記実空間情報を用いて、前記所定の基準位置に対応する前記表示部の位置にキャリブレーション用のAR画像を表示させ、
前記キャリブレーション部は、前記所定の基準位置に前記キャリブレーション用のAR画像が重なって見えることを示す入力を前記ユーザーから受け付けたときに、前記センサーが出力する信号により定まる直視方向を基準方向としてキャリブレーションし、
前記所定の基準位置は、所定のスクリーンの位置であり、前記スクリーンには、所定の形状を有する図形を含む画像が表示される、表示装置。
)前記キャリブレーション用のAR画像は、前記スクリーンに表示される図形に対応する形状の図形を含む、上記()に記載の表示装置。
)前記キャリブレーション部は、前記スクリーンに表示される図形に、前記キャリブレーション用のAR画像に含まれる図形が重なって見えることを示す入力を前記ユーザーから受け付けたときに、前記センサーが出力する信号により定まる直視方向を基準方向としてキャリブレーションする、上記()に記載の表示装置。
)前記ユーザーの位置は、当該ユーザーが着席する座席の位置である、上記()〜()のいずれかに記載の表示装置。
)前記情報取得部は、前記表示装置とは独立したサーバーから取得する、上記(1)〜()のいずれかに記載の表示装置。
)前記実空間情報を記憶する記憶部をさらに備え、前記情報取得部は、前記記憶部から前記実空間情報を取得する、上記(1)〜()のいずれかに記載の表示装置。
7)前記ユーザーの前記AR画像が重なって見えることを示す入力は、所定ボタンの押下、または、前記ユーザーの頭部を一定時間以上静止させることにより行われる、上記(1)〜()のいずれかに記載の表示装置。
)表示部を有し、ユーザーの頭部に装着して用いられる表示装置のキャリブレーション方法であって、前記表示装置は、少なくとも前記ユーザーの位置および所定の基準位置に関する実空間情報を取得する情報取得部と、前記ユーザーの頭部の動きに応じた信号を出力するセンサーと、前記センサーが出力する信号により定まる直視方向をキャリブレーションするキャリブレーション部と、前記情報取得部により取得した前記実空間情報と、前記センサーが出力する信号により定まる直視方向とに基づき、AR画像を前記表示部に表示させる表示制御部と、を備え、キャリブレーションモード実行時において、(a)前記表示制御部が、前記情報取得部により取得した前記実空間情報を用いて、前記所定の基準位置に対応する前記表示部の位置にキャリブレーション用のAR画像を表示させるステップと、(b)前記キャリブレーション部が、前記所定の基準位置に前記キャリブレーション用のAR画像が重なって見えることを示す入力を前記ユーザーから受け付けたときに、前記センサーが出力する信号により定まる直視方向を基準方向としてキャリブレーションするステップと、を有し、前記所定の基準位置は、所定のスクリーンの位置であり、前記スクリーンには、所定の形状を有する図形を含む画像が表示される、表示装置のキャリブレーション方法。
)表示部を有し、ユーザーの頭部に装着して用いられる表示装置のコンピューターに実行させるためのキャリブレーションプログラムであって、前記表示装置は、少なくとも前記ユーザーの位置および所定の基準位置に関する実空間情報を取得する情報取得部と、前記ユーザーの頭部の動きに応じた信号を出力するセンサーと、前記センサーが出力する信号により定まる直視方向をキャリブレーションするキャリブレーション部と、前記情報取得部により取得した前記実空間情報と、前記センサーが出力する信号により定まる直視方向とに基づき、AR画像を前記表示部に表示させる表示制御部と、を備え、キャリブレーションモード実行時において、(a)前記表示制御部が、前記情報取得部により取得した前記実空間情報を用いて、前記所定の基準位置に対応する前記表示部の位置にキャリブレーション用のAR画像を表示させるステップと、(b)前記キャリブレーション部が、前記所定の基準位置に前記キャリブレーション用のAR画像が重なって見えることを示す入力を前記ユーザーから受け付けたときに、前記センサーが出力する信号により定まる直視方向を基準方向としてキャリブレーションするステップと、を含む処理であって、
前記所定の基準位置は、所定のスクリーンの位置であり、前記スクリーンには、所定の形状を有する図形を含む画像が表示される処理を、前記コンピューターに実行させるためのキャリブレーションプログラム。
本発明によれば、少なくともユーザーの位置および所定の基準位置に関する実空間情報を用いて、ユーザーの顔の向き(直視方向)をキャリブレーションする。そのため、複数のセンサーを用いなくても、ユーザーの位置および顔の向きを従来よりも正確に特定でき、低コスト、軽量、低消費電力の表示装置等を提供できる。
本実施形態に係る表示システムの全体構成例を示すブロック図である。 (A)上映システムが配置された映画館内部の上面図である。(B)上映システムが配置された映画館内部の斜視図である。 情報提供サーバーのハードウェア構成例を示すブロック図である。 表示装置の外観例を示す図である。 表示装置のハードウェア構成例を示すブロック図である。 上映システムおよび表示装置の機能構成例を示すブロック図である。 実空間情報の概略データ構造の例を示す図である。 実空間情報として位置情報が与えられる映画館内部の対象物について説明するための図である。 AR画像情報の概略データ構造の例を示す図である。 上映装置において実行される投影処理の手順を示すフローチャートである。 スクリーンに投影されたキャリブレーション用の投影コンテンツの例を示す図である。 表示装置において実行されるキャリブレーション処理の手順を示すフローチャートである。 (A)キャリブレーション用のAR画像の生成方法を説明するための図である。(B)表示装置のディスプレイに表示されるキャリブレーション用のAR画像の例を示す図である。 キャリブレーション用のAR画像が投影コンテンツCに重なって見えないときの状態を示す図である。 キャリブレーション用のAR画像が投影コンテンツCに重なって見えるときの状態を示す図である。 情報提供サーバーにおいて実行される情報提供処理の手順を示すフローチャートである。 上映処理時におけるAR画像の生成方法を説明するための図である。 (A)キャリブレーション用のAR画像の変形例を示す図である。(B)図18(A)のキャリブレーション用のAR画像を用いてキャリブレーションするときの、ユーザーの視線方向の状態を示す図である。
以下、添付した図面を参照して、本発明の実施形態を説明する。なお、図面の説明において同一の要素には同一の符号を付し、重複する説明を省略する。また、図面の寸法比率は、説明の都合上誇張されており、実際の比率とは異なる場合がある。
図1は、本実施形態に係る表示システム1の全体構成例を示すブロック図である。図2(A)は、上映システム100が配置された映画館内部の上面図である。図2(B)は、上映システム100が配置された映画館内部の斜視図である。図3は、情報提供サーバー140のハードウェア構成例を示すブロック図である。図4は、表示装置200の外観例を示す図である。図5は、表示装置200のハードウェア構成例を示すブロック図である。以下、図1〜図5を参照して、表示システム1の概略構成、特にハードウェア構成について説明する。
[表示システム1(ハードウェア構成)]
(1)全体構成
図1に示すとおり、表示システム1は、上映システム100と、1台以上の表示装置200とを備える。ただし、表示システム1を構成する機器の種類および台数は、図1に示す例に限定されない。
上映システム100は、図2(A)、(B)に示す例のように、映画館に配置される。図2(A)に示す例では、上映システム100は、座席110と、スクリーン120と、上映装置130と、情報提供サーバー140とを備える。
座席110は、スクリーン120に投影された映画などの映像を視聴するユーザーが座るための椅子である。映画館の例では、複数の座席110が並べて配置され、各座席110には識別番号が割り当てられている。
スクリーン120は、上映装置130から投影された映像を映し出す大型の平面である。本実施形態においては、図2(A)に示す例のように、ユーザーが着席している座席110の背後からスクリーン120に向けて映像を投影するフロントタイプスクリーンが用いられる。ただし、これに限らず、スクリーン120の背面に向けて映像を投影するリアタイプスクリーンが用いられてもよい。
上映装置130は、スクリーン120に映像を投影する装置である。上映装置130は、たとえば、上映サーバー(不図示)と、制御装置(不図示)と、プロジェクター(不図示)と、スピーカー(不図示)と、記憶装置(不図示)と、通信装置(不図示)とを備える。ここで、上映サーバーは、デジタルシネマを再生する装置である。制御装置は、上映サーバーを制御する一般的なコンピューターである。プロジェクターは、再生された映像をスクリーン120に投影し、スピーカーは、再生された音声を出力する。記憶装置は、デジタルシネマパッケージ(DCP)と呼ばれる形式のデータを格納する装置(たとえば、ハードディスク)である。通信装置は、無線LAN等によって、表示装置200と通信するための装置である。このように、本実施形態の上映装置130には、デジタルシネマ用のプロジェクターが用いられる。
情報提供サーバー140は、表示装置200からの問い合わせに応じて、映画館内部の実空間情報を提供する情報処理装置(コンピューター)である。なお、情報提供サーバー140の詳細な構成、および実空間情報の詳細については後述する。
また、表示装置200は、ユーザー(たとえば、映画の視聴者)の頭部に装着して使用されるヘッドマウントディスプレイ(HMD)装置である。表示装置200には、現実の環境(ユーザーが見ている方向)にAR画像が重畳されて表示される。たとえば、スクリーン120の下方の壁に、字幕のAR画像が重畳されて表示される。また、ユーザーの顔の向き(すなわち、直視方向)を特定する際には、その基準となる方向(以下では「基準方向」と称する)を定めておく必要があるが、当該基準方向をキャリブレーションするために使用されるAR画像が表示されてもよい。なお、以下では、ユーザーの顔の向きをキャリブレーションするために使用されるAR画像を、キャリブレーション用のAR画像と称する。
上映システム100の情報提供サーバー140と表示装置200は、通信ネットワークを介して相互に通信可能に接続される。ここで、通信ネットワークには、無線LAN(Local Area Network)等のコンピューターネットワークが含まれる。
(2)情報提供サーバー140(ハードウェア構成)
次に、情報提供サーバー140のハードウェア構成について説明する。
図3に示すとおり、情報提供サーバー140は、制御装置141と、ディスプレイ142と、入力装置143と、通信装置144とを有し、これらは信号をやり取りするための信号線(バス等)145を介して相互に接続されている。
制御装置141は、情報提供サーバー140全体を制御する。たとえば、制御装置141は、CPU(Central Processing Unit)146と、メモリー147と、ストレージ148とを有する。
CPU146は、プログラムにしたがって上記各部の制御や各種の演算処理を実行するマルチコアのプロセッサ等から構成される制御回路であり、情報提供サーバー140の各機能は、それに対応するプログラムをCPU146が実行することにより発揮される。
メモリー147は、作業領域として一時的にプログラムおよびデータを記憶する高速アクセス可能な主記憶装置である。メモリー147には、たとえば、DRAM(Dynamic Random Access Memory)、SDRAM(Synchronous Dynamic Random Access Memory)、SRAM(Static Random Access Memory)等が採用される。
ストレージ148は、オペレーティングシステムを含む各種プログラムや各種データを格納する大容量の補助記憶装置である。ストレージ148には、たとえば、ハードディスク、ソリッドステートドライブ、フラッシュメモリー、ROM等が採用される。
ディスプレイ142は、情報提供サーバー140を操作するために必要な情報や設定情報など、各種データを表示する。ディスプレイ142には、たとえば、液晶ディスプレイ、有機EL(Electro−Luminescence)等が採用される。
入力装置143は、ユーザーの指示に従って各種データを入力する。入力装置143には、たとえば、キーボードやマウス等のポインティングデバイスが採用される。
通信装置144は、無線LAN等によって、表示装置200と通信するための装置である。
(3)表示装置200(ハードウェア構成)
次に、表示装置200のハードウェア構成について説明する。
図4に示すとおり、表示装置200は、視力矯正用のメガネを模した構造で構成されている。すなわち、表示装置200は、左右一対のテンプルL1、L2と、ブリッジBと、左右一対の透明部材G1、G2とを備えて構成される。
テンプルL1、L2は、たとえば、弾性素材から構成される長尺棒状の部材である。テンプルL1、L2のそれぞれの一方端部には、ユーザーの耳に掛けられる耳掛け部分が設けられ、他方端部には、透明部材G1、G2が固定される。また、ユーザーの片方の耳に掛けられる耳掛け部分付近には、制御ユニット210が装着されている。
ブリッジBは、左右一対の透明部材G1、G2を互いに連結するための短尺棒状の部材である。ブリッジBの両端には、透明部材G1、G2が固定される。左右一対の透明部材G1、G2は、一定の間隔を空けて保持される。
透明部材G1、G2は、表示装置200を装着したユーザーが外界を観察できるように、外界からの光を透過してユーザーの眼に届けることが可能な透明な材料(ガラス、プラスチック、フィルムなど)により形成される。
本実施形態では、ユーザーの右眼に対応する透明部材G1の上部には、撮像装置220が設けられ、透明部材G1に重なるようにディスプレイ230が設けられている。
撮像装置220は、カメラレンズの光軸方向の外界を撮像する。撮像装置220は、カメラレンズの光軸がユーザーの視線方向に略一致するように、表示装置200に対し固定的に保持されている。これによって撮像装置220は、ユーザーの前方視野内を撮影することが可能となる。たとえば、撮像装置220は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等のイメージセンサーを備えたデジタルカメラあるいはビデオカメラである。
ディスプレイ230は、所定の画像(映像)等の各種コンテンツを透明部材G1、G2上に表示する。また、ディスプレイ230は、外界からの光に付加的に重畳させる画像(AR画像)を表示してもよい。たとえば、ディスプレイ230は、ユーザーの視線方向に存在する特定の対象物(たとえば、スクリーン120)の近くに、映画の字幕などの情報を含む画像があたかも存在するかのように表示することもできる。なお、ディスプレイ230は、図4に示すような単眼式ではなく、双眼式でもよい。
また、図4には示していないが、撮像装置220の近傍には、慣性センサー240が設けられる。慣性センサー240は、ユーザーの頭部の動きに応じた信号を出力するセンサーである。たとえば、慣性センサー240は、加速度センサー、ジャイロセンサー等により構成される。なお、慣性センサー240は、ユーザーの頭部の動きに応じた信号を出力可能なものであれば、どのような形態、名称、構造のものであってもよい。
制御ユニット210は、撮像装置220と、ディスプレイ230と、慣性センサー240とを制御し、全体としてヘッドマウントディスプレイ装置として機能させるために必要な構成を有する。
(制御ユニット210の具体的な構成)
次に、制御ユニット210の具体的な構成について説明する。
図5に示すとおり、制御ユニット210は、CPU211と、メモリー212と、ストレージ213と、入力装置214と、表示コントローラー215と、通信装置216とを備える。
CPU211は、プログラムにしたがって上記各部の制御や各種の演算処理を実行するプロセッサ等から構成される制御回路であり、表示装置200の各機能は、それに対応するプログラムをCPU211が実行することにより発揮される。
メモリー212は、作業領域として一時的にプログラムおよびデータを記憶する高速アクセス可能な主記憶装置である。メモリー212には、たとえば、DRAM、SDRAM、SRAM等が採用される。
ストレージ213は、オペレーティングシステムを含む各種プログラムや各種データを格納する大容量の補助記憶装置である。ストレージ213には、たとえば、フラッシュメモリー等が採用される。
入力装置214は、表示装置200の電源投入などの指示を入力するための物理的なキーやボタンにより構成される。また、入力装置214として、外部のコントローラー(たとえば、スマートフォン、リモートコントローラーなど)を利用してもよい。
表示コントローラー215は、映画の字幕などの情報を含むAR画像や、キャリブレーション用のAR画像をディスプレイ230に表示させる。たとえば、表示コントローラー215は、所定の周期でメモリー212からAR画像を読み出して、ディスプレイ230へ入力するための信号に変換するとともに、水平同期信号、垂直同期信号などのパルス信号を生成する。
通信装置216は、無線LAN等によって、上映装置130および情報提供サーバー140等と通信するための装置である。
[表示システム1(機能構成)]
以上のようなハードウェア構成を有する表示システム1は、以下の機能構成を有する。
図6は、上映システム100および表示装置200の機能構成例を示すブロック図である。
(1)上映システム100の上映装置130(機能構成)
図6に示すとおり、上映装置130は、投影制御部310と、投影コンテンツ記憶部320とを有する。
投影制御部310は、スクリーン120への映像の投影を制御する。具体的には、投影制御部310は、投影コンテンツ記憶部320に記憶されている投影コンテンツを、適切なタイミングで読み出して再生することを上映サーバーへ指示する。この指示に基づき、上映サーバーにおいて再生された映像は、プロジェクター(不図示)に出力され、再生された音声は、スピーカー(不図示)に出力される。また、上映サーバーにおいて再生された字幕(データ)は、通信装置を介して、各表示装置200に送信される。このようにして、映画館内においてデジタルシネマが上映される。
投影コンテンツ記憶部320は、スクリーン120に投影される投影コンテンツを記憶する。ここで、投影コンテンツには、デジタルシネマパッケージ(DCP)と呼ばれる形式のデータや、各表示装置200のキャリブレーションモード時にスクリーン120に投影されるデータ等が含まれる。ここで、キャリブレーションモードとは、表示装置200においてキャリブレーション処理が実行されている状態を指す。
なお、投影制御部310は、上映装置130の制御装置(不図示)において、CPU(不図示)がストレージ(不図示)にインストールされているプログラムをメモリー(不図示)に読み出して実行することにより実現される。また、投影コンテンツ記憶部320は、ハードディスク等の記憶装置(不図示)によって実現される。
(2)上映システム100の情報提供サーバー140(機能構成)
図6に示すとおり、上映システム100の情報提供サーバー140は、情報提供部410と、実空間情報記憶部420とを有する。
情報提供部410は、問い合わせに応じて、映画館内の実空間情報421を表示装置200へ提供する。具体的には、情報提供部410は、表示装置200からの問い合わせを受け付けると、実空間情報記憶部420に記憶されている全ての実空間情報421の中から、その表示装置200に必要な実空間情報421を読み出し、通信装置144を介して送信する。
実空間情報記憶部420は、映画館内の実空間情報421を記憶する。たとえば、実空間情報421には、ユーザーの位置を示す3次元座標と、固定された特定の対象物の位置を示す3次元座標と、投影コンテンツの位置を示す3次元座標が含まれている。
ここで、ユーザーの位置とは、具体的には、ユーザーが着席している座席110の位置であって、推定される顔の位置を指す。この座席110の位置(識別番号等)は、後述するように表示装置200に保持されている。
また、特定の対象物の位置とは、具体的には、スクリーン120の右上の角および左下の角の位置を指す。スクリーン120の右上の角および左下の角の中点、すなわち、スクリーン120の中心位置を、以下では「所定の基準位置S」と称する。なお、以下では、キャリブレーションモード時にスクリーン120に投影される投影コンテンツを、キャリブレーション用の投影コンテンツと称する。また、所定の基準位置Sは、これに限らず、ユーザーが見ている方向の目標物となり得る物体の位置であれば、どのような位置でもよい。
また、投影コンテンツの位置とは、具体的には、スクリーン120に投影されたキャリブレーション用の投影コンテンツの右上の角および左下の角の位置を指す。
(実空間情報421の詳細)
なお、図7は、実空間情報421の概略データ構造の例を示す図である。また、図8は、実空間情報421として位置情報が与えられる映画館内部の対象物について説明するための図である。
実空間情報記憶部420には、図7に示すように、映画館内部に配置されている座席110の識別番号422ごとに、複数の実空間情報421が記憶されている。各実空間情報421には、位置情報が与えられる映画館内部の対象物の名称423と、その位置情報424とが対応付けられている。
位置情報が与えられる映画館内部の対象物には、少なくとも、映画を視聴するユーザーと、スクリーン120と、投影コンテンツとが含まれる。これらの対象物を識別可能な情報が、名称423として登録されている。
位置情報424には、ユーザーの位置を示す座標と、スクリーン120の位置を示す座標と、投影コンテンツの位置を示す座標とが登録されている。
ここで、図8に示すとおり、ユーザーの位置Pに対応する位置情報424としては、ユーザーが着席している座席110の位置であって、推定される顔の位置を示す3次元座標(Px,Py,Pz)が登録されている。なお、映画館内部の空間には、点O(たとえば、左下奥の隅の点)を原点とするXYZ座標系が設定されている。また、3次元座標(Px,Py,Pz)は、対応付けられている識別番号422により一意に定まる値である。
スクリーン120の位置に対応する位置情報424としては、スクリーン120の右上の角の位置Aを示す3次元座標(Ax,Ay,Az)と、スクリーン120の左下の角の位置Bを示す3次元座標(Bx,By,Bz)とが登録されている。なお、3次元座標(Ax,Ay,Az)および(Bx,By,Bz)は、それぞれ、全ての実空間情報421において共通の値である。
投影コンテンツCの位置に対応する位置情報424としては、投影コンテンツCの右上の角の位置Mを示す3次元座標(Mx,My,Mz)と、投影コンテンツCの左下の角の位置Nを示す3次元座標(Nx,Ny,Nz)とが登録されている。なお、3次元座標(Mx,My,Mz)および(Nx,Ny,Nz)は、それぞれ、全ての実空間情報421において共通の値である。
なお、情報提供部410は、情報提供サーバー140において、CPU146がストレージ148にインストールされているプログラムをメモリー147に読み出して実行することにより実現される。また、実空間情報記憶部420は、ストレージ148またはメモリー147によって実現される。
(3)表示装置200(機能構成)
図6に示すとおり、表示装置200の制御ユニット210は、表示制御部510と、入力受付部520と、情報取得部530と、直視方向特定部540と、AR画像生成部550と、AR画像記憶部560と、キャリブレーション部570とを有する。
表示制御部510は、表示コントローラー215に対して、各種画像をディスプレイ230に表示させるための指示を出力する。たとえば、表示制御部510は、情報提供サーバー140から取得した実空間情報421と、慣性センサー240が出力する信号により定まるユーザーの顔の向き(直視方向)とに基づき、映画の字幕などの情報を含むAR画像をディスプレイ230に表示させる。また、キャリブレーションモード時においては、表示制御部510は、キャリブレーション用のAR画像をディスプレイ230に表示させる。
入力受付部520は、ユーザーからの入力を受け付ける。たとえば、入力受付部520は、入力装置214に対してなされたユーザーの操作に基づき、キャリブレーションを開始する指示などの各種指示を特定する。
情報取得部530は、少なくともユーザーの位置Pおよび所定の基準位置Sに関する実空間情報421を取得する。具体的には、情報取得部530は、通信装置216を介して、情報提供サーバー140に対して問い合わせデータを送信し、これに応答して情報提供サーバー140から提供された実空間情報421を受信する。
直視方向特定部540は、慣性センサー240が出力する信号に基づいて、ユーザーの顔の向き(すなわち、直視方向)を特定する。具体的には、直視方向特定部540は、事前に定めておいた基準方向(後述の基準方向S)にユーザーが顔を向けているときの慣性センサー240のセンサー値(登録値)と、現在の慣性センサー240のセンサー値を比較して、その変化量から現在のユーザーの顔の向きを特定する。
AR画像生成部550は、AR画像が現実の環境内にあたかも存在しているかのように見えるAR画像を生成する。たとえば、映画の字幕などの情報を含むAR画像や、キャリブレーション用のAR画像を生成する。なお、AR画像が現実の環境内にあたかも存在しているかのようにユーザーに見せるためには、ユーザーの位置Pおよび顔の向き(すなわち、直視方向)に応じて、AR画像の表示位置、サイズ、形状等を、変更すればよい。AR画像の具体的な生成方法については後述する。
AR画像記憶部560は、AR画像生成部550によって生成されたAR画像を記憶する。また、AR画像記憶部560は、AR画像生成部550によって生成されたAR画像の元データとなる字幕データなども記憶する。これとともに、AR画像記憶部560は、キャリブレーション用のAR画像に関する情報(以下では、「AR画像情報561」と称する)も記憶する。
(AR画像情報561の詳細)
図9は、AR画像情報561の概略データ構造の例を示す図である。図9に示すように、AR画像情報561には、AR画像のファイル名562と、AR画像の位置情報563とが対応付けられている。
ファイル名562は、AR画像記憶部560に記憶されているAR画像のファイル名を示すデータである。たとえば、「001」、「002」等のデータが登録される。
位置情報563は、AR画像の表示位置を示すデータであり、表示装置200のディスプレイ230内での位置を示す2次元座標が登録される。具体的には、AR画像の先頭または中心の表示位置を示す2次元座標が登録される。
図6に戻り、キャリブレーション部570は、慣性センサー240が出力する信号により定まるユーザーの顔の向き(直視方向)をキャリブレーションする。具体的には、キャリブレーション部570は、慣性センサー240の出力する信号により定まるユーザーの顔の向き(直視方向)に誤差が生じないように、上述した基準方向を修正する。
なお、表示制御部510、入力受付部520、情報取得部530、直視方向特定部540、AR画像生成部550、キャリブレーション部570は、それぞれ、表示装置200において、CPU211がストレージ213にインストールされているプログラムをメモリー212に読み出して実行することにより実現される。ただし、これに限らず、各機能部510〜550、570は、ASIC等のハードウェアにより実現されてもよい。また、AR画像記憶部560は、ストレージ213またはメモリー212によって実現される。
[表示システム1の動作]
次に、本実施形態に係る表示システム1の特徴的な動作について説明する。
(1)投影処理
図10は、上映装置130において実行される投影処理の手順を示すフローチャートである。
上映装置130は、電源が投入されたタイミングで図10に示す投影処理を開始する。ただし、投影処理を開始するタイミングは、これに限定されず、入力装置(キーボード、マウス等)に対して、投影処理を開始するための操作や、キャリブレーションモードを開始するための操作がなされたときに、投影処理を開始してもよい。
(ステップS101)
投影処理を開始すると、上映装置130は、投影制御部310として機能し、キャリブレーション用の投影コンテンツを投影コンテンツ記憶部320から取得する。具体的には、投影制御部310が、投影コンテンツ記憶部320からキャリブレーション用の投影コンテンツを読み出し、上映サーバー(不図示)へ送信するとともに、再生を指示する。
(ステップS102)
上映装置130は、キャリブレーション用の投影コンテンツを再生して、スクリーン120へ投影する。具体的には、投影制御部310からの指示に基づいて、上映サーバー(不図示)が、キャリブレーション用の投影コンテンツを再生し、再生した映像をプロジェクターから出力する。
図11は、スクリーン120に投影されたキャリブレーション用の投影コンテンツCの例を示す図である。所定の形状を有する図形を含む画像(図11の太線で示す例では、長方形の図形を含む画像)が、キャリブレーション用の投影コンテンツCとしてスクリーン120の中央に投影される。
(ステップS103)
上映装置130は、投影制御部310として機能し、キャリブレーション用の投影コンテンツCの投影を終了するタイミングか否か判別する。たとえば、上映装置130は、キャリブレーション用の投影コンテンツCの投影を開始してから、所定時間が経過した場合には、その投影を終了するタイミングと判断して(ステップS103:YES)、投影処理を終了する。一方、上映装置130は、キャリブレーション用の投影コンテンツCの投影を開始してから、所定時間が経過していない場合には、その投影を終了するタイミングではないと判断して(ステップS103:NO)、処理をステップS101に戻す。
以上の投影処理が上映装置130において実行されることにより、キャリブレーション用の投影コンテンツCを、所定時間の間(たとえば、映画の上映開始前の30分間)に、スクリーン120に投影できる。キャリブレーション用の投影コンテンツCがスクリーン120に投影されている間、ユーザーは、座席110に着席した状態で表示装置200を使用し、ユーザーの顔の向き(直視方向)の基準方向についてキャリブレーションできる。
(2)キャリブレーション処理
図12は、表示装置200において実行されるキャリブレーション処理の手順を示すフローチャートである。
キャリブレーション用の投影コンテンツCがスクリーン120に投影されている間、表示装置200は、電源が投入されたタイミングで図12に示すキャリブレーション処理を開始する。ただし、キャリブレーション処理を開始するタイミングは、これに限定されず、入力装置214に対して、キャリブレーション処理を開始するための操作がなされたときに、キャリブレーション処理を開始してもよい。また、スクリーン120による映画の上映を開始する前に、情報提供サーバー140等からの開始信号に基づいて、表示装置200を装着して座席110に着席した複数のユーザーに対して、一斉にキャリブレーション処理を開始させるようにしてもよい。あるいは、一定のサイクルで、定期的にキャリブレーション処理を開始してもよい。なお、キャリブレーション処理は、ユーザーが上映システム100の座席110に着席した状態で行われる。
(ステップS201)
キャリブレーション処理を開始すると、表示装置200は、情報取得部530として機能し、映画館内部の実空間情報421を、情報提供サーバー140から取得する。
具体的には、表示装置200は、通信装置216を介して、問い合わせデータを情報提供サーバー140へ送信する。ここで、問い合わせデータには、表示装置200を装着したユーザーが着席している座席110に割り当てられている識別番号が含まれている。座席110の識別番号は、ユーザーが座席110に着席したときに、手入力によって表示装置200に登録されるデータとしてもよいし、近距離無線通信などの所定の通信によって座席110から取得され、表示装置200に登録されるデータとしてもよい。
表示装置200は、上記のような問い合わせデータに応じて情報提供サーバー140から送信された実空間情報421を、通信装置216を介して受信することによって、映画館内部の実空間情報421を取得できる。なお、情報提供サーバー140が、実空間情報421を表示装置200に提供する情報提供処理の詳細については後述する。
(ステップS202)
実空間情報421を取得後、表示装置200は、直視方向特定部540として機能し、当該表示装置200を頭部に装着しているユーザーの位置Pと、所定の基準位置Sとの位置関係を特定する。
たとえば、表示装置200は、スクリーン120の中心位置を所定の基準位置Sとして、当該表示装置200を頭部に装着しているユーザーの位置Pから見て、所定の基準位置Sまでの距離、およびその方向を特定する。具体的には、表示装置200は、ステップS201において取得された実空間情報421に含まれるスクリーン120の右上の角の位置Aと、左下の角の位置Bとの中点を、基準位置Sとして算出する。ここで、基準位置Sの3次元座標(Sx,Sy,Sz)は、(Sx,Sy,Sz)=((Ax+Bx)/2,(Ay+By)/2,(Az+Bz)/2)の計算式により算出される。その後、表示装置200は、{(Sx−Px)+(Sy−Py)+(Sz−Pz)(1/2)の計算によって、ユーザーの位置Pから基準位置Sまでの距離を算出する。また、表示装置200は、(Sx−Px,Sy−Py,Sz−Pz)の計算によって、ユーザーの位置Pから基準位置Sへ向かう方向ベクトルを算出する。
(ステップS203)
表示装置200は、AR画像生成部550として機能し、キャリブレーション用のAR画像を生成する。キャリブレーション用のAR画像は、スクリーン120に投影される投影コンテンツCの図形に対応する形状の図形を含む。
図13(A)は、キャリブレーション用のAR画像の生成方法を説明するための図である。図13(B)は、表示装置200のディスプレイ230に表示されるキャリブレーション用のAR画像の例を示す図である。
図13(A)に示すとおり、表示装置200は、基準方向Sにユーザーの顔が向けられていると仮定する。ここで、基準方向Sとは、ユーザーの位置Pからみた所定の基準位置Sの方向を指す。表示装置200は、基準方向Sにユーザーの顔が向けられているときに、上述の投影処理によってスクリーン120に投影されている投影コンテンツCの図形(図示する例では長方形)に重なって見える図形からなるキャリブレーション用のAR画像を生成する。そのためには、ユーザーの位置Pから基準位置Sまでの距離Rと、基準方向Sのスクリーン120の投影面に対する傾きとに応じて、キャリブレーション用のAR画像の表示位置、サイズ、形状等を決定すればよい。ただし、基準方向Sのスクリーン120の投影面に対する傾きは、ステップS202において算出した方向ベクトル(Sx−Px,Sy−Py,Sz−Pz)と、スクリーン120の平面の法線ベクトルとの内積等を利用して求められる。結果として、たとえば、図13(B)に示す例のような形状(頂点K1、K2、K3、K4を持つ四角形)の図形からなるキャリブレーション用のAR画像が生成される。さらに、図13(B)に示す例のように、ユーザーに適切な操作方法を促すために、「※スクリーンに投影されている四角形に重ねて下さい」等の文字列を、ディスプレイ230に表示してもよい。
その後、表示装置200は、生成したキャリブレーション用のAR画像とともに、当該キャリブレーション用のAR画像に関する情報(たとえば、図9に示すAR画像情報561)をAR画像記憶部560に記憶する。
(ステップS204)
表示装置200は、表示制御部510として機能し、ステップS203において生成されたキャリブレーション用のAR画像を、ディスプレイ230に表示する。
具体的には、表示装置200は、表示装置200は、AR画像記憶部560に記憶されているキャリブレーション用のAR画像と、対応付けられているAR画像情報561を読み出す。そして、表示装置200は、読み出したAR画像情報561の内容に従って、キャリブレーション用のAR画像をディスプレイ230に表示する。たとえば、図9の先頭レコードの例では、ファイル名が「001」のキャリブレーション用のAR画像が読み出され、ディスプレイ230の(G1x,G1y)の位置に表示される。
(ステップS205)
表示装置200は、入力受付部520として機能し、ユーザーから、ディスプレイ230に表示されたキャリブレーション用のAR画像に含まれる図形が、スクリーン120に投影されている投影コンテンツCの図形に重なって見えることを示す入力を受け付ける。たとえば、表示装置200は、入力装置214に備わる所定のボタンが押下されたときに、当該入力を受け付けたものとみなす。
図14は、キャリブレーション用のAR画像が投影コンテンツCに重なって見えないときの状態を示す図である。図14に示す例のように、ユーザーの実際の顔の向き(直視方向)Tが基準方向Sと一致していないときは、キャリブレーション用のAR画像と投影コンテンツCは重なって見えない。これは、ユーザーが基準方向Sに顔を向けていることを想定して、ステップS203でキャリブレーション用のAR画像を生成しているからである。
この場合には、ユーザーは、入力装置214に備わる所定のボタンを押下せず、キャリブレーション用のAR画像と投影コンテンツCは重なって見えるようになるまで、頭部を動かす動作を継続する。表示装置200は、所定のボタンが押下されない間は、キャリブレーション用のAR画像と投影コンテンツCは重なっていないと判定して(ステップS205:NO)、待機する。
図15は、キャリブレーション用のAR画像が投影コンテンツCに重なって見えるときの状態を示す図である。図15に示す例のように、ユーザーの実際の顔の向き(直視方向)Tが基準方向Sと一致すると、キャリブレーション用のAR画像と投影コンテンツCが重なって見える。
この場合には、ユーザーは、入力装置214に備わる所定のボタンを押下する。表示装置200は、所定のボタンが押下された場合には、キャリブレーション用のAR画像と投影コンテンツCが重なっていると判定して(ステップS205:YES)、処理をステップS206に進める。
(ステップS206)
表示装置200は、キャリブレーション部570として機能し、ユーザーの顔の向き(直視方向)に関する基準方向を設定(キャリブレーション)する。具体的には、表示装置200は、ステップS205においてキャリブレーション用のAR画像が投影コンテンツCに重なって見えることを示す入力を受け付けたときに、慣性センサー240が出力する信号を、基準方向Sにユーザーが顔を向けているときのセンサー値としてメモリー212に登録する。
その後、表示装置200は、キャリブレーション処理を終了する。
以上のキャリブレーション処理が表示装置200において実行されることにより、少なくともユーザーの位置Pおよび所定の基準位置Sに関する実空間情報421を用いて、ユーザーの顔の向き(直視方向)に関する基準方向を定めている。そのため、複数のセンサーを用いなくても、ユーザーの顔の向き(直視方向)に関する基準方向を定めることができる。
また、ユーザーの位置Pを、当該ユーザーが着席する座席110の位置としているため、ユーザーがどの座席110に着席しても正確にユーザーの顔の向き(直視方向)に関する基準方向を定めることができる。
(3)情報提供処理
図16は、情報提供サーバー140において実行される情報提供処理の手順を示すフローチャートである。
情報提供サーバー140は、電源が投入されたタイミングで図16に示す情報提供処理を開始する。ただし、情報提供処理を開始するタイミングは、これに限定されず、入力装置143に対して、情報提供処理を開始するための操作がなされたときに、情報提供処理を開始してもよい。
(ステップS301)
情報提供処理を開始すると、情報提供サーバー140は、情報提供部410として機能し、表示装置200からの問い合わせデータを受信したか否か判別する。問い合わせデータは、上述したキャリブレーション処理のステップS201において、表示装置200から送信されたデータである。
情報提供サーバー140は、表示装置200からの問い合わせデータを受信していない場合には(ステップS301:NO)、待機する。一方、情報提供サーバー140は、通信装置144を介して、表示装置200からの問い合わせデータを受信すると(ステップS301:YES)、処理をステップS302に進める。
(ステップS302)
情報提供サーバー140は、情報提供部410として機能し、問い合わせデータに含まれている識別番号を有する実空間情報421を、実空間情報記憶部420から抽出する(図7)。そして、情報提供サーバー140は、抽出した実空間情報421を、通信装置144を介して表示装置200へ送信する。
その後、情報提供サーバー140は、情報提供処理を終了する。
以上の情報提供処理が情報提供サーバー140において実行されることにより、表示装置200からの問い合わせに応じて、キャリブレーションに必要な実空間情報421を提供できる。
(4)上映処理
上記のキャリブレーション処理により、表示装置200においてユーザーの顔の向き(直視方向)に関する基準方向が正確に定められた後、上映装置130は、スクリーン120に映画等の映像を投影する。これとともに、上映装置130は、音声をスピーカーから出力し、通信装置を介して字幕(データ)を送信する。
スクリーン120に映像が投影されている間、表示装置200は、上映装置130の上映サーバーから送信された字幕(データ)を受信し、スクリーン120の下方などにあたかも当該字幕が存在するかのようなAR画像をディスプレイ230に表示する。そのためには、以下の(a)〜(c)の処理を行えばよい。
(a)まず、表示装置200は、キャリブレーション部570として機能し、上記のステップS206で定められた基準方向を基準として、慣性センサー240が出力する信号からユーザーの現在の顔の向き(直視方向)Tを特定する。つまり、表示装置200は、基準方向に顔を向けた状態から、現在の顔の向きTに頭部を動かすまでの、慣性センサー240が出力する信号(センサー値)の変化量に基づいて、ユーザーの現在の顔の向き(直視方向)Tを特定する。
(b)表示装置200は、AR画像生成部550として機能し、特定されたユーザーの現在の顔の向き(直視方向)Tに応じて、スクリーン120に投影されている映像に重ね合わせる字幕を含むAR画像を生成する。
図17は、上映処理時におけるAR画像の生成方法を説明するための図である。図17に示すとおり、表示装置200は、特定された現在のユーザーの顔の向きTのときに、スクリーン120の下方にあたかも当該字幕が存在するかのようなAR画像を生成する。具体的には、ユーザーの位置Pから基準位置Sまでの距離Rと、ユーザーの現在の顔の向きTに応じて、字幕の表示位置、サイズ、形状等を決定すればよい。
(c)表示装置200は、表示制御部510として機能し、生成した字幕のAR画像を、決定した表示位置、サイズ、形状によって、ディスプレイ230に表示する。
以上の上映処理が表示装置200において実行されることにより、スクリーン120に投影された映画等の映像に、字幕のAR画像を重ね合わせることができる。また、キャリブレーション処理によってキャリブレーションされた基準方向を基準として、ユーザーの現在の顔の向きTを特定しているため、AR画像を期待通りの正確な位置に表示できる。そして、複数のセンサーを用いずに、ユーザーの現在の顔の向きTを特定しているため、低コスト、軽量、低消費電力の表示装置等を提供できる。
上記した各フローチャートの各処理単位は、表示システム1の理解を容易にするために、主な処理内容に応じて分割したものである。処理ステップの分類の仕方やその名称によって、本願発明が制限されることはない。表示システム1で行われる処理は、さらに多くの処理ステップに分割することもできる。また、1つの処理ステップが、さらに多くの処理を実行してもよい。
<変形例>
なお、上記の実施形態は、本発明の要旨を例示することを意図し、本発明を限定するものではない。多くの代替物、修正、変形例は当業者にとって明らかである。
たとえば、上記実施形態では、スクリーン120には、長方形の図形を含む画像が、キャリブレーション用の投影コンテンツCとして投影されている。しかし、本発明は、これに限定されず、キャリブレーション用の投影コンテンツCの画像には、どのような形状の図形が含まれていてもよい。また、キャリブレーション用の投影コンテンツCには、動画が含まれていてもよい。
また、上記実施形態では、表示装置200のディスプレイ230に表示するキャリブレーション用のAR画像には、キャリブレーション用の投影コンテンツCに対応させて、四角形の図形が含まれている。しかし、本発明は、これに限定されない。
図18(A)は、キャリブレーション用のAR画像の変形例を示す図である。図18(A)に示すように、キャリブレーション用のAR画像には、円形の図形が含まれてもよい。
図18(B)は、図18(A)のキャリブレーション用のAR画像を用いてキャリブレーションするときの、ユーザーの視線方向の状態を示す図である。図18(B)に示すように、ディスプレイ230に表示されたキャリブレーション用のAR画像に含まれる円形が、スクリーン120に投影されている投影コンテンツCの四角形を囲むように重なって見えるときに、上記ステップS205の入力を受け付けてもよい。
また、上記実施形態では、スクリーン120の位置(具体的には、中心位置)を、ユーザーが見ている方向の目標物となり得る所定の基準位置Sとしている。しかし、本発明は、これに限定されず、任意の位置を、基準位置Sとしてもよい。たとえば、所定の基準位置Sは、所定の形状を有する物体の位置としてもよい。この場合、キャリブレーション用のAR画像には、その物体の形状に対応する形状の図形が含まれていればよい。
また、上記実施形態では、ユーザーの位置Pは、ユーザーが着席している座席110の位置である。しかし、本発明、これに限定されず、ユーザーの位置Pが特定される方法であれば、どのような方法でユーザーの位置Pを特定してもよい。
また、上記実施形態では、情報提供サーバー140は、表示装置200や、上映装置130から独立したサーバーである。しかし、本発明は、これに限定されず、情報提供サーバー140を、上映装置130と一体化させてもよい。また、実空間情報421を表示装置200のストレージ213等に予め記憶させておいてもよい。この場合、表示装置200は、ステップS201において、情報取得部530として機能し、ストレージ213から実空間情報421を取得する。
また、上記実施形態のステップS205では、入力装置214に備わる所定のボタンの押下によって、ユーザーの入力を受け付けている。しかし、本発明は、これに限定されず、ユーザーの頭部を一定時間以上静止させることによって、ユーザーの入力を受け付けてもよい。
また、上記実施形態では、表示システム1が映画館内で使用される例について説明している。しかし、本発明は、映画館内で使用される場合に限定されず、実空間情報421が得られる状況であれば、任意のシーンで使用され得る。
また、上記実施形態および変形例では、表示装置200は、シースルー型のヘッドマウントディスプレイ装置としている。しかし、本発明は、これに限定されず、表示装置200は、非透過型のヘッドマウントディスプレイ装置であってもよい。
また、上記実施形態では、現実の環境等に付加的に重畳させて表示する画像を「AR画像」と称しているが、この名称に限定されず、現実の環境等に付加的に重畳させて表示する画像であれば、どのような画像であってもよい。たとえば、CG画像等の名称が用いられた画像も含む。
以上の表示システム1の構成は、上記の実施形態および変形例の特徴を説明するにあたって主要構成を説明したのであって、上記の構成に限られない。また、一般的な表示システム1が備える構成を排除するものではない。
また、上記した表示システム1の各機能構成は、各機能構成を理解容易にするために、主な処理内容に応じて分類したものである。構成要素の分類の仕方や名称によって、本願発明が制限されることはない。各機能構成は、処理内容に応じて、さらに多くの構成要素に分類することもできる。また、一つの構成要素がさらに多くの処理を実行するように分類することもできる。
また、上記した表示システム1の各機能構成の処理は、専用のハードウェア回路によっても実現することもできる。この場合には、1つのハードウェアで実行されてもよいし、複数のハードウェアで実行されてもよい。
また、表示システム1を動作させるプログラムは、USBメモリー、フレキシブルディスク、CD−ROM等のコンピューター読み取り可能な記録媒体によって提供されてもよいし、インターネット等のネットワークを介してオンラインで提供されてもよい。この場合、コンピューター読み取り可能な記録媒体に記録されたプログラムは、通常、メモリーやストレージ等に転送され記憶される。また、このプログラムは、たとえば、単独のアプリケーションソフトとして提供されてもよいし、表示システム1の一機能としてその各装置のソフトウェアに組み込んでもよい。
1 表示システム、
100 上映システム、
110 座席、
120 スクリーン、
130 上映装置、
140 情報提供サーバー、
141 制御装置、
146 CPU、
147 メモリー、
148 ストレージ、
142 ディスプレイ、
143 入力装置、
144 通信装置、
145 信号線、
200 表示装置、
210 制御ユニット、
211 CPU、
212 メモリー、
213 ストレージ、
214 入力装置、
215 表示コントローラー、
216 通信装置、
220 撮像装置、
230 ディスプレイ、
240 慣性センサー、
310 投影制御部、
320 投影コンテンツ記憶部、
410 情報提供部、
420 実空間情報記憶部、
421 実空間情報、
422 識別番号、
423 名称、
424 位置情報、
510 表示制御部、
520 入力受付部、
530 情報取得部、
540 直視方向特定部、
550 AR画像生成部、
560 AR画像記憶部、
561 AR画像情報、
562 ファイル名、
563 位置情報、
570 キャリブレーション部。

Claims (9)

  1. 表示部を有し、ユーザーの頭部に装着して用いられる表示装置であって、
    少なくとも前記ユーザーの位置および所定の基準位置に関する実空間情報を取得する情報取得部と、
    前記ユーザーの頭部の動きに応じた信号を出力するセンサーと、
    前記センサーが出力する信号により定まる直視方向をキャリブレーションするキャリブレーション部と、
    前記情報取得部により取得した前記実空間情報と、前記センサーが出力する信号により定まる直視方向とに基づき、AR画像を前記表示部に表示させる表示制御部と、を備え、
    キャリブレーションモード実行時において、
    前記表示制御部は、前記情報取得部により取得した前記実空間情報を用いて、前記所定の基準位置に対応する前記表示部の位置にキャリブレーション用のAR画像を表示させ、
    前記キャリブレーション部は、前記所定の基準位置に前記キャリブレーション用のAR画像が重なって見えることを示す入力を前記ユーザーから受け付けたときに、前記センサーが出力する信号により定まる直視方向を基準方向としてキャリブレーションし、
    前記所定の基準位置は、所定のスクリーンの位置であり、
    前記スクリーンには、所定の形状を有する図形を含む画像が表示される、表示装置。
  2. 前記キャリブレーション用のAR画像は、前記スクリーンに表示される図形に対応する形状の図形を含む、請求項に記載の表示装置。
  3. 前記キャリブレーション部は、前記スクリーンに表示される図形に、前記キャリブレーション用のAR画像に含まれる図形が重なって見えることを示す入力を前記ユーザーから受け付けたときに、前記センサーが出力する信号により定まる直視方向を基準方向としてキャリブレーションする、請求項に記載の表示装置。
  4. 前記ユーザーの位置は、当該ユーザーが着席する座席の位置である、請求項1〜3のいずれか一項に記載の表示装置。
  5. 前記情報取得部は、前記表示装置とは独立したサーバーから取得する、請求項1〜のいずれか一項に記載の表示装置。
  6. 前記実空間情報を記憶する記憶部をさらに備え、
    前記情報取得部は、前記記憶部から前記実空間情報を取得する、請求項1〜のいずれか一項に記載の表示装置。
  7. 記ユーザーの前記AR画像が重なって見えることを示す入力は、
    所定ボタンの押下、または、前記ユーザーの頭部を一定時間以上静止させることにより行われる、請求項1〜のいずれか一項に記載の表示装置。
  8. 表示部を有し、ユーザーの頭部に装着して用いられる表示装置のキャリブレーション方法であって、
    前記表示装置は、
    少なくとも前記ユーザーの位置および所定の基準位置に関する実空間情報を取得する情報取得部と、
    前記ユーザーの頭部の動きに応じた信号を出力するセンサーと、
    前記センサーが出力する信号により定まる直視方向をキャリブレーションするキャリブレーション部と、
    前記情報取得部により取得した前記実空間情報と、前記センサーが出力する信号により定まる直視方向とに基づき、AR画像を前記表示部に表示させる表示制御部と、を備え、
    キャリブレーションモード実行時において、
    (a)前記表示制御部が、前記情報取得部により取得した前記実空間情報を用いて、前記所定の基準位置に対応する前記表示部の位置にキャリブレーション用のAR画像を表示させるステップと、
    (b)前記キャリブレーション部が、前記所定の基準位置に前記キャリブレーション用のAR画像が重なって見えることを示す入力を前記ユーザーから受け付けたときに、前記センサーが出力する信号により定まる直視方向を基準方向としてキャリブレーションするステップと、を有し、
    前記所定の基準位置は、所定のスクリーンの位置であり、
    前記スクリーンには、所定の形状を有する図形を含む画像が表示される、
    表示装置のキャリブレーション方法。
  9. 表示部を有し、ユーザーの頭部に装着して用いられる表示装置のコンピューターに実行させるためのキャリブレーションプログラムであって、
    前記表示装置は、
    少なくとも前記ユーザーの位置および所定の基準位置に関する実空間情報を取得する情報取得部と、
    前記ユーザーの頭部の動きに応じた信号を出力するセンサーと、
    前記センサーが出力する信号により定まる直視方向をキャリブレーションするキャリブレーション部と、
    前記情報取得部により取得した前記実空間情報と、前記センサーが出力する信号により定まる直視方向とに基づき、AR画像を前記表示部に表示させる表示制御部と、を備え、
    キャリブレーションモード実行時において、
    (a)前記表示制御部が、前記情報取得部により取得した前記実空間情報を用いて、前記所定の基準位置に対応する前記表示部の位置にキャリブレーション用のAR画像を表示させるステップと、
    (b)前記キャリブレーション部が、前記所定の基準位置に前記キャリブレーション用のAR画像が重なって見えることを示す入力を前記ユーザーから受け付けたときに、前記センサーが出力する信号により定まる直視方向を基準方向としてキャリブレーションするステップと、を含む処理であって、
    前記所定の基準位置は、所定のスクリーンの位置であり、
    前記スクリーンには、所定の形状を有する図形を含む画像が表示される処理を、前記コンピューターに実行させるためのキャリブレーションプログラム。
JP2014248951A 2014-12-09 2014-12-09 表示装置、表示装置のキャリブレーション方法、およびキャリブレーションプログラム Active JP6515512B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014248951A JP6515512B2 (ja) 2014-12-09 2014-12-09 表示装置、表示装置のキャリブレーション方法、およびキャリブレーションプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014248951A JP6515512B2 (ja) 2014-12-09 2014-12-09 表示装置、表示装置のキャリブレーション方法、およびキャリブレーションプログラム

Publications (2)

Publication Number Publication Date
JP2016110489A JP2016110489A (ja) 2016-06-20
JP6515512B2 true JP6515512B2 (ja) 2019-05-22

Family

ID=56124146

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014248951A Active JP6515512B2 (ja) 2014-12-09 2014-12-09 表示装置、表示装置のキャリブレーション方法、およびキャリブレーションプログラム

Country Status (1)

Country Link
JP (1) JP6515512B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6852355B2 (ja) * 2016-11-09 2021-03-31 セイコーエプソン株式会社 プログラム、頭部装着型表示装置
JP2018143369A (ja) * 2017-03-02 2018-09-20 株式会社フジ医療器 マッサージシステム
JP7409307B2 (ja) * 2018-07-17 2024-01-09 ソニーグループ株式会社 ヘッドマウントディスプレイ、およびヘッドマウントディスプレイの制御方法、情報処理装置、表示装置、並びに、プログラム
CN217386607U (zh) * 2022-07-18 2022-09-06 南京洛普股份有限公司 显示模组和显示屏

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013021458A1 (ja) * 2011-08-09 2013-02-14 パイオニア株式会社 複合現実感装置

Also Published As

Publication number Publication date
JP2016110489A (ja) 2016-06-20

Similar Documents

Publication Publication Date Title
CN110908503B (zh) 跟踪设备的位置的方法
JP6511386B2 (ja) 情報処理装置および画像生成方法
US10539797B2 (en) Method of providing virtual space, program therefor, and recording medium
CN110402415A (zh) 记录增强现实数据的技术
JP6845111B2 (ja) 情報処理装置および画像表示方法
US12112449B2 (en) Camera-based transparent display
US10277814B2 (en) Display control method and system for executing the display control method
JP2010072477A (ja) 画像表示装置、画像表示方法及びプログラム
JP6126271B1 (ja) 仮想空間を提供する方法、プログラム及び記録媒体
JP2014095809A (ja) 画像生成方法、画像表示方法、画像生成プログラム、画像生成システム、および画像表示装置
JP6515512B2 (ja) 表示装置、表示装置のキャリブレーション方法、およびキャリブレーションプログラム
US12010288B2 (en) Information processing device, information processing method, and program
US11749141B2 (en) Information processing apparatus, information processing method, and recording medium
JP2019095916A (ja) 画像生成装置、ヘッドマウントディスプレイ、画像生成システム、画像生成方法、およびプログラム
JP2013134599A (ja) 位置座標検出装置、位置座標検出方法および電子機器
US10902554B2 (en) Method and system for providing at least a portion of content having six degrees of freedom motion
JP2017208808A (ja) 仮想空間を提供する方法、プログラム及び記録媒体
WO2019073925A1 (ja) 画像生成装置および画像生成方法
KR20140115637A (ko) 다수 사용자에 입체 영상을 제공하는 시스템 및 그 방법
WO2019085109A1 (zh) 图像写入控制方法、装置及电子设备
JP6921204B2 (ja) 情報処理装置および画像出力方法
CN105630170B (zh) 一种信息处理方法及电子设备
CN111736692A (zh) 显示方法、显示装置、存储介质与头戴式设备
US20240340403A1 (en) Head mount display, information processing apparatus, and information processing method
US11954269B2 (en) Information processing apparatus, information processing method, and program for generating location data

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171109

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190319

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190401

R150 Certificate of patent or registration of utility model

Ref document number: 6515512

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150