Nothing Special   »   [go: up one dir, main page]

JP6596883B2 - ヘッドマウントディスプレイ及びヘッドマウントディスプレイの制御方法、並びにコンピューター・プログラム - Google Patents

ヘッドマウントディスプレイ及びヘッドマウントディスプレイの制御方法、並びにコンピューター・プログラム Download PDF

Info

Publication number
JP6596883B2
JP6596883B2 JP2015073561A JP2015073561A JP6596883B2 JP 6596883 B2 JP6596883 B2 JP 6596883B2 JP 2015073561 A JP2015073561 A JP 2015073561A JP 2015073561 A JP2015073561 A JP 2015073561A JP 6596883 B2 JP6596883 B2 JP 6596883B2
Authority
JP
Japan
Prior art keywords
real
display
real object
user
visual feedback
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015073561A
Other languages
English (en)
Other versions
JP2016194744A (ja
Inventor
敦 石原
毅 石川
広幸 安賀
浩一 川崎
満 西部
裕司 草野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2015073561A priority Critical patent/JP6596883B2/ja
Application filed by Sony Corp filed Critical Sony Corp
Priority to EP16712095.5A priority patent/EP3278209A1/en
Priority to US15/560,111 priority patent/US10452128B2/en
Priority to PCT/JP2016/000871 priority patent/WO2016157690A1/en
Priority to CN201680017768.7A priority patent/CN107408026B/zh
Publication of JP2016194744A publication Critical patent/JP2016194744A/ja
Priority to US16/566,477 priority patent/US10948977B2/en
Application granted granted Critical
Publication of JP6596883B2 publication Critical patent/JP6596883B2/ja
Priority to US17/168,231 priority patent/US11449133B2/en
Priority to US17/893,496 priority patent/US11868517B2/en
Priority to US18/530,399 priority patent/US20240111358A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0176Head mounted characterised by mechanical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/14Solving problems related to the presentation of information to be displayed
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/003Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Position Input By Displaying (AREA)

Description

本明細書で開示する技術は、人が観察する現実空間に表示するAR(Augmented Reality:拡張現実感)物体を処理する情報処理装置及び情報処理方法、並びにコンピューター・プログラムに関する。
現実空間に仮想物体などの視覚的な情報を付加して、人が観察する現実世界を拡張するAR技術が知られている。AR技術によれば、仮想的な物体(以下、「AR物体」という)があたかも現実空間に存在するかのようにユーザーに知覚させることができる。AR物体を現実空間の映像と同時にユーザーに視認させる表示装置として、人が頭部に装着して用いるヘッド・マウント・ディスプレイや、ヘッド・アップ・ディスプレイ、スマートフォンやタブレットなどの小型情報端末、ナビゲーション・システム、ゲーム機などを挙げることができる。これらの表示装置において両眼視差や両眼の輻輳、焦点距離を制御することで、AR物体を立体視させることができる。また、陰影や視点位置、視線方向の変化に対応してAR物体の描画を変更する制御を行なうことによって、AR物体の立体感を演出することができる。
AR物体に対して人が手や指先で操作するといった対話システムも考えられる。しかしながら、AR物体は、仮想的で現実には存在しない物体なので、人が触ったり押したりする操作を行なっても、感触が得られないので、ユーザーにとって操作が分かり難いという問題がある。
例えば、空間上の操作が検出される空間領域にユーザーの手が入ったことを検出すると、パーティクルを立体表示して操作のフィードバックを行なう情報処理装置について提案がなされている(例えば、特許文献1を参照のこと)。このような情報処理装置によれば、ユーザーは自分の手が操作を検出可能な空間領域に入ったことを視覚的に認識することができる。しかしながら、検出可能な空間領域に入っていないときにはパーティクルの表示などの視覚的フィードバックは与えられないので、自分の手が空間領域の手前にあるのか後方にあるのか、自分の手がその空間領域からどのくらい近いか又は遠いかといった具体的な位置関係や奥行き情報を得ることは難しい。
特開2012−256104号公報
本明細書で開示する技術の目的は、現実空間の映像と同時にユーザーに視認される仮想物体を好適に処理することができる、優れた情報処理装置及び情報処理方法、並びにコンピューター・プログラムを提供することにある。
本明細書で開示する技術は、上記課題を参酌してなされたものであり、第1の側面に係る技術は、
現実空間の映像と同時にユーザーに視認される仮想物体と、前記仮想物体に対して操作指示を行なう現実物体との位置関係を示す位置関係情報を取得する取得部と、
前記位置関係情報に基づく出力を制御するための制御情報を生成する生成部と、
を具備し、
前記生成部は、
前記位置関係情報に基づいて前記仮想物体と前記現実物体とが第1の位置関係であると判断される場合には、第1の出力を行なうための第1の制御情報を生成し、
前記位置関係情報に基づいて前記仮想物体と前記現実物体とが前記第1の位置関係とは異なる第2の位置関係であると判断される場合には、前記第1の出力とは異なる第2の出力を行なうための第2の制御情報を生成する、
情報処理装置である。
本明細書で開示する第2の側面に係る技術によれば、第1の側面に係る情報処理装置の前記生成部は、前記位置関係情報に基づいて前記仮想物体と前記現実物体とが前記第1及び前記第2の位置関係のいずれとも異なる第3の位置関係であると判断される場合には、前記第1及び第2の出力のいずれとも異なる第3の出力を行なうための第3の制御情報を生成するように構成されている。
本明細書で開示する第3の側面に係る技術によれば、第2の側面に係る情報処理装置の前記生成部は、視覚情報を含む前記第1乃至第3の出力をそれぞれ行なうための前記第1乃至第3の制御情報の各々を生成するように構成されている。
本明細書で開示する第4の側面に係る技術によれば、第3の側面に係る情報処理装置の前記生成部は、前記第1乃至第3の出力のうち少なくとも1つの出力において、前記仮想物体の像に視覚的効果を加える出力を行なうための前記第1乃至第3の制御情報を生成するように構成されている。
本明細書で開示する第5の側面に係る技術によれば、第1の側面に係る情報処理装置の前記生成部は、前記仮想物体と前記現実物体との距離を示す情報を含む出力を行なうための制御情報を生成するように構成されている。
本明細書で開示する第6の側面に係る技術によれば、第1の側面に係る情報処理装置の前記生成部は、前記仮想物体と前記現実物体との、前記ユーザーから見た奥行き方向の距離を示す情報を含む出力を行なうための制御情報を生成するように構成されている。
本明細書で開示する第7の側面に係る技術によれば、第4の側面に係る情報処理装置の前記生成部は、前記現実物体が前記仮想物体の手前にあると判断される場合と、前記仮想物体に接触していると判断される場合と、前記仮想物体の背後にあると判断される場合とで、異なる視覚効果を有する出力を行なうための前記制御情報を生成するように構成されている。
本明細書で開示する第8の側面に係る技術によれば、第1の側面に係る情報処理装置の前記生成部は、前記現実物体が前記仮想物体の前後所定の距離以内に設定された操作の有効範囲に存在するときには、前記仮想物体に接触していることを示す出力を行なうための制御情報を生成するように構成されている。
本明細書で開示する第9の側面に係る技術によれば、第8の側面に係る情報処理装置の前記生成部は、前記操作の有効範囲内での前記仮想物体の継続的な操作を許容しつつ、前記仮想物体に接触していないことを通知して、前記ユーザーに前記現実物体の位置補正を促すための制御情報を生成するように構成されている。
本明細書で開示する第10の側面に係る技術によれば、第1の側面に係る情報処理装置の前記生成部は、前記現実物体が前記仮想物体に対して設定された視覚的効果の有効範囲内に存在する場合にのみ、前記仮想物体の像に視覚的効果を出力するための制御情報を生成するように構成されている。
本明細書で開示する第11の側面に係る技術によれば、第10の側面に係る情報処理装置の前記生成部は、前記仮想物体を含む一定の範囲に前記視覚的効果の有効範囲を設定するように構成されている。
本明細書で開示する第12の側面に係る技術によれば、第1の側面に係る情報処理装置の前記生成部は、前記現実物体が前記仮想物体の手前にあり又は前記仮想物体と接触している場合に、前記仮想物体上に前記視覚的効果を出力するための制御情報を生成するように構成されている。
本明細書で開示する第13の側面に係る技術によれば、第12の側面に係る情報像処理装置の前記生成部は、前記仮想物体から前記現実物体までの距離に応じた大きさと鮮明度を持つ前記現実物体の影を前記視覚的効果として出力するための制御情報を生成するように構成されている。
本明細書で開示する第14の側面に係る技術によれば、第12の側面に係る情報処理装置の前記生成部は、前記現実物体が前記仮想物体と交差しているときには、警告を出力するための制御情報を生成するように構成されている。
本明細書で開示する第15の側面に係る技術によれば、第14の側面に係る情報処理装置の前記生成部は、前記現実物体が前記仮想物体の背後に存在する他の現実物体と衝突する危険を示す警告音を出力し、又は、前記他の現実物体の色を変えた視覚的効果からなる警告を出力するための制御情報を生成するように構成されている。
本明細書で開示する第16の側面に係る技術によれば、第12の側面に係る情報処理装置の前記生成部は、前記現実物体による遮蔽領域を考慮して前記視覚的効果を出力するための制御情報を生成するように構成されている。
本明細書で開示する第17の側面に係る技術によれば、第1の側面に係る情報処理装置の前記生成部は、前記現実物体が前記仮想物体の背後にある場合には、前記仮想物体から前記現実物体までの距離に応じた視覚的効果を出力するための制御情報を生成するように構成されている。
本明細書で開示する第18の側面に係る技術によれば、第1の側面に係る情報処理装置の前記生成部は、前記仮想物体のうち視覚的効果を加える部分を元の色の対照色で描画する前記視覚的効果を出力するための制御情報を生成するように構成されている。
また、本明細書で開示する第19の側面に係る技術は、
現実空間の映像と同時にユーザーに視認される仮想物体と、前記仮想物体に対して操作指示を行なう現実物体との位置関係を示す位置関係情報を取得する取得ステップと、
前記位置関係情報に基づく出力を制御するための制御情報を生成する生成ステップと、
を有し、
前記生成ステップでは、
前記位置関係情報に基づいて前記仮想物体と前記現実物体とが第1の位置関係であると判断される場合には、第1の出力を行なうための第1の制御情報を生成し、
前記位置関係情報に基づいて前記仮想物体と前記現実物体とが前記第1の位置関係とは異なる第2の位置関係であると判断される場合には、前記第1の出力とは異なる第2の出力を行なうための第2の制御情報を生成する、
を有する情報処理方法である。
また、本明細書で開示する第20の側面に係る技術は、
現実空間の映像と同時にユーザーに視認される仮想物体と、前記仮想物体に対して操作指示を行なう現実物体との位置関係を示す位置関係情報を取得する取得部、
前記位置関係情報に基づく出力を制御するための制御情報を生成する生成部、
としてコンピューターを機能させるようにコンピューター可読形式で記述され、
前記生成部は、
前記位置関係情報に基づいて前記仮想物体と前記現実物体とが第1の位置関係であると判断される場合には、第1の出力を行なうための第1の制御情報を生成し、
前記位置関係情報に基づいて前記仮想物体と前記現実物体とが前記第1の位置関係とは異なる第2の位置関係であると判断される場合には、前記第1の出力とは異なる第2の出力を行なうための第2の制御情報を生成する、
コンピューター・プログラムである。
本願の請求項20に係るコンピューター・プログラムは、コンピューター上で所定の処理を実現するようにコンピューター可読形式で記述されたコンピューター・プログラムを定義したものである。換言すれば、本願の請求項1に係るコンピューター・プログラムを有形的なコンピューター可読記憶媒体に記録してコンピューターにインストールすることによって、コンピューター上では協働的作用が発揮され、本願の請求項1に係る情報処理装置と同様の作用効果を得ることができる。
本明細書で開示する技術によれば、仮想物体に対する現実の物体による操作を示す視覚的効果を加えることができる、優れた情報処理装置及び情報処理方法、並びにコンピューター・プログラムを提供することができる。
なお、本明細書に記載された効果は、あくまでも例示であり、本発明の効果はこれに限定されるものではない。また、本発明が、上記の効果以外に、さらに付加的な効果を奏する場合もある。
本明細書で開示する技術のさらに他の目的、特徴や利点は、後述する実施形態や添付する図面に基づくより詳細な説明によって明らかになるであろう。
図1は、透過型のヘッド・マウント・ディスプレイ100を装着したユーザーを正面から眺めた様子を示した図である。 図2は、たヘッド・マウント・ディスプレイ100を装着したユーザーの頭部を上方から眺めた様子を示した図である。 図3は、没入型のヘッド・マウント・ディスプレイ300を装着したユーザーを正面から眺めた様子を示した図である。 図4は、ヘッド・マウント・ディスプレイ300を装着したユーザーの頭部を上方から眺めた様子を示した図である。 図5は、図1及び図2に示したヘッド・マウント・ディスプレイ100の内部構成例を模式的に示した図である。 図6は、AR物体と現実物体との位置関係を把握する方法の一例を示した図である。 図7は、AR物体と現実物体との位置関係を把握する方法の他の例を示した図である。 図8は、ユーザーの手の影をAR物体の表面に描画する様子を示した図である。 図9は、現実物体とAR物体との距離に応じた視覚的フィードバックを例示した図である。 図10は、現実物体とAR物体との距離に応じた視覚的フィードバックを例示した図である。 図11は、現実物体とAR物体との距離に応じた視覚的フィードバックを例示した図である。 図12は、現実物体とAR物体との距離に応じた視覚的フィードバックを例示した図である。 図13は、現実物体とAR物体との距離に応じた視覚的フィードバックを例示した図である。 図14は、AR物体を操作可能な有効範囲を示した図である。 図15は、現実物体とAR物体との距離に応じた視覚的フィードバックを例示した図である。 図16は、現実物体とAR物体との距離に応じた視覚的フィードバックを例示した図である。 図17は、現実物体とAR物体との距離に応じた視覚的フィードバックを例示した図である。 図18は、現実物体とAR物体の裏面側との距離に応じた視覚的フィードバックを例示した図である。 図19は、現実物体とAR物体の裏面側との距離に応じた視覚的フィードバックを例示した図である。 図20は、現実物体とAR物体の裏面側との距離に応じた視覚的フィードバックを例示した図である。 図21は、AR物体を視覚的フィードバックの対照色で描画した例を示した図である。 図22は、視覚的フィードバックをAR物体の対照色で描画した例を示した図である。 図23は、視覚的フィードバックの有効範囲を限定する一例を示した図である。 図24は、AR物体へのユーザーの操作に対する視覚的フィードバックを行なうための機能的構成を模式的に示した図である。 図25は、視覚的フィードバック付きのAR画像を描画処理するための処理手順を示したフローチャートである。 図26は、AR物体に接近している現実物体の視覚的フィードバックを描画する処理手順を示したフローチャートである。 図27は、AR物体の背後にある現実物体の視覚的フィードバックを描画する処理手順を示したフローチャートである。
以下、図面を参照しながら本明細書で開示する技術の実施形態について詳細に説明する。
A.システム構成
図1には、AR物体を含む視覚情報を提示するデバイスの一例として、透過(シースルー)型のヘッド・マウント・ディスプレイ100を装着したユーザーを正面から眺めた様子を示している。透過型のヘッド・マウント・ディスプレイ100を装着したユーザーは、表示画像越しに周囲(現実世界)を観察することができる。したがって、ヘッド・マウント・ディスプレイ100は、AR物体などの仮想的な表示画像を現実世界の風景に重ね合わせて見せることができる。
図1に示すヘッド・マウント・ディスプレイ100は、視力矯正用の眼鏡に類似した構造体からなる。ヘッド・マウント・ディスプレイ100は、ユーザーの左右の眼に対向する位置に、透明な虚像光学部101L、101Rがそれぞれ配置され、ユーザーが観察する画像(AR物体など)の拡大虚像が結像される。各虚像光学部101L、101Rは、眼鏡フレーム状の支持体102によって支持されている。
また、支持体102の左右の両端付近には、マイクロフォン103L、103Rが配設されている。正面に左右ほぼ対称的にマイクロフォン103L、103Rを装備することで、中央に定位した音声(ユーザーの声)だけを認識することで、周囲の雑音や他人の話し声と分離することができ、例えば音声入力による操作時の誤動作を防止することができる。
図2には、図1に示したヘッド・マウント・ディスプレイ100を装着したユーザーの頭部を上方から眺めた様子を示している。
図示のように、ヘッド・マウント・ディスプレイ100の左右両端には、左眼用及び右眼用の画像をそれぞれ表示出力する表示パネル104L、104Rが配設されている。各表示パネル104L、104Rは、液晶ディスプレイ又は有機EL素子(OLED:Organic Light−Emitting Diode)などのマイクロ・ディスプレイからなる。表示パネル104L、104Rは、ユーザーが観察する周囲の風景(現実の世界)に、AR物体などを重畳して表示することができる。表示パネル104L、104Rから出力される左右の表示画像は、虚像光学部101L、101Rによって左右それぞれの眼付近まで導光され、その拡大虚像がユーザーの瞳に結像される。詳細な図示を省略するが、虚像光学部101L、101Rはそれぞれ、マイクロ・ディスプレイからの照射光を集光する光学系と、光学系の通過光を入射する位置に配設された導光板と、導光板への入射光を反射する偏向フィルターと、導光板内を全反射して伝播された光をユーザーの眼に向かって出射させる偏向フィルターを備えている。
なお、図1及び図2では図示を省略したが、ヘッド・マウント・ディスプレイ100は、ユーザーの視線方向の風景を撮影する外側カメラをさらに備えていてもよい。外側カメラの撮影画像に対して画像認識などの処理を適用して、表示パネル104L、104Rに表示したAR物体(又は、その拡大虚像)に対して操作を行なう現実の物体(例えば、ユーザーの手や、ユーザーが操作するポインターなど)を特定し、その位置並びに姿勢を測定することができる。
また、図3には、AR物体を含む視覚情報を提示するデバイスの一例として、没入型のヘッド・マウント・ディスプレイ300を装着したユーザーを正面から眺めた様子を示している。
没入型のヘッド・マウント・ディスプレイ300は、ユーザーが頭部又は顔部に装着した際にユーザーの眼を直接覆い、画像視聴中のユーザーに没入感を与える。また、透過型のヘッド・マウント・ディスプレイ100とは相違し、没入型のヘッド・マウント・ディスプレイ300を装着したユーザーは現実世界の風景を直接眺めることはできない。但し、ユーザーの視線方向の風景を撮影する外側カメラ305の撮像画像を表示することにより、ユーザーは間接的に現実世界の風景を眺める(すなわち、ビデオ・シースルーで風景を観察する)ことができる。勿論、このようなビデオ・シースルー画像に対し、AR画像などの仮想的な表示画像を重ね合わせて見せることができる。
図3に示すヘッド・マウント・ディスプレイ300は、帽子形状に類似した構造体であり、装着したユーザーの左右の眼を直接覆うように構成されている。ヘッド・マウント・ディスプレイ300本体の内側の左右の眼に対向する位置には、ユーザーが観察する表示パネル304L、304Rがそれぞれ配設されている。表示パネル304L、304Rは、例えば有機EL素子や液晶ディスプレイなどのマイクロ・ディスプレイで構成される。表示パネル304L、304Rには、外側カメラ305の撮像画像をビデオ・シースルー画像として表示したり、さらにこのビデオ・シースルー画像にAR物体を重畳したりすることができる。
ヘッド・マウント・ディスプレイ300本体前面のほぼ中央には、周囲画像(ユーザーの視界)入力用の外側カメラ305が設置されている。外側カメラ305は、ユーザーの視線方向の風景を撮影することができる。また、外側カメラ305に対して画像認識などの処理を適用して、現実の物体(例えば、ユーザーの手や、ユーザーが操作するポインターなど)を特定し、その位置並びに姿勢を測定することができる。
また、ヘッド・マウント・ディスプレイ300本体の左右の両端付近にそれぞれマイクロフォン303L、303Rが設置されている。左右ほぼ対称的にマイクロフォン303L、303Rを持つことで、中央に定位した音声(ユーザーの声)だけを認識することで、周囲の雑音や他人の話声と分離することができ、例えば音声入力による操作時の誤動作を防止することができる。
図4には、図3に示したヘッド・マウント・ディスプレイ300を装着したユーザーの頭部を上方から眺めた様子を示している。
図示のヘッド・マウント・ディスプレイ300は、ユーザーの顔面と対向する側面に、左眼用及び右眼用の表示パネル304L、304Rを持つ。表示パネル304L、304Rは、例えば有機EL素子や液晶ディスプレイなどのマイクロ・ディスプレイで構成される。表示パネル304L、304Rの表示画像は、虚像光学部301L、301Rを通過するにより拡大虚像としてユーザーに観察される。また、眼の高さや眼幅にはユーザー毎に個人差があるため、左右の各表示系と装着したユーザーの眼とを位置合わせする必要がある。図4に示す例では、右眼用の表示パネルと左眼用の表示パネルの間に眼幅調整機構306を装備している。
図5には、図1及び図2に示したヘッド・マウント・ディスプレイ100の内部構成例を模式的に示している。但し、図1及び図2と同じ部品であっても、便宜上、図5中では異なる参照番号を付している。また、図3及び図4に示したヘッド・マウント・ディスプレイ300の内部構成も図5と同様であると理解されたい。以下、各部について説明する。
制御部501は、ROM(Read Only Memory)501AやRAM(Random Access Memory)501Bを備えている。ROM501A内には、制御部501で実行するプログラム・コードや各種データを格納している。制御部501は、RAM501Bへロードしたプログラムを実行することで、画像の表示制御を始め、ヘッド・マウント・ディスプレイ100全体の動作を統括的にコントロールする。ROM501Aに格納し、制御部501で実行するプログラムとして、ナビゲーションやゲームを始めとして、現実空間の映像と同時にユーザーに視認されるAR画像をレンダリングするさまざまなアプリケーション・プログラムを挙げることができる。また、制御部501では、外側カメラ504(又は、後述する環境カメラ703)の撮影画像を表示処理したり、撮影画像を画像認識して被写体若しくは現実の物体を特定したりする処理も必要に応じて行なう。但し、AR画像をレンダリングする処理(後述)は、AR画像を表示するヘッド・マウント・ディスプレイ100(表示装置本体)内で実行する以外に、ネットワーク上のサーバーなど外部装置で実行し、その演算結果を通信部505で受信してヘッド・マウント・ディスプレイ100では表示出力のみを行なうように構成することもできる。
入力操作部502は、キーやボタン、スイッチなど、ユーザーが入力操作を行なう1以上の操作子を備え、操作子を介したユーザーの指示を受け付けて、制御部501に出力する。また、入力操作部502は、リモコン受信部503でリモコン(図示しない)から受信したリモコン・コマンドからなるユーザーの指示を受け付けて、制御部501に出力する。
外側カメラ504は、例えばヘッド・マウント・ディスプレイ100本体前面のほぼ中央に配設され、例えばユーザーの視線方向の風景を撮影する。外側カメラ504は、パン、チルト、ロールの各方向の回転移動機能や画角変更(ズーム)機能を備えていてもよい。ユーザーは、入力操作部502を通じて、外側カメラ504の姿勢を指示するようにしてもよい。
通信部505は、外部機器との通信処理、並びに通信信号の変復調並びに符号化復号処理を行なう。通信する外部機器として、視聴コンテンツを供給するコンテンツ再生装置(ブルーレイ・ディスク又はDVDプレイヤー)や、スマートフォンやタブレットなどの多機能情報端末、ゲーム機、ストリーミング・サーバーなどを挙げることができる。また、制御部501は、外部機器への送信データを通信部505から送出する。
通信部505の構成は任意である。例えば、通信相手となる外部機器との送受信動作に使用する通信方式に応じて、通信部505を構成することができる。通信方式は、有線、無線のいずれの形態であってもよい。ここで言う通信方式として、MHL(Mobile High−definition Link)やUSB(Universal Serial Bus)、HDMI(登録商標)(High Definition Multimedia Interface)、Wi−Fi(登録商標)、Bluetooth(登録商標)通信やBLE(Bluetooth(登録商標) Low Energy)通信、ANTなどの超低消費電力無線通信、IEEE802.11sなどで規格化されたメッシュ・ネットワークなどを挙げることができる。あるいは、通信部505は、例えばW−CDMA(Wideband Code Division Multiple Access)、LTE(Long Term Evolution)などの標準規格に従って動作する、セルラー無線送受信機であってもよい。
記憶部506は、SSD(Solid State Drive)などで構成される大容量記憶装置である。記憶部506は、制御部501で実行するアプリケーション・プログラムや各種データを記憶している。また、外側カメラ505で撮影された動画又は静止画を記憶部506内に記憶するようにしてもよい。
画像処理部507は、制御部501から出力される画像信号に対して画質補正などの信号処理をさらに行なうとともに、表示部509の画面に合わせた解像度に変換する。そして、表示駆動部508は、表示部509の画素を行毎に順次選択するとともに線順次走査して、信号処理された画像信号に基づく画素信号を供給する。
表示部509は、例えば有機EL素子や液晶ディスプレイなどのマイクロ・ディスプレイで構成される表示パネルを有する。虚像光学部510は、表示部509に表示したAR物体などの画像を拡大投影して、ユーザーには拡大虚像として観察させる。この結果、ユーザーは、現実空間の映像と同時にAR物体を視認することができる。
音声処理部511は、制御部501から出力される音声信号に対して音質補正や音声増幅、入力された音声信号などの信号処理をさらに行なう。そして、音声入出力部512は、音声処理後の音声を外部出力、並びにマイクロフォン(前述)からの音声入力を行なう。
AR技術は既に広く利用されている。AR技術によれば、仮想的な物体(以下、「AR物体」という)があたかも現実空間に存在するかのようにユーザーに知覚させることができる。また、両眼視差や両眼の輻輳、焦点距離を制御することで、AR物体を立体視させることができる。また、陰影や視点位置、視線方向の変化に対応してAR物体の描画を変更する制御を行なうことによって、AR物体の立体感を演出することができる。さらに、AR物体に対して人が手や指先で操作するといった対話システムも考えられる。しかしながら、AR物体は、仮想的すなわち現実には存在しない物体なので、人が触ったり押したりする操作を行なっても、感触が得られないので、操作が分かり難い。
そこで、本明細書で開示する技術として、現実の物体(例えば、AR物体を操作しようとするユーザーの手など)との位置関係に基づいてAR物体に視覚的なフィードバックを提示して、触ったり押したりしても感触が得られなくてもAR物体を直感的に操作し易くする画像表示技術について提案する。
ここで、AR物体と現実物体との位置関係を把握する方法について説明しておく。
図6には、AR物体と現実物体との位置関係を把握する方法の一例を示している。同図では、ヘッド・マウント・ディスプレイ100を着用するユーザーが、ヘッド・マウント・ディスプレイ100が表示するAR物体601を、自分の手602で操作しようとしている様子を示している。ここでは、ユーザーの手602を測定対象とする。
AR物体601は、所定の形状及び大きさを持つ。図6に示す例では、簡素化のため、AR物体601は平面で、ユーザーの顔の正面にほぼ平行に配置されている。また、AR物体601は、現実空間に設置される位置及び姿勢を持つ。ヘッド・マウント・ディスプレイ100は、その位置及び姿勢に配置されているように、AR物体601をレンダリングして、表示部509に表示し、虚像光学部510を通じてユーザーに観察されるようにする。
外側カメラ504は、ヘッド・マウント・ディスプレイ100本体前面のほぼ中央に配設され、ユーザーの視線方向の風景を撮影する。ユーザー602の手が外側カメラ504の撮影範囲603に入ってくると、画像認識などの処理を通じて、撮影画像中のユーザー602の手の現実空間における位置を測定することができる。
ユーザーの手602の奥行き情報を得易くするために、外側カメラ504にステレオカメラを適用したり、距離センサーを併用したりするようにしてもよい。また、ユーザーの手602など、測定対象となる現実物体には、1又は複数のマーカー(図示しない)を取り付けて、外側カメラ504の撮影画像から検出し易くするようにしてもよい。
なお、厳密には、AR物体を表示する表示部509の表示座標系(若しくは、表示画像の拡大虚像を投影する投影座標系)と、測定対象となる現実物体を撮影する外側カメラ504の撮影座標系は完全には一致しない。以下では、説明の簡素化のため、表示座標系と撮影座標系は一致し若しくは誤差を無視し得るものとし、又は、絶対座標系に変換して、後続の処理を行なうものとする。
また、図7には、AR物体と現実物体との位置関係を把握する方法の他の例を示している。同図では、ヘッド・マウント・ディスプレイ100を着用するユーザーが、ヘッド・マウント・ディスプレイ100が表示するAR物体701を、自分の手702で操作しようとしている様子を示している。ここでは、ユーザーの手702を測定対象とする(同上)。
AR物体701は、所定の形状及び大きさを持つ。図7に示す例では、簡素化のため、AR物体701は平面で、ユーザーの顔の正面にほぼ平行に配置されている。また、AR物体701は、現実空間に設置される位置及び姿勢を持つ。ヘッド・マウント・ディスプレイ100は、その位置及び姿勢に配置されているように、AR物体701をレンダリングして、表示部509に表示し、虚像光学部510を通じてユーザーに観察されるようにする。
環境カメラ703は、ユーザーが居る部屋の天井や壁などに設置され、AR物体701が重畳される現実空間(若しくは、ユーザーの作業空間)を俯瞰するように撮影する。ユーザー702の手が環境カメラ703の撮影範囲704に入ってくると、画像認識などの処理を通じて、撮影画像中のユーザー702の手の現実空間における位置を測定する。
なお、環境カメラ703は、パン、チルト、ロールの各方向に回転移動な雲台(図示しない)で支持されていてもよい。また、図7では、簡素化のため、1台の環境カメラ703しか描いていないが、測定対象であるユーザーの手702の3次元位置情報を得るため、又は、撮影範囲704を広くする(若しくは、死角が生じないようにする)ために、2台以上の環境カメラを利用するようにしてもよい。
但し、本明細書で開示する技術を実現する上で、ユーザーの手などの現実物体の位置情報を得る方法は、図6や図7に示した方法に限定されるものではない。
B.AR物体と現実物体の位置関係に応じた視覚的フィードバック例(1)
ヘッド・マウント・ディスプレイ100が現実空間に重畳して表示するAR物体は、ヘッド・マウント・ディスプレイ100を着用するユーザーからの奥行き情報を含む位置情報を保持している。そして、図6や図7に示した方法、あるいはそれ以外の方法により、AR物体に操作を行なおうとする現実物体(ユーザーの手など)の位置情報を測定すると、AR物体と現実物体との奥行き情報を比較して、現実物体がAR物体より手前にあるのか、AR物体に触れているのか、AR物体より奥にあるのかを判定して、その判定結果に基づいて視覚的なフィードバックをユーザーに与える。
現実物体がAR物体より手前にある場合、AR物体が現実物体に隠れて見えなくなるように陰面処理(AR物体の一部又は全部を描画しないようにする)を行なうことで、ユーザーにAR物体が自分の手より遠い位置にあるように認識させることができる。
図8には、視覚的なフィードバックの一例として、ユーザーの手の影をAR物体の表面に描画する様子を示している。図示の例では、ユーザー(若しくは、外側カメラ504)の視線付近に仮想的な光源801を設置し、この仮想光源801の照射光802がユーザーの手803によって遮られた影804を、AR物体805の表面に描画している。影は、ARに臨場感やリアリティーを与えるとともに、遮蔽物の存在を表現するので、ユーザーの空間把握に大きな助けとなる。
仮想光源801が点光源とすると、その照射光802は球面状に広がる。したがって、手803がAR物体805に近くなればなるほど、手の影804は小さく、且つ、くっきりとした輪郭となる。また、手803がAR物体805に触れると、影はほとんど見えなくなる。逆に、手803がAR物体805から遠ざかるほど、手の影804は大きく、且つ、その輪郭がぼやけてくる。
ヘッド・マウント・ディスプレイ100は、上記のような現実物体の影をAR物体の表面に描画するという視覚的なフィードバックと並行して、AR物体と現実物体の距離に応じて警告音を大きくしていく(あるいは、逆に小さくしていく)、ユーザーの頭部に加える振動の振幅や周波数を大きくしていく(あるいは、逆に小さくしていく)、熱を加える、といった視覚以外の五感にフィードバックを提示するようにしてもよい。このため、ヘッド・マウント・ディスプレイ100は、振動を発生させる圧電アクチュエーターや発熱器など、五感にフィードバックを提示するデバイスをさらに装備するようにしてもよい。現実物体の影を利用した視覚的なフィードバックに、視界以外の五感に提示する1以上のフィードバックを組み合わせて用いることにより、ユーザーのAR物体の空間把握をさらにサポートすることができる。
図9〜図13には、現実物体とAR物体との距離に応じてユーザーに提示する視覚的フィードバックが段階的に変化している様子を例示している。但し、各図の右半分には、現実空間に配置されたAR物体と、AR物体を操作しようとするユーザーの手先との位置関係を示し、また、各図の左半分には各位置関係のときにAR物体の表示例(ユーザーが観察する画像)を示している。但し、現実物体は実在するがAR物体は仮想的な存在なので、ここで言う現実物体とAR物体との「距離」は仮想的な距離である。この仮想的な距離は、AR物体が仮想的に現実空間に配置された位置の情報と、検出される現実物体の位置の情報に基づいて算出される。また、AR物体は、ユーザーが現実空間又は仮想空間に対して行なう入力操作に使用される表示を含むことができる。ユーザーの入力操作として、選択肢の選択操作や、ポインティング操作(座標の入力操作)、文字入力を挙げることができる。図9〜図13に示す例では、GUI(Graphical Use Interface)部品として3つのメニュー・ボタンを含んでいる。
図9に示す例では、ユーザーの手901は、AR物体902から遠く離れている。したがって、手の影903を大きく、且つ、その輪郭をぼやけさせて描画している。
図10に示す例では、手1001がAR物体1002に近づいている。したがって、手の影1003を、図9に示した例よりも小さく、且つ、その輪郭をより鮮明にして描画して、手1001がAR物体1002のどの付近に近づいているのかを視覚的に表現している。
図11に示す例では、手1101がAR物体1102に触れている。したがって、手の影はほとんど見えなくなる。また、手1101とAR物体1102の奥行き情報の比較結果に基づいて、AR物体1102のどの付近が手1101で触れられそうか(手1101の先端から最短距離となる場所)を算出することができる。図示のように、手1101が触れられそうな部分を光らせるなどの描画処理を行なうことによって、ユーザーの空間把握をさらに助けることができる。図11に示す例では、手1101で触れられたメニュー・ボタン1103がハイライト表示されている。
図12に示す例では、手1201の先端がAR物体1202に触れた後さらに突き進んで、AR物体1202と交差している。手1201とAR物体1202の奥行き情報の比較結果に基づいて、手1201の先端の、AR物体1202から突き抜けている部分を算出することができる。そして、手1201がAR物体1202を突き抜けた深さが一定以上になると、その部分の上にAR物体1202を重畳して表示して、突き抜けた部分が隠れているように表現する。また、手1202で突き抜かれたAR物体1202の部分を光らせるなどのアラーム(警告フィードバック)を描画することで、ユーザーに余分な動きをしなくて済むように警告することができる。
図13に示す例では、手1301がAR物体1302からさらに突き抜けていくと、もはやAR物体1302を操作不能であるだけでなく、AR物体1302の背後にある壁1303などの障害物(他の現実物体)に衝突して、手1301が怪我をする危険がある。このような場合、AR物体1302の表示を消滅させ(又は、点滅させ)、あるいは半透明にするなど警告フィードバックを表示して、ユーザーが背後にある物体を目視で確認できるようにする。また、背後の壁などにぶつかりそうなときなど、現実物体が所定の警告範囲に入ったときには、警告音やバイブレーターなど、視覚以外の五感に対するフィードバックを併用して、危険を回避させるようにしてもよい。図示を省略するが、壁1303などの衝突しそうな他の現実物体の色や形状を変えるといった警告フィードバックを行ない、ユーザーに確実に危険を通知するようにしてもよい。
図11に示したように、手がAR物体に触れた状態では、AR物体を操作することが可能になる。しかしながら、AR物体を触れても触感によるフィードバックがないので、手をAR物体にちょうど触れる奥行きで移動させることや、手をその奥行の位置で保つことは難しい作業である。そこで、図14に示すように、AR物体1402から奥行き方向に前後所定の至近距離以内に、現実物体による操作の有効範囲1403を設定してもよい。ユーザーの手1401が操作の有効範囲1403に入ると、AR物体1402に触れているものとみなして、手1401が多少前後方向に動いたとしてもAR物体1402への操作を実施し又は実施を継続することで、ユーザーの手による操作の成功率を向上させることができる。
なお、操作の有効範囲1403内でのAR物体1402の継続的な操作を許容しつつ、実際にはAR物体1402には接触していないことを通知して、ユーザーに手1401(現実物体)の位置補正を促すようにしてもよい。
C.AR物体と現実物体の位置関係に応じた視覚的フィードバック例(2)
図8〜図10に示した例では、現実物体とAR物体との距離の視覚的フィードバックに影を用いた。影は、ARに臨場感やリアリティーを与えるとともに、遮蔽物の存在を表現するので、ユーザーの空間把握に大きな助けとなる。しかしながら、影をリアルタイムに生成し描画するのは演算負荷が高く、また、完全な影を描画するのは難しい。AR物体の表面が平坦でなく凹凸のある形状の場合、影の描画はさらに難しくなる。
そこで、現実物体の影をAR物体に描画する方法に代えて、現実物体とAR物体との距離の応じた光のリング状のインジケーターを描画するという視覚的フィードバックの提示方法についても提案する。
図15〜図17には、現実物体とAR物体との距離に応じて光のリング状のインジケーターが段階的に変化している様子を例示している。但し、各図の右半分には、現実空間に配置されたAR物体と、AR物体を操作しようとするユーザーの手先との位置関係を示し、また、各図の左半分には各位置関係のときにAR物体の表示例(ユーザーが観察する画像)を示している。簡素化のため、平坦で無地のテクスチャーからなるAR物体を用いて説明する。
図15に示す例では、手1501がAR物体1502から遠く離れている。したがって、AR物体1502の表面に、手1501と最短距離となる点を中心とした、大きく且つぼやけた線からなる光のリング状のインジケーター1503を描画している。
図16に示す例では、手1601がAR物体1602に近づいている。したがって、したがって、AR物体1602の表面に、手1601と最短距離となる点を中心とした、図15に示したものよりも小さく且つより鮮明な線からなる光のリング状のインジケーター1603を描画している。
図17に示す例では、手1701がAR物体1702に触れている(若しくは、有効範囲(前述)に入っている)。手1701がAR物体1702を触れた場所を特定する、小さく鮮明な光のリング状のインジケーター1703を描画している。
D.AR物体と現実物体の位置関係に応じた視覚的フィードバック例(3)
図8〜図17は、基本的に、AR物体を正面から操作する場合に行なう視覚的フィードバックの例である。AR物体をユーザーからある程度離間して配置する場合や、AR物体が机面などに設置されている場合は、ユーザーは正面からAR物体を操作する必要がある。しかしながら、例えば図9〜図11からも分かるように、AR物体を正面から操作する場合、ユーザーの手でAR物体の表面の少なくとも一部が隠れて見え難くなり、視覚的フィードバックとしての影を落とすとさらにAR物体は見え難くなる。
一方、AR物体をユーザーに近い位置に配置できる場合には、AR物体の裏面側に手が届く。AR物体を裏面から操作することにより、AR物体を遮蔽することなく操作することが可能である。
図18〜図20には、図9〜図13に示した例と同様のAR物体をユーザーが裏面側から操作している様子を例示している。但し、各図の右半分には、現実空間に配置されたAR物体と、AR物体を操作しようとするユーザーの手先との位置関係を示し、また、各図の左半分には各位置関係のときにAR物体の表示例(ユーザーが観察する画像)を示している。AR物体は、例えば実行中のアプリケーションやゲームのGUIであり、3つのメニュー・ボタンを含んでいる。
図18に示す例では、ユーザーの手1801は、AR物体1802の裏面から離間している。この段階では、AR物体1802に対して、視覚的フィードバックを一切行なわない。離間したユーザーの手1801からAR物体1802を操作することはできないからである。
図19に示す例では、ユーザーの手1901は、AR物体1902の裏面に近づいている。したがって、ユーザーの手1901が最接近している場所に相当するメニュー・ボタン1903を周囲よりも強調表示して、手1901が近づいていることを視覚的にフィードバックする。
図20に示す例では、ユーザーの手2001は、AR物体2002の裏面に接触している。したがって、裏面側からユーザーの手2001でタッチされたメニュー・ボタン2003が選択された表示状態に切り替えて、手2001で触れられたことを視覚的にフィードバックする。なお、ユーザーの手2001がAR物体2002の裏面に完全に接触するのではなく、図14に示したようにAR物体2002の裏面から一定距離内の有効範囲に入ったことにより、メニュー・ボタン2003を選択した状態にしてもよい。
図18〜図20に示すようなAR物体の裏面側からの操作によれば、AR物体をユーザーの手などの現実物体で遮蔽することなく、操作することができる。
E.視覚的フィードバックの色調整
図8〜図10には、AR物体の手前側にある現実物体の、AR物体からの距離に応じた影をAR物体の表面に描画するという視覚的フィードバックを例示した。このように、視覚的フィードバックをAR物体の表面に描画すると、AR物体の視認性を低下させてしまう可能性がある。そこで、AR物体の表面に視覚的フィードバックを描画する場合には、AR物体の色又は視覚的フィードバックの色をお互いの対照色として描画することで、色を引き立たせ、ユーザーの視認性を保ちながら視覚的フィードバックを行なうようにしてもよい。
図21には、AR物体2101のうち視覚的フィードバックであるユーザーの手の影2102と重なっている領域の色を、手の影2102の対照色で描画している様子を示している。また、図22には、逆に、視覚的フィードバックであるユーザーの手の影2202のうちAR物体2201と重なっている領域の色を、AR物体2201の対照色で描画している様子を示している。図21及び図22のいずれの例でも、ユーザーの人差し指の影が、AR物体上に描画される「Today‘s News」という文字列中の一文字「N」と重なっている。上記のように、AR物体の色又は視覚的フィードバックの色をお互いの対照色として描画することで、文字「N」は人差し指の影に埋没せず、視認することができる。
F.フィードバック範囲の限定
図6には、ヘッド・マウント・ディスプレイ100に装備された外側カメラ504を用いて現実物体(ユーザーの手など)の位置を把握する方法を示した。また、図7には、ユーザーが居る部屋の天井や壁に設置された環境カメラ703を用いて現実物体の位置を把握する方法を示した。これらの方法によれば、カメラの撮影範囲であれば、現実物体とAR物体の位置関係を把握することができるので、撮影範囲全体で視覚的フィードバックを行なうことも可能である。
しかしながら、ユーザーの手を視覚的フィードバックの対象とする場合、AR物体と重複するときの位置関係を把握することができれば十分であり、カメラの撮影範囲全体で視覚的フィードバックを行なう必要はない。
図23には、視覚的フィードバックの有効範囲を限定する一例を示している。同図では、視覚的フィードバックの有効範囲を、ユーザーが見ているAR物体2301を囲む一定の領域2302に限定している。また、視覚的フィードバックの有効範囲を、奥行き方向には、ユーザーが見ているAR物体2302を含む一定区間2303に限定している。
このように視覚的フィードバックの有効範囲を限定することで、例えばユーザーが自分の顔のまわりで手を動かしたときなど、AR物体への操作でないことが明らかな動作に対して、無用な視覚的フィードバックを行なうという無駄を防ぐことができる。
すなわち、視覚的フィードバックの有効範囲を限定することで、描画負荷を低減することができるとともに、無用な視覚的フィードバックによりユーザーの操作が阻害されるのを防ぐことができる。
G.機能的構成
図24には、AR物体へのユーザーの操作に対する視覚的フィードバックを行なうための機能的構成を模式的に示している。上述したように、視覚的フィードバックは、基本的に、AR物体と、AR物体に対して操作指示を行なう現実物体との位置関係(奥行き方向の距離など)を示す位置関係情報に応じて、AR物体の像に視覚的効果を与えることによって実現される。視覚的フィードバックを行なうための演算処理は、ヘッド・マウント・ディスプレイ100などAR物体を表示する表示装置本体内で実行することができるが、ネットワーク上のサーバーなど外部装置で視覚的フィードバックを行なうための演算処理し、表示装置ではその演算結果に従った表示出力のみを行なうようにしてもよい。後者の場合、表示装置は現実物体(ユーザーの手など)の位置情報を測定した結果をサーバーに送信するようにしてもよい。また、視覚的フィードバックを行なうための演算処理は、専用のハードウェア装置としてではなく、コンピューター上で所定の処理を実現するようにコンピューター可読形式で記述されたコンピューター・プログラムによって実現することも可能である。このようなコンピューター・プログラムを有形的なコンピューター可読記憶媒体に記録され、あるいは有線又は無線の通信路を媒介にして配信される。
AR情報取得部2401は、PCのアプリケーションやナビゲーション・システム、ゲーム機などのAR物体生成部(図示を省略)によって生成された、現実空間に重畳表示すべきAR物体に関する位置、姿勢、大きさ、テクスチャーといったAR情報を取得する。ヘッド・マウント・ディスプレイ100などの画像処理装置は、有線又は無線の通信部505経由で外部のAR物体生成部に接続されているものとする。あるいは、AR物体生成部を画像処理装置内部に含んでいてもよい。
現実物体検出部2402は、例えば外側カメラ504の撮影画像を画像認識して、視覚的フィードバックの対象である現実物体(ユーザーの手など)の位置、姿勢、大きさを検出する。あるいは、現実物体検出部2402は、環境カメラ703の撮影画像を通信部505経由で受信して、画像認識により現実物体の位置、姿勢、大きさを検出する。あるいは、現実物体検出部2402は、外部装置(図示しない)が環境カメラ703の撮影画像を認識して得た現実物体の位置、姿勢、大きさの情報を、通信部505経由で受信するようにしてもよい。
なお、現実物体検出部2402は、外側カメラ504や環境カメラ703の撮影画像に含まれるすべての現実物体を検出する必要はない。例えばユーザーの手や、ユーザーが握っているポインターなど、AR物体に操作を行なおうとする特定の物体に検出対象を限定してよい。AR物体に操作を行なう可能性のない物体は、視覚的フィードバックを行なう必要がないからである。
物体間関係判定部2403は、AR情報取得部2401で生成したAR物体の位置姿勢と、物体検出部2402が検出した現実物体の位置姿勢とを比較して、AR物体と現実物体の位置関係(すなわち、現実物体がAR物体より手前にあるのか、AR物体に触れているのか、AR物体より奥にあるのか)を判定して、AR物体と現実物体との位置関係を示す位置関係情報を取得し、位置関係情報に応じた視覚的効果をAR物体の像に与えるための制御情報を生成する。
なお、物体間関係判定部2403は、外側カメラ504や環境カメラ703の撮影範囲にあるすべての現実物体を判定の対象にする必要はない。例えば、図23に示したような視覚的フィードバックの有効範囲に存在する現実物体に限定して、位置関係の判定処理を行なうようにしてもよい。視覚的フィードバックの有効範囲を限定することで、後段のAR物体の描画負荷を低減することができるとともに、無用な視覚的フィードバックによりユーザーの操作が阻害されるのを防ぐことができる。
また、物体間関係判定部2403は、現実物体がAR物体にちょうど触れている状態だけでなく、AR物体から奥行き方向に前後所定の至近距離に設定された操作の有効範囲内(図14を参照のこと)にある状態でも、AR物体に触れていると判定するようにしてもよい。現実物体による操作の有効範囲を設定することで、現実物体によるAR物体への操作の成功率を向上させることができる。
AR画像レンダリング部2404は、AR情報取得部2401が取得したAR物体の位置、姿勢、大きさ、テクスチャーといったAR情報に基づいて、現実空間に表示すべきAR画像をレンダリングする。
本実施形態では、AR画像レンダリング部2404が、物体間関係判定部2403がAR物体と現実物体との位置関係を示す位置関係情報に基づいて生成した制御情報に従って、視覚的フィードバック、すなわち、AR物体が現実物体によって操作されたことを表現する視覚的効果をAR物体に与える点に主な特徴がある。視覚的フィードバックの具体例は、現実物体の影をAR物体の表面に描画することや(例えば、図8〜図10を参照のこと)、現実物体がAR物体に近づいていることを示す光のリング状のインジケーター表示すること(例えば、図15〜図17を参照のこと、などを挙げることができる。但し、視覚的フィードバックの表示方法はこれらに限定されるものではない。
重畳表示部2405は、AR画像レンダリング部2404が描画したAR画像を現実空間に重畳して表示する。例えば、画像表示装置が透過型のヘッド・マウント・ディスプレイ100の場合には、重畳表示部2405は、AR情報取得部2401が決定したAR物体の位置及び姿勢でAR物体がユーザーに観察されるように、表示パネルの適切な画素位置にAR画像を表示する。また、画像表示装置が没入型のヘッド・マウント・ディスプレイ300の場合には、重畳表示部2405は、外側カメラで撮影した周囲画像(ビデオ・シースルー画像)上の適切な場所にAR画像を重畳する。
図25には、図24に示した機能的構成を備える画像処理装置において、視覚的フィードバック付きのAR画像を描画処理するための処理手順をフローチャートの形式で示している。
まず、AR情報取得部2401は、現実空間に重畳表示すべきAR物体に関する位置、姿勢、大きさなどのAR情報を取得する(ステップS2501)。
また、現実物体検出部2402は、外側カメラ504や環境カメラ703の撮影画像を画像認識した結果などに基づいて、視覚的フィードバックの対象である現実物体(ユーザーの手など)の位置、姿勢、大きさを検出する(ステップS2502)。
そして、物体間関係判定部2403は、先行するステップS2501及びS2502で取得した情報に基づいて、AR物体と現実物体の奥行き判定を行ない、現実物体がAR物体の手前にあるか(言い換えれば、AR物体が現実物体に遮蔽されているか)否かを判定する(ステップS2503)。
ここで、現実物体がAR物体の手前にあると判定された場合には(ステップS2503のYes)、物体間関係判定部2403は、現実物体が視覚的フィードバックの有効範囲(図23を参照のこと)内に存在するかどうかをさらにチェックする(ステップS2504)。
現実物体が視覚的フィードバックの有効範囲内に存在する場合には(ステップS2504のYes)、AR画像レンダリング部2404は、AR物体に接近している現実物体の視覚的フィードバックの描画処理(ステップS2505)を実行する。AR物体に接近している現実物体の視覚的フィードバックの描画処理の詳細については、後述に譲る。
一方、現実物体はAR物体の手前にあるが、視覚的フィードバックの有効範囲内に存在しない場合には(ステップS2504のNo)、現実物体がAR物体に接近している(若しくは、現実物体がAR物体を操作しようとしている)とは言えないので、AR画像レンダリング部2404は、視覚的フィードバックを含まない、通常のAR物体の描画処理を実行する(ステップS2506)。但し、現実物体はAR物体の手前にあるので、現実物体で遮蔽されている領域に対しては陰面処理を行なうようにする。
また、現実物体がAR物体の手前にない場合には(ステップ S2503のNo)、物体間関係判定部2403は、現実物体がAR物体の背後にあるかどうかをさらにチェックする(ステップS2507)。
ここで、現実物体がAR物体の背後にある場合には(ステップS2507のYes)、AR画像レンダリング部2404は、AR物体の背後にある現実物体の視覚的フィードバックの描画処理(ステップS2508)を実行する。AR物体の背後にある現実物体の視覚的フィードバックの描画処理の詳細については、後述に譲る。
一方、現実物体がAR物体の手前でも背後でもない場合には(ステップS2507のNo)、AR画像レンダリング部2404は、視覚的フィードバックを含まない、通常のAR物体の描画処理を実行する(ステップS2509)。この場合、ユーザーの視界で現実物体はAR物体と重なり合っていない(遮蔽していない)ので、AR物体の陰面処理も必要ない。
図26には、図25に示したフローチャートのステップS2505で行なわれる、AR物体に接近している現実物体の視覚的フィードバックを描画する処理手順をフローチャートの形式で示している。
まず、物体間関係判定部2403は、現実物体がAR物体に接触していないかどうかをチェックする(S2601)。
物体間関係判定部2403は、現実物体がAR物体にちょうど触れている状態だけでなく、AR物体から奥行き方向に前後所定の至近距離に設定された操作の有効範囲内(図14を参照のこと)にある状態でも、AR物体に触れていると判定する。現実物体による操作の有効範囲を設定することで、現実物体によるAR物体への操作の成功率を向上させることができる。
ここで、現実物体がAR物体に接触している場合には(ステップS2601のNo)、AR画像レンダリング部2404は、現実物体がAR物体に接触したときの視覚的フィードバックを生成する(ステップS2604)。
視覚的フィードバックとして、AR物体からの距離に応じた現実物体の影を用いる場合には、ほとんど見えない影を生成する。また、現実物体が触れている部分を光らせるなどの効果を視覚的フィードバックに加えるようにしてもよい(例えば、図11を参照のこと)。
あるいは、視覚的フィードバックとして、AR物体からの距離に応じた大きさのリング状の光のインジケーターを用いる場合には、現実物体が触れている部分に、小さく鮮明な光のリングを生成する(例えば、図17を参照のこと)。
また、現実物体がAR物体に接触していない場合には(ステップS2601のYes)、物体間関係判定部2403は、現実物体がAR物体と交差しているかどうかをさらにチェックする(S2602)。
現実物体がAR物体と交差していない場合には(ステップS2602のNo)、AR画像レンダリング部2404は、AR物体と現実物体との距離に応じた視覚的フィードバックを生成する(ステップS2605)。
例えば、AR物体からの距離に応じた大きさと鮮明度を持つ現実物体の影を、視覚的フィードバックとして生成する(例えば、図9〜図10を参照のこと)。あるいは、AR物体からの距離に応じた大きさと鮮明度を持つリング状の光のインジケーターを、視覚的フィードバックとして生成する(例えば、図15〜図16を参照のこと)。
また、現実物体がAR物体と交差している場合には(ステップS2602のYes)、物体間関係判定部2402は、AR物体を突き抜けた現実物体が、AR物体の背後にある壁などの障害物(他の現実物体)に衝突する可能性のある警告範囲に入ったか否かをさらにチェックする(ステップS2603)。
現実物体が警告範囲の外であれば(ステップS2603のNo)、AR画像レンダリング部2404は、現実物体と交差しているAR物体を描画処理する(ステップS2606)。
一方、現実物体が警告範囲内に入っている場合には(ステップS2603のYes)、AR画像レンダリング部2404は、AR物体1302の表示を消滅させ(又は、点滅させ)、あるいは半透明にするなど、ユーザーがAR物体の背後にある物体を目視で確認できるようにする警告フィードバックを生成する。
そして、AR画像レンダリング部2404は、現実物体で遮蔽される領域を陰面処理しながら、AR物体を描画処理する(ステップS2608)。
続いて、AR画像レンダリング部2404は、現実物体で遮蔽される領域を陰面処理しながら、先行するステップS2604〜S2607のいずれかで生成された視覚的フィードバックを描画処理して(ステップS2609)、本処理ルーチンを終了する。AR画像レンダリング部2404は、AR物体の表面に視覚的フィードバックを描画する場合には、AR物体の色又は視覚的フィードバックの色をお互いの対照色として描画することで、色を引き立たせ、ユーザーの視認性を保ちながら視覚的フィードバックを行なうようにしてもよい(図21、図22を参照のこと)。
図27には、図25に示したフローチャートのステップS2508で行なわれる、AR物体の背後にある現実物体の視覚的フィードバックを描画する処理手順をフローチャートの形式で示している。
まず、物体間関係判定部2403は、現実物体が視覚的フィードバックの有効範囲(図23を参照のこと)内に存在するかどうかをチェックする(ステップS2701)。
現実物体が視覚的フィードバックの有効範囲内に存在しない場合には(ステップS2701のNo)、現実物体がAR物体に対して操作を行なうことは想定されず、その視覚的フィードバックを描画する必要はないので、後続の処理をすべてスキップして、本処理ルーチンを終了する。このように視覚的フィードバックの有効範囲を限定することで、後段のAR物体の描画負荷を低減することができるとともに、無用な視覚的フィードバックによりユーザーの操作が阻害されるのを防ぐことができる。
一方、現実物体が視覚的フィードバックの有効範囲内に存在する場合には(ステップS2701のYes)、AR画像レンダリング部2404は、例えば図18〜図20に示したように、AR物体と現実物体との距離に応じた視覚的フィードバックを生成する(ステップS2702)。
そして、AR画像レンダリング部2404は、AR物体を描画処理し(ステップS2703)、続いて、ステップS2702で生成された視覚的フィードバックを描画処理して(ステップS2703)、本処理ルーチンを終了する。
このように、本明細書で開示する技術によれば、AR物体が表示された現実空間を観察する環境下で、ユーザーは、AR物体に対して自分の手などで操作しようとする際に、視覚的フィードバックを通じて、AR物体が自分からどれくらい離れているかを直感的に知ることができる。また、ユーザーは、視覚的フィードバックを手掛かりにして、AR物体の狙った位置に触れることが容易になる。
また、本明細書で開示する技術によれば、AR物体を単に現実空間に重畳表示するだけでなく、メニュー・ボタンなどのUI部品を付加して、AR物体をタッチパネルのような入力手段としても用いることが容易になる。
また、本明細書で開示する技術によれば、AR物体に視覚的フィードバックを付加することで空間認知が容易になるので、ユーザーは、複雑な3次元形状をしたAR物体を触れるという操作を容易に行なうことができる。
以上、特定の実施形態を参照しながら、本明細書で開示する技術について詳細に説明してきた。しかしながら、本明細書で開示する技術の要旨を逸脱しない範囲で当業者が該実施形態の修正や代用を成し得ることは自明である。
本明細書で開示する技術は、AR物体を提示するデバイスとして、ヘッド・マウント・ディスプレイや、ヘッド・アップ・ディスプレイ、スマートフォンやタブレットなどの小型情報端末、ナビゲーション・システム、ゲーム機など、さまざまな画像表示装置に適用することができる。本明細書並びに添付する図面では、両眼式のヘッド・マウント・ディスプレイしか記載していないが、勿論、単眼式のヘッド・マウント・ディスプレイに対しても、同様に本明細書で開示する技術を適用することができる。
視覚的フィードバックを行なうための演算処理は、ヘッド・マウント・ディスプレイなどAR物体を表示する表示装置本体内で実行することができるが、ネットワーク上のサーバーなど外部装置で視覚的フィードバックを行なうための演算処理し、表示装置ではその演算結果に従った表示出力のみを行なうようにすることもできる。
要するに、例示という形態により本明細書で開示する技術について説明してきたのであり、本明細書の記載内容を限定的に解釈するべきではない。本明細書で開示する技術の要旨を判断するためには、特許請求の範囲を参酌すべきである。
なお、本明細書の開示の技術は、以下のような構成をとることも可能である。
(1)現実空間の映像と同時にユーザーに視認される仮想物体と、前記仮想物体に対して操作指示を行なう現実物体との位置関係を示す位置関係情報を取得する取得部と、
前記位置関係情報に基づく出力を制御するための制御情報を生成する生成部と、
を具備し、
前記生成部は、
前記位置関係情報に基づいて前記仮想物体と前記現実物体とが第1の位置関係であると判断される場合には、第1の出力を行なうための第1の制御情報を生成し、
前記位置関係情報に基づいて前記仮想物体と前記現実物体とが前記第1の位置関係とは異なる第2の位置関係であると判断される場合には、前記第1の出力とは異なる第2の出力を行なうための第2の制御情報を生成する、
情報処理装置。
(2)前記生成部は、前記位置関係情報に基づいて前記仮想物体と前記現実物体とが前記第1及び前記第2の位置関係のいずれとも異なる第3の位置関係であると判断される場合には、前記第1及び第2の出力のいずれとも異なる第3の出力を行なうための第3の制御情報を生成する、
上記(1)に記載の情報処理装置。
(3)前記生成部は、視覚情報を含む前記第1乃至第3の出力をそれぞれ行なうための前記第1乃至第3の制御情報の各々を生成する、
上記(2)に記載の情報処理装置。
(4)前記生成部は、前記第1乃至第3の出力のうち少なくとも1つの出力において、前記仮想物体の像に視覚的効果を加える出力を行なうための前記第1乃至第3の制御情報を生成する、
上記(3)に記載の情報処理装置。
(5)前記生成部は、前記仮想物体と前記現実物体との距離を示す情報を含む出力を行なうための制御情報を生成する、
上記(1)に記載の情報処理装置。
(6)前記生成部は、前記仮想物体と前記現実物体との、前記ユーザーから見た奥行き方向の距離を示す情報を含む出力を行なうための制御情報を生成する、
上記(1)に記載の情報処理装置。
(7)前記生成部は、前記現実物体が前記仮想物体の手前にあると判断される場合と、前記仮想物体に接触していると判断される場合と、前記仮想物体の背後にあると判断される場合とで、異なる視覚効果を有する出力を行なうための前記制御情報を生成する、
上記(4)に記載の情報処理装置。
(8)前記生成部は、前記現実物体が前記仮想物体の前後所定の距離以内に設定された操作の有効範囲に存在するときには、前記仮想物体に接触していることを示す出力を行なうための制御情報を生成する、
上記(1)又は(2)のいずれかに記載の情報処理装置。
(9)前記生成部は、前記操作の有効範囲内での前記仮想物体の継続的な操作を許容しつつ、前記仮想物体に接触していないことを通知して、前記ユーザーに前記現実物体の位置補正を促すための制御情報を生成する、
上記(8)に記載の情報処理装置。
(10)前記生成部は、前記現実物体が前記仮想物体に対して設定された視覚的効果の有効範囲内に存在する場合にのみ、前記仮想物体の像に視覚的効果を出力するための制御情報を生成する、
上記(1)乃至(8)のいずれかに記載の情報処理装置。
(11) 前記生成部は、前記仮想物体を含む一定の範囲に前記視覚的効果の有効範囲を設定する、
上記(10)に記載の情報処理装置。
(12)前記生成部は、前記現実物体が前記仮想物体の手前にあり又は前記仮想物体と接触している場合に、前記仮想物体上に前記視覚的効果を出力するための制御情報を生成する、
上記(1)乃至(11)のいずれかに記載の情報処理装置。
(13)前記生成部は、前記仮想物体から前記現実物体までの距離に応じた大きさと鮮明度を持つ前記現実物体の影を前記視覚的効果として出力するための制御情報を生成する、
上記(12)に記載の情報処理装置。
(14)前記生成部は、前記仮想物体から前記現実物体までの距離に応じた大きさと鮮明度を持つリング状の光のインジケーターを前記視覚的効果として出力するための制御情報を生成する、
上記(12)に記載の情報処理装置。
(15)前記生成部は、前記現実物体が前記仮想物体と交差しているときには、警告を出力するための制御情報を生成する、
上記(12)に記載の情報処理装置。
(16)前記生成部は、前記現実物体が前記仮想物体の背後に存在する他の現実物体と衝突する危険を示す警告音を出力し、又は、前記他の現実物体の色を変えた視覚的効果からなる警告を出力するための制御情報を生成する、
上記(15)に記載の情報処理装置。
(17)前記生成部は、前記現実物体による遮蔽領域を考慮して前記仮想物体を描画する視覚的効果を出力するための制御情報を生成する、
上記(12)に記載の情報処理装置。
(18)前記生成部は、前記現実物体による遮蔽領域を考慮して前記視覚的効果を出力するための制御情報を生成する、
上記(12)に記載の情報処理装置。
(19)前記生成部は、前記現実物体が前記仮想物体の背後にある場合には、前記仮想物体から前記現実物体までの距離に応じた視覚的効果を出力するための制御情報を生成する、
上記(1)乃至(11)のいずれかに記載の情報処理装置。
(20)前記生成部は、前記仮想物体の対照色で前記視覚的効果を出力するための制御情報を生成する、
上記(1)に記載の情報処理装置。
(21)前記生成部は、前記仮想物体のうち視覚的効果を加える部分を元の色の対照色で描画する前記視覚的効果を出力するための制御情報を生成する、
上記(1)に記載の情報処理装置。
(22)現実空間の映像と同時にユーザーに視認される仮想物体と、前記仮想物体に対して操作指示を行なう現実物体との位置関係を示す位置関係情報を取得する取得ステップと、
前記位置関係情報に基づく出力を制御するための制御情報を生成する生成ステップと、
を有し、
前記生成ステップでは、
前記位置関係情報に基づいて前記仮想物体と前記現実物体とが第1の位置関係であると判断される場合には、第1の出力を行なうための第1の制御情報を生成し、
前記位置関係情報に基づいて前記仮想物体と前記現実物体とが前記第1の位置関係とは異なる第2の位置関係であると判断される場合には、前記第1の出力とは異なる第2の出力を行なうための第2の制御情報を生成する、
を有する情報処理方法。
(23)現実空間の映像と同時にユーザーに視認されるように仮想物体を表示する表示部と、
前記仮想物体と、前記仮想物体に対して操作指示を行なう現実物体との位置関係を示す位置関係情報を取得する取得部と、
前記位置関係情報に基づいて、前記仮想物体と前記現実物体との位置関係を示す前記表示部の出力を制御するための制御情報を生成する生成部と、
を具備し、
前記生成部は、
前記位置関係情報に基づいて前記仮想物体と前記現実物体とが第1の位置関係であると判断される場合には、前記表示部が第1の出力を行なうための第1の制御情報を生成し、
前記位置関係情報に基づいて前記仮想物体と前記現実物体とが前記第1の位置関係とは異なる第2の位置関係であると判断される場合には、前記表示部が前記第1の出力とは異なる第2の出力を行なうための第2の制御情報を生成する、
を具備する画像表示装置。
(24)前記仮想物体を生成する仮想物体生成部をさらに備える、
上記(23)に記載の画像表示装置。
(25)現実空間の映像と同時にユーザーに視認される仮想物体と、前記仮想物体に対して操作指示を行なう現実物体との位置関係を示す位置関係情報を取得する取得ステップと、
前記位置関係情報に基づく出力を制御するための制御情報を生成する生成ステップと、
前記制御情報に基づいて、前記現実物体との位置関係を示すように前記仮想物体を表示する表示ステップと、
を有し、
前記生成ステップでは、
前記位置関係情報に基づいて前記仮想物体と前記現実物体とが第1の位置関係であると判断される場合には、前記表示ステップで第1の出力を行なうための第1の制御情報を生成し、
前記位置関係情報に基づいて前記仮想物体と前記現実物体とが前記第1の位置関係とは異なる第2の位置関係であると判断される場合には、前記表示ステップで前記第1の出力とは異なる第2の出力を行なうための第2の制御情報を生成する、
画像表示方法。
(26)現実空間の映像と同時にユーザーに視認される仮想物体と、前記仮想物体に対して操作指示を行なう現実物体との位置関係を示す位置関係情報を取得する取得部、
前記位置関係情報に基づく出力を制御するための制御情報を生成する生成部、
としてコンピューターを機能させるようにコンピューター可読形式で記述され、
前記生成部は、
前記位置関係情報に基づいて前記仮想物体と前記現実物体とが第1の位置関係であると判断される場合には、第1の出力を行なうための第1の制御情報を生成し、
前記位置関係情報に基づいて前記仮想物体と前記現実物体とが前記第1の位置関係とは異なる第2の位置関係であると判断される場合には、前記第1の出力とは異なる第2の出力を行なうための第2の制御情報を生成する、
コンピューター・プログラム。
100…ヘッド・マウント・ディスプレイ
101L、101R…虚像光学部、102…支持体
103L、103R…マイクロフォン
104L、104R…表示パネル
300…ヘッド・マウント・ディスプレイ
303L、303R…マイクロフォン
304L、304R…表示パネル、305…外側カメラ
306…眼幅調整機構
501…制御部、501A・・・ROM、501B…RAM
502…入力操作部、503…リモコン受信部
504…外側カメラ、505…通信部、506…記憶部
507…画像処理部、508…表示駆動部
509…表示部、510…虚像光学部
511…音声処理部、512…音声入出力部
703…環境カメラ
2401…AR情報取得部、2402…現実物体検出部
2403…物体間関係判定部
2404…AR画像レンダリング部、2405…重畳表示部

Claims (9)

  1. 現実物体の奥行き情報を取得するセンサと、
    両眼に対応する光学部の輻輳表示を制御することで、現実空間上に仮想物体の立体視表示を行う透過型ディスプレイと、
    前記現実物体の奥行き情報と前記仮想物体の奥行き情報の比較結果に基づいて、前記仮想物体上の第1の視覚的なフィードバックを変化させる演算装置と、を備え、
    前記仮想物体は、前記現実物体の奥行き情報と前記仮想物体の奥行き情報に基づいて前記現実物体により直接的に操作可能なAR物体であり、
    前記演算装置は、前記透過型ディスプレイのユーザーから見て前記現実物体がAR物体より手前にある場合、前記透過型ディスプレイを制御することで、
    前記現実物体の奥行き情報と前記AR物体の奥行き情報に基づいて、前記AR物体の一部又は全部を非表示にし、
    前記比較結果及び前記ユーザーの視線方向に基づいて前記AR物体と前記現実物体とが第1の距離関係であると判断した場合には、前記第1の視覚的なフィードバックを、前記現実物体に対応した位置に第1のサイズで表示し、
    前記比較結果及び前記ユーザーの視線方向に基づいて前記AR物体と前記現実物体とが前記第1の距離関係よりも近い第2の距離関係であると判断した場合には、前記現実物体に対応した位置に、前記第1の視覚的なフィードバックを第1のサイズよりも小さい第2のサイズで表示する、
    ヘッドマウントディスプレイ。
  2. 前記演算装置は、前記現実物体が前記AR物体の前方の所定の距離から後方の所定の距離に設定された操作の有効範囲に存在するときには、前記第1の視覚的フィードバックに代えて前記AR物体に接触していることを示す第2の視覚的フィードバックを表示するように前記透過型ディスプレイを制御する、
    請求項1に記載のヘッドマウントディスプレイ。
  3. 前記演算装置は、
    前記透過型ディスプレイから所定の範囲を含まず、且つ前記AR物体の手前の所定の範囲に、前記第1の視覚的フィードバックを行う有効範囲を設定し、
    前記現実物体が前記有効範囲にある場合、前記AR物体の一部又は全部を非表示にしつつ前記第1の視覚的フィードバックを行い、
    前記現実物体が前記有効範囲にない場合、前記AR物体の一部又は全部を非表示にしつつ前記第1の視覚的フィードバックを行わない、
    請求項1又は2のいずれか1つに記載のヘッドマウントディスプレイ。
  4. 前記演算装置は、前記現実物体の形状に応じた影を前記第1の視覚的フィードバックとして表示するように前記透過型ディスプレイを制御する、
    請求項1乃至3のいずれか1つに記載のヘッドマウントディスプレイ。
  5. 前記演算装置は、前記ユーザーの視線の位置及び方向に対応付けられ、放射状に広がる仮想光源を設定し、前記仮想光源に基づいて、前記視覚的フィードバックを変化させる、
    請求項4に記載のヘッドマウントディスプレイ。
  6. 前記演算装置は、
    前記現実物体が、前記ユーザーから見て前記AR物体の背後に存在する他の現実物体と衝突する可能性があるか否かを判定し、
    前記現実物体が前記他の現実物体と衝突する可能性があると判定した場合、前記ユーザーが物体を目視で確認できるようにAR物体の透過度を上昇させるように前記透過型ディスプレイを制御する、
    請求項1乃至5のいずれか1つに記載のヘッドマウントディスプレイ。
  7. 前記演算装置は、前記第1の視覚的フィードバックに対応する前記AR物体の表示範囲の色を対照色に変化させるように前記透過型ディスプレイを制御する、
    請求項1乃至6のいずれか1つに記載のヘッドマウントディスプレイ。
  8. 現実物体の奥行き情報を取得するセンサと、両眼に対応する光学部の輻輳表示を制御することで、現実空間上に仮想物体の立体視表示を行う透過型ディスプレイを備えたヘッドマウントディスプレイにおいて、前記現実物体の奥行き情報と前記仮想物体の奥行き情報の比較結果に基づいて、前記仮想物体上の第1の視覚的なフィードバックを変化させるためのヘッドマウントディスプレイの制御方法であって、
    前記仮想物体は、前記現実物体の奥行き情報と前記仮想物体の奥行き情報に基づいて前記現実物体により直接的に操作可能なAR物体であり、
    前記透過型ディスプレイのユーザーから見て前記現実物体がAR物体より手前にある場合に、
    前記現実物体の奥行き情報と前記AR物体の奥行き情報に基づいて、前記AR物体の一部又は全部を非表示にするように前記透過型ディスプレイを制御するステップと、
    前記比較結果及び前記ユーザーの視線方向に基づいて、前記AR物体と前記現実物体とが第1の距離関係であると判断した場合には、前記第1の視覚的なフィードバックを、前記現実物体に対応した位置に第1のサイズで表示するように前記透過型ディスプレイを制御するステップと、
    前記比較結果及び前記ユーザーの視線方向に基づいて、前記AR物体と前記現実物体とが前記第1の距離関係よりも近い第2の距離関係であると判断した場合には、前記現実物体に対応した位置に、前記第1の視覚的なフィードバックを第1のサイズよりも小さい第2のサイズで表示するように前記透過型ディスプレイを制御するステップと、
    を有するヘッドマウントディスプレイの制御方法。
  9. 現実物体の奥行き情報を取得するセンサと、両眼に対応する光学部の輻輳表示を制御することで、現実空間上に仮想物体の立体視表示を行う透過型ディスプレイを備えたヘッドマウントディスプレイにおいて、前記現実物体の奥行き情報と前記仮想物体の奥行き情報の比較結果に基づいて、前記仮想物体上の第1の視覚的なフィードバックを変化させるための処理をコンピューター上で実行するようにコンピューター可読形式で記述されたコンピューター・プログラムであって、
    前記仮想物体は、前記現実物体の奥行き情報と前記仮想物体の奥行き情報に基づいて前記現実物体により直接的に操作可能なAR物体であり、
    前記透過型ディスプレイのユーザーから見て前記現実物体がAR物体より手前にある場合に、
    前記現実物体の奥行き情報と前記AR物体の奥行き情報に基づいて、前記AR物体の一部又は全部を非表示にし、
    前記比較結果及び前記ユーザーの視線方向に基づいて、前記AR物体と前記現実物体とが第1の距離関係であると判断した場合には、前記第1の視覚的なフィードバックを、前記現実物体に対応した位置に第1のサイズで表示し、
    前記比較結果及び前記ユーザーの視線方向に基づいて、前記AR物体と前記現実物体とが前記第1の距離関係よりも近い第2の距離関係であると判断した場合には、前記現実物体に対応した位置に、前記第1の視覚的なフィードバックを第1のサイズよりも小さい第2のサイズで表示する、
    ように前記透過型ディスプレイを制御するコンピューター・プログラム。
JP2015073561A 2015-03-31 2015-03-31 ヘッドマウントディスプレイ及びヘッドマウントディスプレイの制御方法、並びにコンピューター・プログラム Active JP6596883B2 (ja)

Priority Applications (9)

Application Number Priority Date Filing Date Title
JP2015073561A JP6596883B2 (ja) 2015-03-31 2015-03-31 ヘッドマウントディスプレイ及びヘッドマウントディスプレイの制御方法、並びにコンピューター・プログラム
US15/560,111 US10452128B2 (en) 2015-03-31 2016-02-18 Information processing apparatus and information processing method
PCT/JP2016/000871 WO2016157690A1 (en) 2015-03-31 2016-02-18 Information processing apparatus, information processing method, and computer program
CN201680017768.7A CN107408026B (zh) 2015-03-31 2016-02-18 信息处理设备、信息处理方法和计算机程序
EP16712095.5A EP3278209A1 (en) 2015-03-31 2016-02-18 Information processing apparatus, information processing method, and computer program
US16/566,477 US10948977B2 (en) 2015-03-31 2019-09-10 Information processing apparatus and information processing method
US17/168,231 US11449133B2 (en) 2015-03-31 2021-02-05 Information processing apparatus and information processing method
US17/893,496 US11868517B2 (en) 2015-03-31 2022-08-23 Information processing apparatus and information processing method
US18/530,399 US20240111358A1 (en) 2015-03-31 2023-12-06 Information processing apparatus and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015073561A JP6596883B2 (ja) 2015-03-31 2015-03-31 ヘッドマウントディスプレイ及びヘッドマウントディスプレイの制御方法、並びにコンピューター・プログラム

Publications (2)

Publication Number Publication Date
JP2016194744A JP2016194744A (ja) 2016-11-17
JP6596883B2 true JP6596883B2 (ja) 2019-10-30

Family

ID=55637415

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015073561A Active JP6596883B2 (ja) 2015-03-31 2015-03-31 ヘッドマウントディスプレイ及びヘッドマウントディスプレイの制御方法、並びにコンピューター・プログラム

Country Status (5)

Country Link
US (5) US10452128B2 (ja)
EP (1) EP3278209A1 (ja)
JP (1) JP6596883B2 (ja)
CN (1) CN107408026B (ja)
WO (1) WO2016157690A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023234460A1 (ko) * 2022-06-02 2023-12-07 한국전자기술연구원 대상 객체 적응적 심도 가변형 증강현실 장치 및 방법

Families Citing this family (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6596883B2 (ja) * 2015-03-31 2019-10-30 ソニー株式会社 ヘッドマウントディスプレイ及びヘッドマウントディスプレイの制御方法、並びにコンピューター・プログラム
US11010972B2 (en) * 2015-12-11 2021-05-18 Google Llc Context sensitive user interface activation in an augmented and/or virtual reality environment
EP3416034A4 (en) * 2016-02-08 2019-03-13 Sony Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD, AND PROGRAM
JP2018005091A (ja) * 2016-07-06 2018-01-11 富士通株式会社 表示制御プログラム、表示制御方法および表示制御装置
JP6189496B1 (ja) * 2016-07-20 2017-08-30 株式会社コロプラ 仮想空間を提供する方法、仮想体験を提供する方法、プログラム、および記録媒体
JP6858007B2 (ja) * 2016-11-28 2021-04-14 キヤノン株式会社 画像処理システム、画像処理方法
JP6795471B2 (ja) * 2017-08-25 2020-12-02 ファナック株式会社 ロボットシステム
US20190066385A1 (en) * 2017-08-31 2019-02-28 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
WO2019064987A1 (ja) 2017-09-27 2019-04-04 富士フイルム株式会社 自筆支援装置
US10469768B2 (en) * 2017-10-13 2019-11-05 Fyusion, Inc. Skeleton-based effects and background replacement
WO2019087491A1 (ja) 2017-10-30 2019-05-09 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US10726626B2 (en) * 2017-11-22 2020-07-28 Google Llc Interaction between a viewer and an object in an augmented reality environment
EP3731066A4 (en) * 2017-12-20 2021-01-27 Sony Corporation DATA PROCESSING DEVICE AND PROCESS, AND ASSOCIATED PROGRAM
JP6884233B2 (ja) 2018-01-23 2021-06-09 富士フイルム株式会社 自筆支援装置、自筆支援方法およびプログラム
US11553009B2 (en) * 2018-02-07 2023-01-10 Sony Corporation Information processing device, information processing method, and computer program for switching between communications performed in real space and virtual space
US10957110B2 (en) * 2018-04-17 2021-03-23 Edx Technologies, Inc. Systems, devices, and methods for tracing paths in augmented reality
JP7135444B2 (ja) * 2018-05-29 2022-09-13 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム
CN111127537A (zh) * 2018-10-29 2020-05-08 托比股份公司 用于检测头戴式装置中的阴影的方法和装置
CN113165513A (zh) * 2018-11-30 2021-07-23 株式会社小糸制作所 平视显示器、车辆用显示系统以及车辆用显示方法
JP7478740B2 (ja) * 2018-12-19 2024-05-07 アニペン カンパニー リミテッド アニメーションシーケンスを生成する方法、システムおよび非一過性のコンピュータ読み取り可能な記録媒体
SE543332C2 (en) * 2019-02-19 2020-12-01 Tobii Ab Method, computer program and head mountable arrangement for assisting a subject to acquire spatial information about an environment
JPWO2020195292A1 (ja) * 2019-03-26 2020-10-01
US11520409B2 (en) * 2019-04-11 2022-12-06 Samsung Electronics Co., Ltd. Head mounted display device and operating method thereof
JP2020187623A (ja) * 2019-05-16 2020-11-19 株式会社ソニー・インタラクティブエンタテインメント 姿勢推定システム、姿勢推定装置、誤差補正方法及び誤差補正プログラム
CN112241199B (zh) * 2019-07-19 2023-03-24 华为技术有限公司 虚拟现实场景中的交互方法及装置
CN112562088A (zh) * 2019-09-26 2021-03-26 苹果公司 基于用户移动来呈现环境
US11550446B2 (en) 2020-04-06 2023-01-10 Samsung Electronics Co., Ltd. Systems and methods for viewing webpages in extended reality environments
WO2021235316A1 (ja) * 2020-05-21 2021-11-25 ソニーグループ株式会社 情報処理装置、情報処理方法および情報処理プログラム
EP4200690A2 (en) * 2020-09-25 2023-06-28 Apple Inc. Methods for manipulating objects in an environment
CN112291434B (zh) * 2020-10-23 2021-07-30 北京蓦然认知科技有限公司 一种基于ar的智能通话方法、装置
CN112286363B (zh) * 2020-11-19 2023-05-16 网易(杭州)网络有限公司 虚拟主体形态改变方法及装置、存储介质、电子设备
US11995230B2 (en) * 2021-02-11 2024-05-28 Apple Inc. Methods for presenting and sharing content in an environment
JP2022129747A (ja) * 2021-02-25 2022-09-06 キヤノン株式会社 電子装置およびその制御方法
US12112009B2 (en) 2021-04-13 2024-10-08 Apple Inc. Methods for providing an immersive experience in an environment
CN113395491A (zh) * 2021-06-11 2021-09-14 上海海事大学 船舶机舱远程监测报警系统
WO2023049705A1 (en) 2021-09-23 2023-03-30 Apple Inc. Devices, methods, and graphical user interfaces for content applications
KR20230111088A (ko) 2022-01-17 2023-07-25 한국전자통신연구원 광학 투과형 디스플레이 장치 및 그에 있어서의 영상 합성 방법
JP2023125554A (ja) * 2022-02-28 2023-09-07 株式会社Jvcケンウッド 仮想空間画像表示装置及び仮想空間画像表示方法並びに仮想空間画像表示プログラム
US12112011B2 (en) 2022-09-16 2024-10-08 Apple Inc. System and method of application-based three-dimensional refinement in multi-user communication sessions
US12099653B2 (en) 2022-09-22 2024-09-24 Apple Inc. User interface response based on gaze-holding event assessment
US12108012B2 (en) 2023-02-27 2024-10-01 Apple Inc. System and method of managing spatial states and display modes in multi-user communication sessions
US12118200B1 (en) 2023-06-02 2024-10-15 Apple Inc. Fuzzy hit testing
US12113948B1 (en) 2023-06-04 2024-10-08 Apple Inc. Systems and methods of managing spatial groups in multi-user communication sessions

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4950834B2 (ja) * 2007-10-19 2012-06-13 キヤノン株式会社 画像処理装置、画像処理方法
JP4701424B2 (ja) * 2009-08-12 2011-06-15 島根県 画像認識装置および操作判定方法並びにプログラム
JP4783456B2 (ja) * 2009-12-22 2011-09-28 株式会社東芝 映像再生装置及び映像再生方法
US20120139915A1 (en) * 2010-06-07 2012-06-07 Masahiro Muikaichi Object selecting device, computer-readable recording medium, and object selecting method
US9122053B2 (en) * 2010-10-15 2015-09-01 Microsoft Technology Licensing, Llc Realistic occlusion for a head mounted augmented reality display
US20120218395A1 (en) * 2011-02-25 2012-08-30 Microsoft Corporation User interface presentation and interactions
JP5926500B2 (ja) * 2011-06-07 2016-05-25 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US9547438B2 (en) * 2011-06-21 2017-01-17 Empire Technology Development Llc Gesture based user interface for augmented reality
WO2013093906A1 (en) 2011-09-19 2013-06-27 Eyesight Mobile Technologies Ltd. Touch free interface for augmented reality systems
US20130147793A1 (en) * 2011-12-09 2013-06-13 Seongyeom JEON Mobile terminal and controlling method thereof
US9389420B2 (en) 2012-06-14 2016-07-12 Qualcomm Incorporated User interface interaction for transparent head-mounted displays
JP5791082B2 (ja) * 2012-07-30 2015-10-07 国立大学法人横浜国立大学 画像合成装置、画像合成システム、画像合成方法およびプログラム
US9202313B2 (en) * 2013-01-21 2015-12-01 Microsoft Technology Licensing, Llc Virtual interaction with image projection
CN103164518A (zh) * 2013-03-06 2013-06-19 杭州九树网络科技有限公司 移动终端增强现实应用系统及方法
JP5790692B2 (ja) * 2013-03-29 2015-10-07 ソニー株式会社 情報処理装置、情報処理方法および記録媒体
US20140354602A1 (en) * 2013-04-12 2014-12-04 Impression.Pi, Inc. Interactive input system and method
US9916681B2 (en) * 2014-11-04 2018-03-13 Atheer, Inc. Method and apparatus for selectively integrating sensory content
CN104407701A (zh) * 2014-11-27 2015-03-11 曦煌科技(北京)有限公司 一种面向个人的集群化虚拟现实交互系统
JP6596883B2 (ja) * 2015-03-31 2019-10-30 ソニー株式会社 ヘッドマウントディスプレイ及びヘッドマウントディスプレイの制御方法、並びにコンピューター・プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023234460A1 (ko) * 2022-06-02 2023-12-07 한국전자기술연구원 대상 객체 적응적 심도 가변형 증강현실 장치 및 방법

Also Published As

Publication number Publication date
JP2016194744A (ja) 2016-11-17
US20220404901A1 (en) 2022-12-22
US20240111358A1 (en) 2024-04-04
EP3278209A1 (en) 2018-02-07
US20180101223A1 (en) 2018-04-12
US11868517B2 (en) 2024-01-09
CN107408026B (zh) 2021-03-12
US20210157398A1 (en) 2021-05-27
CN107408026A (zh) 2017-11-28
US10948977B2 (en) 2021-03-16
US20200004323A1 (en) 2020-01-02
WO2016157690A1 (en) 2016-10-06
US11449133B2 (en) 2022-09-20
US10452128B2 (en) 2019-10-22

Similar Documents

Publication Publication Date Title
JP6596883B2 (ja) ヘッドマウントディスプレイ及びヘッドマウントディスプレイの制御方法、並びにコンピューター・プログラム
CN110413105B (zh) 虚拟环境内的虚拟对象的有形可视化
KR20210154814A (ko) 패스 쓰루 이미징을 갖는 헤드 마운트 디스플레이
US20240272708A1 (en) Application placement based on head position
WO2015111283A1 (ja) 画像表示装置及び画像表示方法
US10857974B2 (en) Image display device, image display system, image display method and program
KR20230106727A (ko) 시선-기반 사용자 상호작용
JP5996814B1 (ja) 仮想空間の画像をヘッドマウントディスプレイに提供する方法及びプログラム
CN110968187B (zh) 由外围设备启用的远程触摸检测
KR102340665B1 (ko) 프라이버시 스크린
CN112041788B (zh) 使用眼睛注视来选择文本输入字段
US11195320B2 (en) Feed-forward collision avoidance for artificial reality environments
JP6332652B1 (ja) 表示制御装置、及びプログラム
CN111566596A (zh) 用于虚拟现实显示器的真实世界门户
JP2016110177A (ja) 3次元入力装置及び入力システム
US11589001B2 (en) Information processing apparatus, information processing method, and program
US10642349B2 (en) Information processing apparatus
JP2019032713A (ja) 情報処理装置、情報処理方法及びプログラム
CN108140357B (zh) 信息处理装置
WO2018216327A1 (ja) 情報処理装置、情報処理方法、及びプログラム
WO2023181634A1 (ja) 情報処理装置、情報処理方法及び記録媒体
JP2017211694A (ja) 情報処理装置、情報処理方法、及びプログラム
CN112578983A (zh) 手指取向触摸检测

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180329

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190618

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190815

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190903

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190916

R151 Written notification of patent or utility model registration

Ref document number: 6596883

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151