JP2012128779A - Virtual object display device - Google Patents
Virtual object display device Download PDFInfo
- Publication number
- JP2012128779A JP2012128779A JP2010281590A JP2010281590A JP2012128779A JP 2012128779 A JP2012128779 A JP 2012128779A JP 2010281590 A JP2010281590 A JP 2010281590A JP 2010281590 A JP2010281590 A JP 2010281590A JP 2012128779 A JP2012128779 A JP 2012128779A
- Authority
- JP
- Japan
- Prior art keywords
- virtual object
- display
- display method
- observer
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
Abstract
Description
本発明は、三次元仮想空間の仮想物体を生成し、観察者に表示する仮想物体表示装置に関する。さらに詳しくは、観察者の位置姿勢から仮想物体の表示位置を決定して表示する仮想物体表示装置に関するものである。 The present invention relates to a virtual object display device that generates a virtual object in a three-dimensional virtual space and displays it to an observer. More specifically, the present invention relates to a virtual object display device that determines and displays a display position of a virtual object from the position and orientation of an observer.
近年、現実空間上にCG(Computer Graphics)や文字情報などの仮想物体を重畳して表示する拡張現実感(Augmented Reality)を用いたサービスが盛んに行われている。拡張現実には、ビデオカメラ等で撮影された現実空間の画像に仮想物体を重畳するビデオシースルー方式と、現実空間をハーフミラーを通して直接見て仮想物体と重ね合わせる光学シースルー方式がある。 2. Description of the Related Art In recent years, services using augmented reality that augments and displays virtual objects such as CG (Computer Graphics) and character information on a real space are actively performed. Augmented reality includes a video see-through method in which a virtual object is superimposed on an image of a real space taken by a video camera or the like, and an optical see-through method in which the real space is directly viewed through a half mirror and superimposed on the virtual object.
視覚情報を提示するデバイスとしては、携帯電話等の小型情報端末や、ヘッドマウンテッドディスプレイ(HMD:Head Mounted Display)等が利用される。 As a device for presenting visual information, a small information terminal such as a mobile phone, a head mounted display (HMD), or the like is used.
このような拡張現実感を利用したサービスの一つに頓智ドット株式会社が提供するアプリケーション、「セカイカメラ」やオランダのSPRXmobile社が提供する「Layar」などがある(「セカイカメラ」、「Layar」は、各社の商標または登録商標である)。これらのアプリケーションでは、GPS(Global Positioning System)等で得られる位置情報を利用し、携帯電話を現実空間にかざすと、携帯のカメラで撮影している風景に施設情報が重畳して表示される。 One of the services using such augmented reality is an application provided by Tonchi Dot Co., Ltd., “Sekai Camera”, and “Rayar” provided by SPRXmobile in the Netherlands (“Sekai Camera”, “Layer”). Are trademarks or registered trademarks of the respective companies). In these applications, when location information obtained by GPS (Global Positioning System) or the like is used and the mobile phone is held over a real space, the facility information is displayed superimposed on the scenery photographed by the mobile camera.
また、画像認識技術を用いて、特定のパターン(マーカー)を認識し、その上に仮想物体を重畳して表示する技術も多く見られる。 There are also many techniques for recognizing a specific pattern (marker) using an image recognition technique and displaying a virtual object superimposed thereon.
上記に代表されるような、拡張現実の世界においては、仮想物体を三次元空間上のどこに重畳するかを決定することが重要になる。 In the augmented reality world represented by the above, it is important to determine where the virtual object is to be superimposed on the three-dimensional space.
位置情報と観察者の姿勢に基づいて仮想物体の表示位置を決定する方法が知られている(例えば、特許文献1参照)。特許文献1では、現実世界と仮想物体の位置あわせを容易にするための技術を考案している。 A method for determining the display position of a virtual object based on position information and the posture of an observer is known (see, for example, Patent Document 1). In Patent Document 1, a technique for facilitating alignment between the real world and a virtual object is devised.
図1は、従来の仮想物体表示装置の簡単な構成をあらわしたものである。 FIG. 1 shows a simple configuration of a conventional virtual object display device.
図1において、姿勢センサ101は観察者の姿勢計測をする。姿勢情報出力部102でセンサ座標系から世界座標系に仮想物体の座標系を変換する際に、必要に応じてメモリ103に保存された補正情報を取得し、画像生成部105で出力画像の生成を行う。
In FIG. 1, a
しかしながら従来の構成では、観察者に対し、仮想物体を正確に連動させることは可能であるが、仮想物体の表示位置は観察者の位置と姿勢位置によって一意に決定され、ユーザーは仮想物体の位置をユーザーの好きなように移動させることができない。このため、観察者は自分の求める仮想物体を取得するためには、仮想物体が表示される位置に自らが赴き、姿勢をあわす必要があった。 However, in the conventional configuration, it is possible to accurately link the virtual object to the observer, but the display position of the virtual object is uniquely determined by the position and posture position of the observer, and the user can determine the position of the virtual object. Cannot be moved as the user likes. For this reason, in order to acquire the virtual object that the observer wants, the observer has to go to the position where the virtual object is displayed and express his / her posture.
従来の課題を解決するために、本発明の仮想物体表示装置は、観察者の位置姿勢を取得する位置姿勢取得部と、複数の画像表示方式から一つの表示方式を決定する表示方式決定部と、表示方式決定部で決定された表示方式に表示方式を切り替える表示方式切替部と、表示方式決定部で決定された表示方式に基づいて表示対象とする仮想物体の三次元仮想空間内での表示位置の基準となる座標系を決定する基準座標系決定部と、仮想物体のデータを取得するデータ取得部と、基準座標系決定部により決定された基準となる座標系と位置姿勢取得部により取得された観察者の位置姿勢から、三次元仮想空間内での表示対象の仮想物体の座標変換を行う座標計算部と、データ取得部で取得した仮想物体のデータを基準座標系決定部で決定された座標系によって座標計算部で座標変換された三次元仮想空間内での所定の位置に重畳して表示部に表示する表示画面合成部とを備える。 In order to solve the conventional problems, a virtual object display device of the present invention includes a position and orientation acquisition unit that acquires the position and orientation of an observer, and a display method determination unit that determines one display method from a plurality of image display methods. The display method switching unit that switches the display method to the display method determined by the display method determining unit, and the display of the virtual object to be displayed in the three-dimensional virtual space based on the display method determined by the display method determining unit Acquired by a reference coordinate system determination unit that determines a coordinate system that is a reference for a position, a data acquisition unit that acquires data of a virtual object, and a reference coordinate system and a position and orientation acquisition unit that are determined by the reference coordinate system determination unit The coordinate calculation unit that performs coordinate transformation of the virtual object to be displayed in the three-dimensional virtual space and the virtual object data acquired by the data acquisition unit are determined by the reference coordinate system determination unit from the position and orientation of the observer Coordinates And a display screen combining unit for displaying on the display unit is superimposed on a predetermined position in the three-dimensional virtual space coordinate transformation by the coordinate calculation section by.
かかる構成によって、用途に合わせて仮想物体の表示位置を柔軟に切り替えることが可能になる。 With such a configuration, the display position of the virtual object can be flexibly switched according to the application.
本発明によれば、仮想物体を観察者の嗜好に合わせて表示位置を容易に変更することが可能になり、容易に所望の仮想物体を取得することが可能になる。例えば、旅先の観光地で取得できるランドマークに関する仮想物体をそのランドマークを写した写真に紐付けて表示させたりすることで、あたかも仮想物体を持ち歩いたり、ブックマークしたような感覚を観察者に提供することができる。 According to the present invention, it is possible to easily change the display position of a virtual object according to the preference of an observer, and it is possible to easily acquire a desired virtual object. For example, by displaying a virtual object related to a landmark that can be acquired at a tourist destination on a trip linked to a photograph of the landmark, the viewer can feel as if he / she carried the virtual object or bookmarked it. can do.
以下本発明の実施の形態について、図面を参照しながら説明する。 Embodiments of the present invention will be described below with reference to the drawings.
(実施の形態1)
図2は、本発明にかかる実施の形態の一例である仮想物体表示装置を説明するための図である。
(Embodiment 1)
FIG. 2 is a diagram for explaining a virtual object display device which is an example of an embodiment according to the present invention.
表示装置200は、例えば、撮像部201、表示部202、センサ群203、システム制御部204により形成され、サーバー205と通信する。観察者は、表示装置200をメガネのようにかけることにより、表示部202に表示された画像を観察することができる。センサ群203は、例えば位置センサ、姿勢センサなどを有するものである。
The
本実施の形態では、表示装置はヘッドマウントディスプレイ(HMD)を想定するが、本実施の形態の変形としては撮像部201とセンサ群203を備えていれば、表示装置は観察者が観察可能な装置であれば良い(例えば携帯電話端末)。
In this embodiment, the display device is assumed to be a head-mounted display (HMD). However, as a modification of this embodiment, if the
また、本実施の形態では、撮像部201および表示部202をそれぞれ左右二つずつ備え、左右で別々の画像を表示することにより、両眼立体視で視聴することができることを前提として説明するが、本実施の形態の変形としては両眼立体視画像に限定するものではない。
In the present embodiment, description will be made on the assumption that two
次に本実施の形態にかかる表示装置200の詳細について説明する。
Next, details of the
図3は、表示装置200の内部構成を示すブロック図である。本発明の仮想物体表示装置を用いたシステムは、位置センサ301、姿勢センサ302、撮像部201、位置姿勢取得部303、表示方式切替部304、基準座標決定部305、座標計算部306、イベント検出部307、表示方式決定部308、表示画像合成部309、データ取得部310、表示部202、サーバー205によって構成される。
FIG. 3 is a block diagram illustrating an internal configuration of the
位置姿勢取得部303、表示方式切替部304、基準座標決定部305、座標計算部306、イベント検出部307、表示方式決定部308、表示画像合成部309、データ取得部310は例えば、図2のシステム制御部204に組み込まれるような構成としても良い。この場合、仮想物体表示装置を用いたシステムは、表示装置200とサーバー205とを有する構成となる。
The position and
または、位置姿勢取得部303、表示方式切替部304、基準座標決定部305、座標計算部306、イベント検出部307、表示方式決定部308、表示画像合成部309、データ取得部310は例えば、表示装置200とは別の観察者が観察可能な装置(例えば、携帯電話端末)に含まれるような構成としても良い。この場合、仮想物体表示装置を用いたシステムは、表示装置200と、表示装置200とは別の観察者が観察可能な装置(図示せず)と、サーバ205とを有する構成となる。
Alternatively, the position /
位置センサ301とは、例えばGPSのような観察者が地球上のどこにいるかの絶対値を計測するするセンサである。姿勢センサ302とは、例えば、ジャイロセンサと加速器センサを組み合わせたものであり、観察者の姿勢を少なくとも3自由度以上で測定するためのセンサである。なお、姿勢センサ302を備える代わりに、ユーザーの視野をステレオカメラで撮影することでユーザーの姿勢を求めても構わない。
The
データ取得部310は、サーバー205と通信する。サーバー205には、表示する仮想物体のデータが格納されている。
The data acquisition unit 310 communicates with the
本実施の形態では、データ取得部310がサーバー205と通信することで仮想物体データを取得するが、本実施の形態の変形としては、通信部を備えず、表示データ記録部を備えることで仮想物体データを取得しても構わない。
In the present embodiment, the data acquisition unit 310 acquires virtual object data by communicating with the
表示部202は、観察者に合成した画像を表示する。この表示部202は、合成画像を表示し、観察者に計算された三次元画像を見せる。また、以降の説明では、実世界を撮像した映像に仮想物体を重畳することを前提として説明するが、本実施の形態の変形としてはディスプレイ素子がそのまま透明で素通しで見える光学シースルー方式であっても良いし、仮想世界の映像に仮想物体を重畳するVR(Virtual Reality)空間での使用であっても構わない。
The
撮像部201は、観察者の視野に入る像を撮影する。ヘッドマウントディスプレイ(HMD)を表示装置200としている場合には、表示装置200を装着していないときの観察者の視野に入る像を撮像部201は、撮影することになる。
The
表示装置200において、表示部202を構成するディスプレイ素子がそのまま透明で素通しで見える光学シースルー方式を採用する場合には、観察者の視野に入る実世界の像を撮像部201は、撮影することになる。
When the
イベント検出部307は、例えば撮像部201で撮影された画像を用いて観察者のジェスチャを認識し、イベントが入力されたか否かを監視する。イベント入力が発生すると、表示方式決定部308が仮想物体の表示方式を決定する。
The
表示方式決定部308は、例えばイベントに関連付けた表示方式に関する情報を保持している。
The display
イベント検出部307において、イベントが検出されたとき、表示方式決定部308は、保持する情報の中から検出されたイベントに対応する表示方式を調べ、表示方式の決定を行う。
When an event is detected in the
本実施の形態では、撮像した画像からイベント入力の有無を判断しているが、本実施の形態の変形としては、観察者の視線入力や、表示装置に取り付けられた物理デバイス、その他のリモートコントローラ等の入力デバイスを使用してイベント入力の有無を判断しても構わない。 In this embodiment, the presence / absence of an event input is determined from the captured image, but as a modification of this embodiment, an observer's line-of-sight input, a physical device attached to a display device, and other remote controllers The presence or absence of an event input may be determined using an input device such as.
表示方式切替部304は、表示方式決定部308の決定に従って表示方式を切り替えるとともに、切り替えた表示方式に関する情報を格納する記憶部(図示せず)を有する。記憶部を有することにより、表示方式決定部308から送られる表示方式に関する情報と、記憶部に記憶されている情報とを比較することにより、表示方式決定部308から新たに送られる表示方式に関する情報が、以前の表示方式と同じかどうかの判断ができる。
The display
基準座標決定部305は、選択された表示方式に基づいて三次元仮想空間内での提示対象とする仮想物体の提示位置の基準となる座標系を決定する。
The reference coordinate
データ取得部310は、表示すべき仮想物体を判定し、サーバー205から仮想物体のデータを取得する。
The data acquisition unit 310 determines a virtual object to be displayed, and acquires virtual object data from the
座標計算部306は、計測された観察者の位置、姿勢、撮影された映像から、表示対象の仮想物体の座標変換を行う。UI画像生成部311は、イベント検出部の結果を判断して、種々のグラフィックユーザーインターフェースを生成する。表示画像合成部309は、UI画像生成部311で生成されたグラフィックユーザーインターフェース、座標変換された仮想物体、撮像された現実世界の映像を重畳、合成して表示部202に出力する。
The coordinate
本発明にかかる仮想物体表示装置は、複数の表示方式を有する。表示方式には、例えば以下の4つの形式がある。 The virtual object display device according to the present invention has a plurality of display methods. For example, there are the following four types of display methods.
1、仮想物体を物理的な位置(例えば、GPSでとった情報)に表示する位置固定表示方式
2、仮想物体をマーカーなどの特定の物体(オブジェクト)からの相対位置で表示することオブジェクト固定表示方式
3、観察者の視界に常に表示し続ける常時表示方式
4、物理的な位置や、特定の物体には紐づかず、観察者が特定の姿勢をした場合に仮想物体を表示する表示する姿勢固定表示方式
ここで、特定の姿勢とは、例えば、上、下、左、右、後方のことであり、観察者は上を向いたと判断されたときのみ仮想物体を表示するといった表示方式である。
1. Position fixed display method for displaying a virtual object at a physical position (for example, information obtained by GPS) 2. Displaying a virtual object at a relative position from a specific object (object) such as a marker Object fixed
本実施の形態では、上記4つの表示方式を備えることを前提として説明するが、もちろんこの4つの形式全てを備えなくてもかまわない。また、上記4つの表示方式以外の表示方式を備えていても構わない。 In this embodiment, the description will be made on the assumption that the above four display methods are provided, but of course, it is not necessary to provide all of these four formats. Further, a display method other than the above four display methods may be provided.
図4を用いて各表示方式で基準座標をどのように決定するか説明する。 How to determine the reference coordinates for each display method will be described with reference to FIG.
同図において、固定の世界座標系400におけるセンサ座標系401の姿勢をRBW、センサ座標系401における姿勢センサ302の姿勢をRSB、姿勢センサ302から見た観察者の視点403の相対的な姿勢をRvs、世界座標系400における観察者の姿勢をRVWとする。ここで世界座標系400は観察者位置を原点とする座標系である。
In the figure, the orientation of the sensor coordinate
ここでRは4×4の行列であって、RBAは、座標系Aにおける対象Bの姿勢記述するものであり、すなわち座標系AからBへの変換行列である。 Here, R is a 4 × 4 matrix, and R BA describes the posture of the object B in the coordinate system A, that is, a transformation matrix from the coordinate system A to B.
また、行列Rは、X軸周りの回転角θによって定義される回転行列RX、Y軸周りの回転角φによって定義されるRY、Z軸周りの回転角ψによって定義されRZ、平行移動を表すRTの積により構成されており、R=RZRXRYRTの関係が成立する。 The matrix R is defined by a rotation matrix R X defined by a rotation angle θ around the X axis, R Y defined by a rotation angle φ around the Y axis, a rotation angle ψ around the Z axis, R Z , and parallel. It is constituted by the product of R T representing the movement, the relation R = R Z R X R Y R T is established.
このとき、世界座標系400における観察者の視点RVWは、RVW=RVS・RSB・RBWで表すことができる。
At this time, the viewpoint R VW of the observer in the world coordinate
物理的な位置に仮想物体を表示する位置固定表示方式の場合、基準座標を物理的な位置Bを原点とする座標系404に置く。座標系404における観察者の視線は、位置センサから取得できる位置Aの値と位置Bの値を用いて得られる座標系401から座標系404への変換行列RBWを用いてRVB=RBW・Rvw=RBW・RVS・RSB・RBWで表すことができる。
In the case of the fixed position display method in which the virtual object is displayed at the physical position, the reference coordinates are placed in the coordinate system 404 with the physical position B as the origin. The observer's line of sight in the coordinate system 404 is expressed as R VB = R BW using a transformation matrix R BW from the coordinate
マーカーなど、特定のオブジェクトを原点にした座標系を基準座標として仮想物体を表示するオブジェクト固定表示方式の場合は、基準座標系をオブジェクトの上面の中心Cを原点とする座標系405に置く。観察者の視点から見た位置Cは、撮像部201で得られる画像から画像認識技術等を用いて得ることができる。
In the case of an object fixed display method in which a virtual object is displayed using a coordinate system with a specific object as an origin, such as a marker, as a reference coordinate, the reference coordinate system is placed in a coordinate
観察者の視界に常に表示し続ける常時表示方式および観察者の姿勢に合わせて表示する姿勢固定表示方式の場合は、基準座標を視線座標系に固定する。 In the case of the constant display method that always displays in the observer's field of view and the posture fixed display method that displays in accordance with the observer's posture, the reference coordinates are fixed to the line-of-sight coordinate system.
図5は、位置固定表示方式で表示した場合の観察者の視界を示す。 FIG. 5 shows the field of view of the observer when displayed by the fixed position display method.
現実世界のある地点を原点に基準座標系が設けられ、この座標系で描画された仮想物体が表示される。 A reference coordinate system is provided with a certain point in the real world as the origin, and a virtual object drawn in this coordinate system is displayed.
図6は、オブジェクト固定表示方式で表示した場合の観察者の視界を示す。 FIG. 6 shows the field of view of the observer when displayed by the object fixed display method.
現実世界のあるオブジェクトを原点に基準座標系が設けられ、この座標系で描画された仮想物体が表示される。 A reference coordinate system is provided with an object in the real world as the origin, and a virtual object drawn in this coordinate system is displayed.
図7は、常時表示方式で表示した場合の観察者の視界を示す。 FIG. 7 shows the field of view of the observer when the display is always performed.
観察者の位置、姿勢に関わらず、観察者の視界の特定の位置に仮想物体が表示される。 Regardless of the position and orientation of the observer, a virtual object is displayed at a specific position in the observer's field of view.
図8は、姿勢固定表示方式で表示した場合の観察者の視界を示す。観察者が特定の姿勢をした場合にのみ、観察者の視界の特定の位置に仮想物体が描画される。 FIG. 8 shows the field of view of the observer when displayed by the fixed posture display method. Only when the observer has a specific posture, a virtual object is drawn at a specific position in the field of view of the observer.
次に、仮想物体を描画する際の具体的な処理を説明する。 Next, specific processing when drawing a virtual object will be described.
図9は、本実施の形態1における基準座標を設定するまでの処理手順を説明するフローチャートである。 FIG. 9 is a flowchart for explaining a processing procedure until setting reference coordinates in the first embodiment.
まず、ステップS900において、イベント検出部307が、表示方式切替イベントが発生したか否かを監視する。イベント入力が発生したことを検出すると、表示方式決定部308は、発生したイベントに対応する表示方式を決定し、表示方式切替部304に決定した表示方式に関する情報を送る。表示方式切替部304は記憶部(図示せず)に格納された表示方式が現在の表示方式と同一かどうか判断する(S901)。同一でない場合は、表示方式決定部308で決められた表示方式に変更し、変更した表示方式に関する情報を記憶部(図示せず)に記憶するとともに、基準座標決定部305に通知する(S902)。切り替えた表示方式が、位置固定表示方式の場合は(S903のYes)、表示方式が仮想物体の属性情報に仮想物体を表示する位置情報を書き込む(S904)。仮想物体の属性情報は、例えば、XML(eXtensible Markup Language)により記述される。切り替えた表示方式がオブジェクト固定表示方式の場合は(S905のYes)、撮像データより、三次元仮想空間内での表示位置の基準となるオブジェクトの特徴点を抽出し(S906)、仮想物体の属性情報に基準となるオブジェクトの特徴点データを追加する(S907)。切り替えた表示方式が姿勢固定表示方式の場合(S908のYes)は、姿勢センサ302より観察者の姿勢を取得し(S909)、取得した姿勢を仮想物体表示姿勢として仮想物体の属性情報に追加する(S910)。前記基準座標の決定フローにより、仮想物体を表示する座標系を基準座標に設定する(S911)。
First, in step S900, the
なお、ステップS903、ステップS905およびステップS908のいずれもNoの場合、切り替えた表示方式は常時表示方式であり、この場合はステップS911の処理を行うことになる。 In addition, when all of step S903, step S905, and step S908 are No, the switched display system is a constant display system, and in this case, the process of step S911 is performed.
以上の説明により、観察者のジェスチャに基づいて表示方式を制御することができる。 As described above, the display method can be controlled based on the gesture of the observer.
上述の説明では、観察者のジェスチャ対応する表示方式を決めるような構成としたが、観察者の一つまたは複数のジェスチャにより、表示方式を選択するための画面をUI画面表示し、UI画面から表示方式の切替命令を入力する構成としても良い。 In the above description, the display method corresponding to the gesture of the observer is determined. However, the screen for selecting the display method is displayed on the UI screen by one or more gestures of the observer, and the UI screen is displayed. A configuration may be adopted in which a display mode switching command is input.
以下に、UI画面を介して表示方式の切替命令が発生する際の本装置の動作について説明する。 The operation of this apparatus when a display mode switching command is generated via the UI screen will be described below.
図10は、仮想物体の状態遷移を表す。仮想物体は初期状態では非選択状態にある。使用者が仮想物体を手でつまむ動作を行うことをイベント検出部307が検出すると、仮想物体は選択状態に遷移する。使用者が仮想物体をつまんだ状態を維持したまま、オブジェクトを動かす動作をイベント検出部307が検出すると、例えばコンピュータ上でのドラッグ操作と同一の処理が行われ、仮想物体は移動状態に遷移する。次に、使用者が仮想物体をつまむ操作を終了し、手を放す動作をイベント検出部307が検出すると、ドラッグ処理が終了したと判断し、仮想物体は表示方式選択状態に遷移する。表示方式選択状態に遷移するとイベント検出部307は、UI画像生成部311にUI画面を作成するための命令を出力する。
FIG. 10 shows the state transition of the virtual object. The virtual object is in a non-selected state in the initial state. When the
UI画像生成部311は、イベント検出部307からの出力を受け、観察者が表示方式を選択するためのグラフィックユーザーインターフェース画面(つまりUI画面)を作成する。UI画像生成部311により作成されたUI画面は、表示画像合成部309により合成される。合成された画像は、表示部202により表示される。
The UI
図11は、表示方式選択状態の際に表示部に現れる画面の一例を表す。グラフィックユーザーインターフェースは、各々の表示方式を表すアイコンを表示する。使用者は、表示された選択肢の中から、表示方式を選択する。表示方式が選択されると、イベント検出部307は表示方式切替イベントを検知し、仮想物体は再び非選択状態に遷移する。
FIG. 11 shows an example of a screen that appears on the display unit in the display method selection state. The graphic user interface displays an icon representing each display method. The user selects a display method from the displayed options. When the display method is selected, the
このとき、表示方式決定部308は、選択された表示方式を表示方式切替部308に出力する。
At this time, the display
次に、本装置が仮想物体のデータを取得して、表示部202に表示するまでの処理を図12を用いて説明する。データ取得部310は、表示方式決定部より、現在の表示方式を取得する(S1200)。
Next, processing from when the apparatus acquires virtual object data until it is displayed on the
取得した表示方式が位置固定表示方式の場合(S1201のYes)、位置姿勢取得部303より、観察者の現在の地球上での位置Pcを取得する(S1202)。次にステップS703により保存された基準座標の位置情報Poを取得し(S1203)、PoがPcと十分近いか判定する。ここで、十分近いとする範囲は、あらかじめ定められた固定値でも良いし、基準座標ごとに定められていても良い。PoとPcが十分の近いと判断された場合、Poは表示範囲内に含まれていると判断され(S1204)、サーバー205から仮想物体のデータが取得される(S1213)。
When the acquired display method is the fixed position display method (Yes in S1201), the position /
取得した表示方式がオブジェクト固定表示方式の場合(S1205のYes)は、ステップS906で保存された基準座標の特徴点を取得する。撮像部201で取得された観察者の視野画像中に、前記特徴点と一致する特徴点があるか照合する(S1207)。特徴点が一致すると判断された場合(S1208のYes)サーバー205から仮想物体のデータが取得される(S1213)。
When the acquired display method is the object fixed display method (Yes in S1205), the feature points of the reference coordinates stored in step S906 are acquired. Whether there is a feature point that matches the feature point in the visual field image of the observer acquired by the
取得した表示方式が姿勢固定表示方式の場合(S1209のYes)は、位置姿勢取得部303より、観察者の現在の姿勢を取得する(S1210)。次にステップS909で仮想物体の属性情報に保存された仮想物体表示姿勢Aoを取得する(S1211)。AcとAoが同一の方向を向いているか否か(つまり、Acは表示範囲か否か)を判断し(S1212)、同一の方向を向いている場合(つまり、Acは表示範囲である場合)は、サーバー205から仮想物体のデータが取得される(S1213)。座標計算部306は、基準となる座標系と位置姿勢取得部303により取得された観察者の位置姿勢から、取得されたデータより生成される仮想物体の三次元仮想空間内での座標変換を行う(S1214)、座標変換された仮想物体は、表示部でレンダリングされる(S1215)。
When the acquired display method is the fixed posture display method (Yes in S1209), the current posture of the observer is acquired from the position / orientation acquisition unit 303 (S1210). Next, the virtual object display posture Ao stored in the virtual object attribute information in step S909 is acquired (S1211). It is determined whether Ac and Ao are facing the same direction (that is, whether Ac is the display range) (S1212). When facing the same direction (that is, when Ac is the display range). The virtual object data is acquired from the server 205 (S1213). The coordinate
(変形例1)
本実施の形態の変形例として、位置情報を利用した拡張現実サービスを応用しても良い。位置情報を利用した拡張現実サービスでは、現在の位置情報をサーバー送信し、表示する仮想物体を取得する。位置固定表示方式において位置Pで表示される仮想物体について、位置固定表示方式から異なる表示方式が選択された場合、ステップS1213において、サーバーに擬似的に位置Pを送信し、所望の仮想物体を取得するという方法をとっても構わない。
(Modification 1)
As a modification of the present embodiment, an augmented reality service using location information may be applied. In an augmented reality service using position information, current position information is transmitted to a server and a virtual object to be displayed is acquired. When a different display method is selected from the fixed position display methods for the virtual object displayed at the position P in the fixed position display method, the position P is simulated to the server and a desired virtual object is acquired in step S1213. You may take the method of doing.
かかる構成により、位置固定表示方式でない表示方式においても、位置情報を利用した拡張現実サービスを利用することができる。 With this configuration, an augmented reality service using position information can be used even in a display method that is not a fixed position display method.
(変形例2)
本実施の形態では、一つの仮想物体を表示する際の処理について説明したが、仮想物体は一つに限定されるものではなく、複数あって良い。この場合、仮想物体Aは位置固定モードであるが、仮想オブジェクトBは姿勢固定モードとするように、仮想物体によって表示方式を変えても良いし、各々の仮想物体に基準座標が定められて良い。
(Modification 2)
In the present embodiment, processing for displaying one virtual object has been described, but the number of virtual objects is not limited to one, and there may be a plurality of virtual objects. In this case, although the virtual object A is in the position fixing mode, the display method may be changed depending on the virtual object so that the virtual object B is in the posture fixing mode, and the reference coordinates may be determined for each virtual object. .
かかる構成により、複数の仮想物体を複数の表示方式で重畳表示することができるため、観察者にさらに多彩な拡張現実感を提供できる。 With such a configuration, a plurality of virtual objects can be displayed in a superimposed manner by a plurality of display methods, and thus a wider variety of augmented reality can be provided to the observer.
(変形例3)
本実施の形態では、観察者入力のよって表示方式を切り替えることを前提に説明したが、切替判定は観察者の入力ではなく、システムが仮想物体の属性から自動的に判断しても構わない。例えば、TODOリストのような仮想物体であれば常時表示方式、カレンダーや時計のような仮想物体であれば左を向いたときに表示する姿勢固定表示方式、商品の広告に関する仮想物体であればオブジェクト固定表示方式、不動産広告に関する仮想物体であれば、位置固定表示方式に自動的に判断するといった具合である。
(Modification 3)
Although the present embodiment has been described on the assumption that the display method is switched by an observer input, the switching determination may be automatically determined from the attribute of the virtual object instead of the observer input. For example, if it is a virtual object such as a TODO list, it will always be displayed, if it is a virtual object such as a calendar or clock, it will be displayed when it is turned to the left. If the virtual object is related to a fixed display method or real estate advertisement, the position fixed display method is automatically determined.
下記に、表示方式を自動的に判断する処理の一例を説明する。 An example of processing for automatically determining the display method will be described below.
仮想物体の属性情報には、表示方式に関するフラグが表示方式の数だけ存在し、各々の表示方式に対応する。表示方式フラグは排他的であり、ある表示方式のフラグが1(TRUE)に設定されると、その他のフラグは0(FALSE)に設定される。本フラグは、例えば仮想物体を追加または編集する際に、設定することが可能である。表示方式決定部308は仮想物体の属性情報より表示方式フラグ群を取得し、フラグが1に設定されている表示形式を仮想物体の表示形式として決定する。表示方式を決定した後はステップS901以降と同じ処理を行う。
In the attribute information of the virtual object, there are as many flags regarding the display method as the number of display methods, and each of the display methods corresponds. The display method flag is exclusive. When a flag of a certain display method is set to 1 (TRUE), the other flags are set to 0 (FALSE). This flag can be set, for example, when adding or editing a virtual object. The display
かかる構成により、観察者の煩わしさを低減させながら、仮想物体の特性に応じた最もふさわしい表示形式を自動的に表示させることができる。 With this configuration, it is possible to automatically display the most appropriate display format corresponding to the characteristics of the virtual object while reducing the troublesomeness of the observer.
(変形例4)
本実施の形態では、位置固定表示方式、オブジェクト固定表示方式、常時表示方式、姿勢固定表示方式の4つの表示方式を持つことを前提として説明したが、もちろんこの4つの形式全てを備えなくても構わない。また、上記4つの表示方式以外の表示方式を備えていても構わない。
(Modification 4)
In this embodiment, the description has been made on the premise that there are four display methods: a fixed position display method, an object fixed display method, a constant display method, and a fixed posture display method. I do not care. Further, a display method other than the above four display methods may be provided.
例えば、他に、第三者の視界画像、姿勢位置、位置情報等を受信して、第三者の視界に表示される仮想オブジェトを自分の視界にも表示する他者目線表示方式等があっても良い。 For example, there are other person's line-of-sight display methods that receive a third party's view image, posture position, position information, etc. and display a virtual object displayed in the third party's view also in their own view. May be.
かかる構成により、別の場所にいる他者の視界情報を得られ、疑似体験等をすることができる。 With such a configuration, it is possible to obtain the field of view information of another person in another place and perform a simulated experience or the like.
本発明の仮想物体表示装置によれば、仮想物体の操作を容易且つ高自由度で操作することが可能になる。拡張現実を利用したクーポンサービスや、コミュニケーションサービス、アイテムを集めるような仮想空間内でのゲーム等への応用が期待される。 According to the virtual object display device of the present invention, it is possible to operate a virtual object easily and with a high degree of freedom. Expected to be applied to coupon services using augmented reality, communication services, games in a virtual space where items are collected, and the like.
101 姿勢センサ
102 姿勢情報出力部
103 メモリ
105 画像生成部
106 表示画像
200 表示装置
201 撮像部
202 表示部
203 センサ群
204 システム制御部
205 サーバー
301 位置センサ
302 姿勢センサ
303 位置姿勢取得部
304 表示方式切替部
305 基準座標決定部
306 座標計算部
307 イベント検出部
308 表示方式決定部
309 表示画像合成部
310 データ取得部
311 UI画像生成部
DESCRIPTION OF
Claims (9)
複数の画像表示方式から、一つの表示方式を決定する表示方式決定部と、
前記表示方式決定部で決定された表示方式に、前記表示方式を切り替える表示方式切替部と、
前記表示方式決定部で決定された表示方式に基づいて、表示対象とする仮想物体の三次元仮想空間内での表示位置の基準となる座標系を決定する基準座標系決定部と、
前記仮想物体のデータを取得するデータ取得部と、
前記基準座標系決定部により決定された基準となる座標系と前記位置姿勢取得部により取得された前記観察者の位置姿勢から、三次元仮想空間内での表示対象の前記仮想物体の座標変換を行う座標計算部と、
前記データ取得部で取得した前記仮想物体のデータを、前記基準座標系決定部で決定された座標系によって、前記座標計算部で座標変換された三次元仮想空間内での所定の位置に重畳して表示部に表示する表示画面合成部と、
を備える仮想物体表示装置。 A position and orientation acquisition unit for acquiring the position and orientation of the observer;
A display method determination unit for determining one display method from a plurality of image display methods;
A display method switching unit that switches the display method to the display method determined by the display method determining unit;
Based on the display method determined by the display method determination unit, a reference coordinate system determination unit that determines a coordinate system serving as a reference of a display position in a three-dimensional virtual space of a virtual object to be displayed;
A data acquisition unit for acquiring data of the virtual object;
From the reference coordinate system determined by the reference coordinate system determination unit and the position and orientation of the observer acquired by the position and orientation acquisition unit, coordinate conversion of the virtual object to be displayed in a three-dimensional virtual space is performed. A coordinate calculator to perform,
The virtual object data acquired by the data acquisition unit is superimposed on a predetermined position in the three-dimensional virtual space coordinate-converted by the coordinate calculation unit by the coordinate system determined by the reference coordinate system determination unit. Display screen composition unit to be displayed on the display unit,
A virtual object display device comprising:
前記表示方式決定部は、前記属性情報を用いて前記表示方式を自動的に決定する請求項1記載の仮想物体表示装置。 The data of the virtual object acquired by the data acquisition unit includes attribute information for determining a display method corresponding to the virtual object,
The virtual object display device according to claim 1, wherein the display method determination unit automatically determines the display method using the attribute information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010281590A JP2012128779A (en) | 2010-12-17 | 2010-12-17 | Virtual object display device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010281590A JP2012128779A (en) | 2010-12-17 | 2010-12-17 | Virtual object display device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012128779A true JP2012128779A (en) | 2012-07-05 |
Family
ID=46645699
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010281590A Pending JP2012128779A (en) | 2010-12-17 | 2010-12-17 | Virtual object display device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012128779A (en) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014106681A (en) * | 2012-11-27 | 2014-06-09 | Sony Corp | Image processor, image processing method, program and terminal equipment |
JP2015146113A (en) * | 2014-02-03 | 2015-08-13 | ブラザー工業株式会社 | Display program and display device |
WO2016017253A1 (en) * | 2014-08-01 | 2016-02-04 | ソニー株式会社 | Information processing device, information processing method, and program |
WO2016017254A1 (en) * | 2014-08-01 | 2016-02-04 | ソニー株式会社 | Information processing device, information processing method, and program |
JP2016507793A (en) * | 2012-11-02 | 2016-03-10 | クアルコム,インコーポレイテッド | Determining the reference coordinate system |
JP5914739B1 (en) * | 2015-08-27 | 2016-05-11 | 株式会社コロプラ | Program to control the head mounted display system |
JP2016091078A (en) * | 2014-10-30 | 2016-05-23 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | Generation apparatus, generation method, and program |
JP2016115148A (en) * | 2014-12-15 | 2016-06-23 | キヤノンマーケティングジャパン株式会社 | Information processing apparatus, information processing system, information processing method, and program |
JP2017041068A (en) * | 2015-08-19 | 2017-02-23 | 富士通株式会社 | Display control method, information processing apparatus, and display control program |
WO2017033777A1 (en) * | 2015-08-27 | 2017-03-02 | 株式会社コロプラ | Program for controlling head-mounted display system |
JP2018049591A (en) * | 2016-09-14 | 2018-03-29 | キヤノン株式会社 | Image processing apparatus, image generation method, and program |
US9939274B2 (en) | 2013-02-27 | 2018-04-10 | International Business Machines Corporation | Providing route guide using building information modeling (BIM) data |
CN112233172A (en) * | 2020-09-30 | 2021-01-15 | 北京零境科技有限公司 | Video penetration type mixed reality method, system, readable storage medium and electronic equipment |
JP2021157270A (en) * | 2020-03-25 | 2021-10-07 | 鹿島建設株式会社 | Distance measuring instrument and program |
JP7561009B2 (en) | 2020-11-16 | 2024-10-03 | 任天堂株式会社 | Information processing system, information processing program, information processing device, and information processing method |
JP7576579B2 (en) | 2019-06-25 | 2024-10-31 | ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニー | SYSTEM AND METHOD FOR VIRTUAL FEATURE DEVELOPMENT - Patent application |
-
2010
- 2010-12-17 JP JP2010281590A patent/JP2012128779A/en active Pending
Cited By (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10309762B2 (en) | 2012-11-02 | 2019-06-04 | Qualcomm Incorporated | Reference coordinate system determination |
JP2016507793A (en) * | 2012-11-02 | 2016-03-10 | クアルコム,インコーポレイテッド | Determining the reference coordinate system |
JP2014106681A (en) * | 2012-11-27 | 2014-06-09 | Sony Corp | Image processor, image processing method, program and terminal equipment |
US9939274B2 (en) | 2013-02-27 | 2018-04-10 | International Business Machines Corporation | Providing route guide using building information modeling (BIM) data |
US10295350B2 (en) | 2013-02-27 | 2019-05-21 | International Business Machines Corporation | Providing a route guide using building information modeling (BIM) data |
JP2015146113A (en) * | 2014-02-03 | 2015-08-13 | ブラザー工業株式会社 | Display program and display device |
US10462406B2 (en) | 2014-08-01 | 2019-10-29 | Sony Corporation | Information processing apparatus and information processing method |
US10225506B2 (en) | 2014-08-01 | 2019-03-05 | Sony Corporation | Information processing apparatus and information processing method |
US10499002B2 (en) | 2014-08-01 | 2019-12-03 | Sony Corporation | Information processing apparatus and information processing method |
WO2016017253A1 (en) * | 2014-08-01 | 2016-02-04 | ソニー株式会社 | Information processing device, information processing method, and program |
JPWO2016017253A1 (en) * | 2014-08-01 | 2017-05-18 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
JPWO2016017254A1 (en) * | 2014-08-01 | 2017-05-18 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
WO2016017254A1 (en) * | 2014-08-01 | 2016-02-04 | ソニー株式会社 | Information processing device, information processing method, and program |
US10289674B2 (en) | 2014-10-30 | 2019-05-14 | International Business Machines Corporation | Generation apparatus, generation method, and program |
JP2016091078A (en) * | 2014-10-30 | 2016-05-23 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | Generation apparatus, generation method, and program |
US10296579B2 (en) | 2014-10-30 | 2019-05-21 | International Business Machines Corporation | Generation apparatus, generation method, and program |
JP2016115148A (en) * | 2014-12-15 | 2016-06-23 | キヤノンマーケティングジャパン株式会社 | Information processing apparatus, information processing system, information processing method, and program |
JP2017041068A (en) * | 2015-08-19 | 2017-02-23 | 富士通株式会社 | Display control method, information processing apparatus, and display control program |
JP5914739B1 (en) * | 2015-08-27 | 2016-05-11 | 株式会社コロプラ | Program to control the head mounted display system |
US9779702B2 (en) | 2015-08-27 | 2017-10-03 | Colopl, Inc. | Method of controlling head-mounted display system |
WO2017033777A1 (en) * | 2015-08-27 | 2017-03-02 | 株式会社コロプラ | Program for controlling head-mounted display system |
JP2019067427A (en) * | 2016-09-14 | 2019-04-25 | キヤノン株式会社 | Image processing apparatus, image processing method, and program |
JP2018049591A (en) * | 2016-09-14 | 2018-03-29 | キヤノン株式会社 | Image processing apparatus, image generation method, and program |
JP2020095729A (en) * | 2016-09-14 | 2020-06-18 | キヤノン株式会社 | Image processing device, image processing method, and program |
US11089284B2 (en) | 2016-09-14 | 2021-08-10 | Canon Kabushiki Kaisha | Image processing apparatus, image generating method, and storage medium |
JP7576579B2 (en) | 2019-06-25 | 2024-10-31 | ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニー | SYSTEM AND METHOD FOR VIRTUAL FEATURE DEVELOPMENT - Patent application |
JP2021157270A (en) * | 2020-03-25 | 2021-10-07 | 鹿島建設株式会社 | Distance measuring instrument and program |
JP7425641B2 (en) | 2020-03-25 | 2024-01-31 | 鹿島建設株式会社 | Ranging equipment and programs |
CN112233172A (en) * | 2020-09-30 | 2021-01-15 | 北京零境科技有限公司 | Video penetration type mixed reality method, system, readable storage medium and electronic equipment |
JP7561009B2 (en) | 2020-11-16 | 2024-10-03 | 任天堂株式会社 | Information processing system, information processing program, information processing device, and information processing method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2012128779A (en) | Virtual object display device | |
CN110830786B (en) | Detection and display of mixed 2D/3D content | |
US10089794B2 (en) | System and method for defining an augmented reality view in a specific location | |
CN105264572B (en) | Information processing equipment, information processing method and program | |
JP4679661B1 (en) | Information presenting apparatus, information presenting method, and program | |
JP5732988B2 (en) | Image processing apparatus, display control method, and program | |
EP3133470B1 (en) | Electronic system, portable display device and guiding device | |
KR100953931B1 (en) | System for constructing mixed reality and Method thereof | |
US20140267419A1 (en) | Method and system for representing and interacting with augmented reality content | |
US9933853B2 (en) | Display control device, display control program, and display control method | |
JP2004062756A (en) | Information-presenting device and information-processing method | |
KR20020025301A (en) | Apparatus and Method for Furnishing Augmented-Reality Graphic using Panoramic Image with Supporting Multiuser | |
JP2012212345A (en) | Terminal device, object control method and program | |
JP2012068481A (en) | Augmented reality expression system and method | |
US11227494B1 (en) | Providing transit information in an augmented reality environment | |
KR20140080720A (en) | Augmented Reality imaging based sightseeing guide apparatus | |
JP5511084B2 (en) | COMMUNICATION DEVICE, COMMUNICATION SYSTEM, COMMUNICATION METHOD, AND COMMUNICATION PROGRAM | |
US10171800B2 (en) | Input/output device, input/output program, and input/output method that provide visual recognition of object to add a sense of distance | |
CN111538405A (en) | Information processing method, terminal and non-transitory computer readable storage medium | |
CN110622110A (en) | Method and apparatus for providing immersive reality content | |
TW201341848A (en) | Telescopic observation for virtual reality system and method thereof using intelligent electronic device | |
JP2012141779A (en) | Device for providing augmented reality, system for providing augmented reality, and method and program for providing augmented reality | |
JP2017182500A (en) | Input device, input program, and input method | |
US11568579B2 (en) | Augmented reality content generation with update suspension | |
JP2015087909A (en) | Information processing system, information processing device, information processing server, information processing method and program |