Nothing Special   »   [go: up one dir, main page]

JP2012128779A - Virtual object display device - Google Patents

Virtual object display device Download PDF

Info

Publication number
JP2012128779A
JP2012128779A JP2010281590A JP2010281590A JP2012128779A JP 2012128779 A JP2012128779 A JP 2012128779A JP 2010281590 A JP2010281590 A JP 2010281590A JP 2010281590 A JP2010281590 A JP 2010281590A JP 2012128779 A JP2012128779 A JP 2012128779A
Authority
JP
Japan
Prior art keywords
virtual object
display
display method
observer
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010281590A
Other languages
Japanese (ja)
Inventor
Tomoko Katayama
朋子 片山
Yuki Shinomoto
雄基 篠本
Kazutoshi Kashimoto
和俊 柏本
Nobuteru Tominaga
宣輝 富永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2010281590A priority Critical patent/JP2012128779A/en
Publication of JP2012128779A publication Critical patent/JP2012128779A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To solve a problem such that, in a virtual object display device since a display position of a virtual object is uniquely determined depending on the position and posture of a viewer, the viewer has to position him/herself and to make his/her own posture at a point where the virtual object is presented to obtain a desired virtual object.SOLUTION: The virtual object display device is characterized in that a virtual object is generated in a three-dimensional virtual space and having two or more image display manners. A coordinate system as a reference of a presentation position of a virtual object to be presented in the three-dimensional virtual space is determined based on the viewer's position and posture and a display manner selected from plural image display manners. Coordinate conversion of the virtual object as the display object in the three-dimensional virtual space is made based on the reference coordinate system and the viewer's position and posture. The virtual object as a result calculated by a coordinate calculation part 306 is presented to the viewer on the coordinate system determined by the reference coordinate determination part 305.

Description

本発明は、三次元仮想空間の仮想物体を生成し、観察者に表示する仮想物体表示装置に関する。さらに詳しくは、観察者の位置姿勢から仮想物体の表示位置を決定して表示する仮想物体表示装置に関するものである。   The present invention relates to a virtual object display device that generates a virtual object in a three-dimensional virtual space and displays it to an observer. More specifically, the present invention relates to a virtual object display device that determines and displays a display position of a virtual object from the position and orientation of an observer.

近年、現実空間上にCG(Computer Graphics)や文字情報などの仮想物体を重畳して表示する拡張現実感(Augmented Reality)を用いたサービスが盛んに行われている。拡張現実には、ビデオカメラ等で撮影された現実空間の画像に仮想物体を重畳するビデオシースルー方式と、現実空間をハーフミラーを通して直接見て仮想物体と重ね合わせる光学シースルー方式がある。   2. Description of the Related Art In recent years, services using augmented reality that augments and displays virtual objects such as CG (Computer Graphics) and character information on a real space are actively performed. Augmented reality includes a video see-through method in which a virtual object is superimposed on an image of a real space taken by a video camera or the like, and an optical see-through method in which the real space is directly viewed through a half mirror and superimposed on the virtual object.

視覚情報を提示するデバイスとしては、携帯電話等の小型情報端末や、ヘッドマウンテッドディスプレイ(HMD:Head Mounted Display)等が利用される。   As a device for presenting visual information, a small information terminal such as a mobile phone, a head mounted display (HMD), or the like is used.

このような拡張現実感を利用したサービスの一つに頓智ドット株式会社が提供するアプリケーション、「セカイカメラ」やオランダのSPRXmobile社が提供する「Layar」などがある(「セカイカメラ」、「Layar」は、各社の商標または登録商標である)。これらのアプリケーションでは、GPS(Global Positioning System)等で得られる位置情報を利用し、携帯電話を現実空間にかざすと、携帯のカメラで撮影している風景に施設情報が重畳して表示される。   One of the services using such augmented reality is an application provided by Tonchi Dot Co., Ltd., “Sekai Camera”, and “Rayar” provided by SPRXmobile in the Netherlands (“Sekai Camera”, “Layer”). Are trademarks or registered trademarks of the respective companies). In these applications, when location information obtained by GPS (Global Positioning System) or the like is used and the mobile phone is held over a real space, the facility information is displayed superimposed on the scenery photographed by the mobile camera.

また、画像認識技術を用いて、特定のパターン(マーカー)を認識し、その上に仮想物体を重畳して表示する技術も多く見られる。   There are also many techniques for recognizing a specific pattern (marker) using an image recognition technique and displaying a virtual object superimposed thereon.

上記に代表されるような、拡張現実の世界においては、仮想物体を三次元空間上のどこに重畳するかを決定することが重要になる。   In the augmented reality world represented by the above, it is important to determine where the virtual object is to be superimposed on the three-dimensional space.

位置情報と観察者の姿勢に基づいて仮想物体の表示位置を決定する方法が知られている(例えば、特許文献1参照)。特許文献1では、現実世界と仮想物体の位置あわせを容易にするための技術を考案している。   A method for determining the display position of a virtual object based on position information and the posture of an observer is known (see, for example, Patent Document 1). In Patent Document 1, a technique for facilitating alignment between the real world and a virtual object is devised.

図1は、従来の仮想物体表示装置の簡単な構成をあらわしたものである。   FIG. 1 shows a simple configuration of a conventional virtual object display device.

図1において、姿勢センサ101は観察者の姿勢計測をする。姿勢情報出力部102でセンサ座標系から世界座標系に仮想物体の座標系を変換する際に、必要に応じてメモリ103に保存された補正情報を取得し、画像生成部105で出力画像の生成を行う。   In FIG. 1, a posture sensor 101 measures the posture of an observer. When the orientation information output unit 102 converts the coordinate system of the virtual object from the sensor coordinate system to the world coordinate system, the correction information stored in the memory 103 is acquired as necessary, and the image generation unit 105 generates the output image. I do.

特許第3840171号公報Japanese Patent No. 3840171

しかしながら従来の構成では、観察者に対し、仮想物体を正確に連動させることは可能であるが、仮想物体の表示位置は観察者の位置と姿勢位置によって一意に決定され、ユーザーは仮想物体の位置をユーザーの好きなように移動させることができない。このため、観察者は自分の求める仮想物体を取得するためには、仮想物体が表示される位置に自らが赴き、姿勢をあわす必要があった。   However, in the conventional configuration, it is possible to accurately link the virtual object to the observer, but the display position of the virtual object is uniquely determined by the position and posture position of the observer, and the user can determine the position of the virtual object. Cannot be moved as the user likes. For this reason, in order to acquire the virtual object that the observer wants, the observer has to go to the position where the virtual object is displayed and express his / her posture.

従来の課題を解決するために、本発明の仮想物体表示装置は、観察者の位置姿勢を取得する位置姿勢取得部と、複数の画像表示方式から一つの表示方式を決定する表示方式決定部と、表示方式決定部で決定された表示方式に表示方式を切り替える表示方式切替部と、表示方式決定部で決定された表示方式に基づいて表示対象とする仮想物体の三次元仮想空間内での表示位置の基準となる座標系を決定する基準座標系決定部と、仮想物体のデータを取得するデータ取得部と、基準座標系決定部により決定された基準となる座標系と位置姿勢取得部により取得された観察者の位置姿勢から、三次元仮想空間内での表示対象の仮想物体の座標変換を行う座標計算部と、データ取得部で取得した仮想物体のデータを基準座標系決定部で決定された座標系によって座標計算部で座標変換された三次元仮想空間内での所定の位置に重畳して表示部に表示する表示画面合成部とを備える。   In order to solve the conventional problems, a virtual object display device of the present invention includes a position and orientation acquisition unit that acquires the position and orientation of an observer, and a display method determination unit that determines one display method from a plurality of image display methods. The display method switching unit that switches the display method to the display method determined by the display method determining unit, and the display of the virtual object to be displayed in the three-dimensional virtual space based on the display method determined by the display method determining unit Acquired by a reference coordinate system determination unit that determines a coordinate system that is a reference for a position, a data acquisition unit that acquires data of a virtual object, and a reference coordinate system and a position and orientation acquisition unit that are determined by the reference coordinate system determination unit The coordinate calculation unit that performs coordinate transformation of the virtual object to be displayed in the three-dimensional virtual space and the virtual object data acquired by the data acquisition unit are determined by the reference coordinate system determination unit from the position and orientation of the observer Coordinates And a display screen combining unit for displaying on the display unit is superimposed on a predetermined position in the three-dimensional virtual space coordinate transformation by the coordinate calculation section by.

かかる構成によって、用途に合わせて仮想物体の表示位置を柔軟に切り替えることが可能になる。   With such a configuration, the display position of the virtual object can be flexibly switched according to the application.

本発明によれば、仮想物体を観察者の嗜好に合わせて表示位置を容易に変更することが可能になり、容易に所望の仮想物体を取得することが可能になる。例えば、旅先の観光地で取得できるランドマークに関する仮想物体をそのランドマークを写した写真に紐付けて表示させたりすることで、あたかも仮想物体を持ち歩いたり、ブックマークしたような感覚を観察者に提供することができる。   According to the present invention, it is possible to easily change the display position of a virtual object according to the preference of an observer, and it is possible to easily acquire a desired virtual object. For example, by displaying a virtual object related to a landmark that can be acquired at a tourist destination on a trip linked to a photograph of the landmark, the viewer can feel as if he / she carried the virtual object or bookmarked it. can do.

従来の仮想物体表示装置の構成を表す図である。It is a figure showing the structure of the conventional virtual object display apparatus. 本発明にかかる仮想物体表示装置の使用形態を示す図である。It is a figure which shows the usage condition of the virtual object display apparatus concerning this invention. 表示装置の内部構成を示すブロック図である。It is a block diagram which shows the internal structure of a display apparatus. 各表示方式で基準座標をどのように決定するかについて説明した図である。It is a figure explaining how a reference coordinate is determined by each display method. 位置固定表示方式が選択された際の表示画面の一例を表す図である。It is a figure showing an example of the display screen when a position fixed display system is selected. オブジェクト固定表示方式が選択された際の表示画面の一例を表す図である。It is a figure showing an example of the display screen when an object fixed display system is selected. 常時表示方式が選択された際の表示画面の一例を表す図である。It is a figure showing an example of the display screen when a constant display system is selected. 姿勢固定表示方式が選択された際の表示画面の一例を表す図である。It is a figure showing an example of the display screen when a posture fixed display system is selected. 実施の形態1における基準座標を設定するまでの処理手順を説明するフローチャートである。5 is a flowchart for explaining a processing procedure until reference coordinates are set in the first embodiment. 仮想物体の状態遷移を表す図である。It is a figure showing the state transition of a virtual object. 観察者が表示方式を選択する際の表示画面の一例を表す図である。It is a figure showing an example of the display screen at the time of an observer selecting a display system. 仮想物体データを取得して表示部に表示するまでの処理手順を説明するフローチャートである。It is a flowchart explaining the process sequence until it acquires virtual object data and displays it on a display part.

以下本発明の実施の形態について、図面を参照しながら説明する。   Embodiments of the present invention will be described below with reference to the drawings.

(実施の形態1)
図2は、本発明にかかる実施の形態の一例である仮想物体表示装置を説明するための図である。
(Embodiment 1)
FIG. 2 is a diagram for explaining a virtual object display device which is an example of an embodiment according to the present invention.

表示装置200は、例えば、撮像部201、表示部202、センサ群203、システム制御部204により形成され、サーバー205と通信する。観察者は、表示装置200をメガネのようにかけることにより、表示部202に表示された画像を観察することができる。センサ群203は、例えば位置センサ、姿勢センサなどを有するものである。   The display device 200 is formed by, for example, the imaging unit 201, the display unit 202, the sensor group 203, and the system control unit 204, and communicates with the server 205. The observer can observe the image displayed on the display unit 202 by wearing the display device 200 like glasses. The sensor group 203 includes, for example, a position sensor, a posture sensor, and the like.

本実施の形態では、表示装置はヘッドマウントディスプレイ(HMD)を想定するが、本実施の形態の変形としては撮像部201とセンサ群203を備えていれば、表示装置は観察者が観察可能な装置であれば良い(例えば携帯電話端末)。   In this embodiment, the display device is assumed to be a head-mounted display (HMD). However, as a modification of this embodiment, if the imaging unit 201 and the sensor group 203 are provided, the display device can be observed by an observer. Any device may be used (for example, a mobile phone terminal).

また、本実施の形態では、撮像部201および表示部202をそれぞれ左右二つずつ備え、左右で別々の画像を表示することにより、両眼立体視で視聴することができることを前提として説明するが、本実施の形態の変形としては両眼立体視画像に限定するものではない。   In the present embodiment, description will be made on the assumption that two imaging units 201 and two display units 202 are provided on each of the left and right sides, and that the images can be viewed in binocular stereoscopic vision by displaying separate images on the left and right sides. The modification of the present embodiment is not limited to a binocular stereoscopic image.

次に本実施の形態にかかる表示装置200の詳細について説明する。   Next, details of the display device 200 according to the present embodiment will be described.

図3は、表示装置200の内部構成を示すブロック図である。本発明の仮想物体表示装置を用いたシステムは、位置センサ301、姿勢センサ302、撮像部201、位置姿勢取得部303、表示方式切替部304、基準座標決定部305、座標計算部306、イベント検出部307、表示方式決定部308、表示画像合成部309、データ取得部310、表示部202、サーバー205によって構成される。   FIG. 3 is a block diagram illustrating an internal configuration of the display device 200. A system using the virtual object display device of the present invention includes a position sensor 301, a posture sensor 302, an imaging unit 201, a position and posture acquisition unit 303, a display method switching unit 304, a reference coordinate determination unit 305, a coordinate calculation unit 306, and event detection. A unit 307, a display method determination unit 308, a display image composition unit 309, a data acquisition unit 310, a display unit 202, and a server 205.

位置姿勢取得部303、表示方式切替部304、基準座標決定部305、座標計算部306、イベント検出部307、表示方式決定部308、表示画像合成部309、データ取得部310は例えば、図2のシステム制御部204に組み込まれるような構成としても良い。この場合、仮想物体表示装置を用いたシステムは、表示装置200とサーバー205とを有する構成となる。   The position and orientation acquisition unit 303, the display method switching unit 304, the reference coordinate determination unit 305, the coordinate calculation unit 306, the event detection unit 307, the display method determination unit 308, the display image composition unit 309, and the data acquisition unit 310 are illustrated in FIG. It is good also as a structure incorporated in the system control part 204. FIG. In this case, a system using the virtual object display device includes a display device 200 and a server 205.

または、位置姿勢取得部303、表示方式切替部304、基準座標決定部305、座標計算部306、イベント検出部307、表示方式決定部308、表示画像合成部309、データ取得部310は例えば、表示装置200とは別の観察者が観察可能な装置(例えば、携帯電話端末)に含まれるような構成としても良い。この場合、仮想物体表示装置を用いたシステムは、表示装置200と、表示装置200とは別の観察者が観察可能な装置(図示せず)と、サーバ205とを有する構成となる。   Alternatively, the position / orientation acquisition unit 303, the display method switching unit 304, the reference coordinate determination unit 305, the coordinate calculation unit 306, the event detection unit 307, the display method determination unit 308, the display image composition unit 309, and the data acquisition unit 310 may be, for example, a display It is good also as a structure included in the apparatus (for example, mobile phone terminal) which an observer different from the apparatus 200 can observe. In this case, a system using the virtual object display device includes a display device 200, a device (not shown) that can be observed by an observer different from the display device 200, and a server 205.

位置センサ301とは、例えばGPSのような観察者が地球上のどこにいるかの絶対値を計測するするセンサである。姿勢センサ302とは、例えば、ジャイロセンサと加速器センサを組み合わせたものであり、観察者の姿勢を少なくとも3自由度以上で測定するためのセンサである。なお、姿勢センサ302を備える代わりに、ユーザーの視野をステレオカメラで撮影することでユーザーの姿勢を求めても構わない。   The position sensor 301 is a sensor that measures the absolute value of where the observer is on the earth, such as GPS. The posture sensor 302 is, for example, a combination of a gyro sensor and an accelerator sensor, and is a sensor for measuring the posture of the observer with at least three degrees of freedom. Instead of providing the posture sensor 302, the user's posture may be obtained by photographing the user's field of view with a stereo camera.

データ取得部310は、サーバー205と通信する。サーバー205には、表示する仮想物体のデータが格納されている。   The data acquisition unit 310 communicates with the server 205. The server 205 stores virtual object data to be displayed.

本実施の形態では、データ取得部310がサーバー205と通信することで仮想物体データを取得するが、本実施の形態の変形としては、通信部を備えず、表示データ記録部を備えることで仮想物体データを取得しても構わない。   In the present embodiment, the data acquisition unit 310 acquires virtual object data by communicating with the server 205. However, as a modification of the present embodiment, the communication unit is not provided, but the display data recording unit is provided. Object data may be acquired.

表示部202は、観察者に合成した画像を表示する。この表示部202は、合成画像を表示し、観察者に計算された三次元画像を見せる。また、以降の説明では、実世界を撮像した映像に仮想物体を重畳することを前提として説明するが、本実施の形態の変形としてはディスプレイ素子がそのまま透明で素通しで見える光学シースルー方式であっても良いし、仮想世界の映像に仮想物体を重畳するVR(Virtual Reality)空間での使用であっても構わない。   The display unit 202 displays the synthesized image for the observer. The display unit 202 displays the composite image and shows the calculated three-dimensional image to the observer. Further, in the following description, the description will be made on the assumption that a virtual object is superimposed on an image captured in the real world. However, as a modification of the present embodiment, an optical see-through method in which a display element is transparent and transparent is visible. Alternatively, it may be used in a VR (Virtual Reality) space in which a virtual object is superimposed on an image of the virtual world.

撮像部201は、観察者の視野に入る像を撮影する。ヘッドマウントディスプレイ(HMD)を表示装置200としている場合には、表示装置200を装着していないときの観察者の視野に入る像を撮像部201は、撮影することになる。   The imaging unit 201 captures an image that enters the observer's field of view. When the head mounted display (HMD) is used as the display device 200, the imaging unit 201 captures an image that falls within the field of view of the observer when the display device 200 is not attached.

表示装置200において、表示部202を構成するディスプレイ素子がそのまま透明で素通しで見える光学シースルー方式を採用する場合には、観察者の視野に入る実世界の像を撮像部201は、撮影することになる。   When the display device 200 adopts an optical see-through method in which the display elements constituting the display unit 202 are transparent and transparent, the imaging unit 201 captures an image of the real world that falls within the observer's field of view. Become.

イベント検出部307は、例えば撮像部201で撮影された画像を用いて観察者のジェスチャを認識し、イベントが入力されたか否かを監視する。イベント入力が発生すると、表示方式決定部308が仮想物体の表示方式を決定する。   The event detection unit 307 recognizes an observer's gesture using, for example, an image captured by the imaging unit 201 and monitors whether an event is input. When an event input occurs, the display method determination unit 308 determines the display method of the virtual object.

表示方式決定部308は、例えばイベントに関連付けた表示方式に関する情報を保持している。   The display method determination unit 308 holds information regarding a display method associated with an event, for example.

イベント検出部307において、イベントが検出されたとき、表示方式決定部308は、保持する情報の中から検出されたイベントに対応する表示方式を調べ、表示方式の決定を行う。   When an event is detected in the event detection unit 307, the display method determination unit 308 examines a display method corresponding to the detected event from the stored information, and determines the display method.

本実施の形態では、撮像した画像からイベント入力の有無を判断しているが、本実施の形態の変形としては、観察者の視線入力や、表示装置に取り付けられた物理デバイス、その他のリモートコントローラ等の入力デバイスを使用してイベント入力の有無を判断しても構わない。   In this embodiment, the presence / absence of an event input is determined from the captured image, but as a modification of this embodiment, an observer's line-of-sight input, a physical device attached to a display device, and other remote controllers The presence or absence of an event input may be determined using an input device such as.

表示方式切替部304は、表示方式決定部308の決定に従って表示方式を切り替えるとともに、切り替えた表示方式に関する情報を格納する記憶部(図示せず)を有する。記憶部を有することにより、表示方式決定部308から送られる表示方式に関する情報と、記憶部に記憶されている情報とを比較することにより、表示方式決定部308から新たに送られる表示方式に関する情報が、以前の表示方式と同じかどうかの判断ができる。   The display method switching unit 304 has a storage unit (not shown) that stores information related to the switched display method while switching the display method according to the determination of the display method determining unit 308. By having the storage unit, the information related to the display method sent from the display method determining unit 308 is compared with the information stored in the storage unit, so that the information related to the display method newly sent from the display method determining unit 308 It can be determined whether or not is the same as the previous display method.

基準座標決定部305は、選択された表示方式に基づいて三次元仮想空間内での提示対象とする仮想物体の提示位置の基準となる座標系を決定する。   The reference coordinate determination unit 305 determines a coordinate system serving as a reference for the presentation position of the virtual object to be presented in the three-dimensional virtual space based on the selected display method.

データ取得部310は、表示すべき仮想物体を判定し、サーバー205から仮想物体のデータを取得する。   The data acquisition unit 310 determines a virtual object to be displayed, and acquires virtual object data from the server 205.

座標計算部306は、計測された観察者の位置、姿勢、撮影された映像から、表示対象の仮想物体の座標変換を行う。UI画像生成部311は、イベント検出部の結果を判断して、種々のグラフィックユーザーインターフェースを生成する。表示画像合成部309は、UI画像生成部311で生成されたグラフィックユーザーインターフェース、座標変換された仮想物体、撮像された現実世界の映像を重畳、合成して表示部202に出力する。   The coordinate calculation unit 306 performs coordinate conversion of the virtual object to be displayed from the measured position and orientation of the observer and the captured video. The UI image generation unit 311 determines the result of the event detection unit and generates various graphic user interfaces. The display image synthesis unit 309 superimposes and synthesizes the graphic user interface generated by the UI image generation unit 311, the coordinate-converted virtual object, and the captured real-world video, and outputs the resultant to the display unit 202.

本発明にかかる仮想物体表示装置は、複数の表示方式を有する。表示方式には、例えば以下の4つの形式がある。   The virtual object display device according to the present invention has a plurality of display methods. For example, there are the following four types of display methods.

1、仮想物体を物理的な位置(例えば、GPSでとった情報)に表示する位置固定表示方式
2、仮想物体をマーカーなどの特定の物体(オブジェクト)からの相対位置で表示することオブジェクト固定表示方式
3、観察者の視界に常に表示し続ける常時表示方式
4、物理的な位置や、特定の物体には紐づかず、観察者が特定の姿勢をした場合に仮想物体を表示する表示する姿勢固定表示方式
ここで、特定の姿勢とは、例えば、上、下、左、右、後方のことであり、観察者は上を向いたと判断されたときのみ仮想物体を表示するといった表示方式である。
1. Position fixed display method for displaying a virtual object at a physical position (for example, information obtained by GPS) 2. Displaying a virtual object at a relative position from a specific object (object) such as a marker Object fixed display Method 3, continuous display method that always displays in the viewer's field of view 4. Physical position or display position that displays a virtual object when the observer takes a specific posture without linking to a specific object Fixed display method Here, the specific posture is, for example, up, down, left, right, and rear, and the display method displays the virtual object only when the observer is determined to face up. is there.

本実施の形態では、上記4つの表示方式を備えることを前提として説明するが、もちろんこの4つの形式全てを備えなくてもかまわない。また、上記4つの表示方式以外の表示方式を備えていても構わない。   In this embodiment, the description will be made on the assumption that the above four display methods are provided, but of course, it is not necessary to provide all of these four formats. Further, a display method other than the above four display methods may be provided.

図4を用いて各表示方式で基準座標をどのように決定するか説明する。   How to determine the reference coordinates for each display method will be described with reference to FIG.

同図において、固定の世界座標系400におけるセンサ座標系401の姿勢をRBW、センサ座標系401における姿勢センサ302の姿勢をRSB、姿勢センサ302から見た観察者の視点403の相対的な姿勢をRvs、世界座標系400における観察者の姿勢をRVWとする。ここで世界座標系400は観察者位置を原点とする座標系である。 In the figure, the orientation of the sensor coordinate system 401 in the fixed world coordinate system 400 is R BW , the orientation of the orientation sensor 302 in the sensor coordinate system 401 is R SB , and the observer's viewpoint 403 viewed from the orientation sensor 302 is relative. the attitude Rvs, the observer's position in the world coordinate system 400 and R VW. Here, the world coordinate system 400 is a coordinate system having the observer position as the origin.

ここでRは4×4の行列であって、RBAは、座標系Aにおける対象Bの姿勢記述するものであり、すなわち座標系AからBへの変換行列である。 Here, R is a 4 × 4 matrix, and R BA describes the posture of the object B in the coordinate system A, that is, a transformation matrix from the coordinate system A to B.

また、行列Rは、X軸周りの回転角θによって定義される回転行列R、Y軸周りの回転角φによって定義されるR、Z軸周りの回転角ψによって定義されR、平行移動を表すRの積により構成されており、R=Rの関係が成立する。 The matrix R is defined by a rotation matrix R X defined by a rotation angle θ around the X axis, R Y defined by a rotation angle φ around the Y axis, a rotation angle ψ around the Z axis, R Z , and parallel. It is constituted by the product of R T representing the movement, the relation R = R Z R X R Y R T is established.

このとき、世界座標系400における観察者の視点RVWは、RVW=RVS・RSB・RBWで表すことができる。 At this time, the viewpoint R VW of the observer in the world coordinate system 400 can be expressed by R VW = R VS · R SB · R BW .

物理的な位置に仮想物体を表示する位置固定表示方式の場合、基準座標を物理的な位置Bを原点とする座標系404に置く。座標系404における観察者の視線は、位置センサから取得できる位置Aの値と位置Bの値を用いて得られる座標系401から座標系404への変換行列RBWを用いてRVB=RBW・Rvw=RBW・RVS・RSB・RBWで表すことができる。 In the case of the fixed position display method in which the virtual object is displayed at the physical position, the reference coordinates are placed in the coordinate system 404 with the physical position B as the origin. The observer's line of sight in the coordinate system 404 is expressed as R VB = R BW using a transformation matrix R BW from the coordinate system 401 to the coordinate system 404 obtained using the value of the position A and the value of the position B that can be acquired from the position sensor. Rvw = R BW , R VS , R SB , R BW .

マーカーなど、特定のオブジェクトを原点にした座標系を基準座標として仮想物体を表示するオブジェクト固定表示方式の場合は、基準座標系をオブジェクトの上面の中心Cを原点とする座標系405に置く。観察者の視点から見た位置Cは、撮像部201で得られる画像から画像認識技術等を用いて得ることができる。   In the case of an object fixed display method in which a virtual object is displayed using a coordinate system with a specific object as an origin, such as a marker, as a reference coordinate, the reference coordinate system is placed in a coordinate system 405 with the center C of the upper surface of the object as the origin. The position C viewed from the viewpoint of the observer can be obtained from an image obtained by the imaging unit 201 using an image recognition technique or the like.

観察者の視界に常に表示し続ける常時表示方式および観察者の姿勢に合わせて表示する姿勢固定表示方式の場合は、基準座標を視線座標系に固定する。   In the case of the constant display method that always displays in the observer's field of view and the posture fixed display method that displays in accordance with the observer's posture, the reference coordinates are fixed to the line-of-sight coordinate system.

図5は、位置固定表示方式で表示した場合の観察者の視界を示す。   FIG. 5 shows the field of view of the observer when displayed by the fixed position display method.

現実世界のある地点を原点に基準座標系が設けられ、この座標系で描画された仮想物体が表示される。   A reference coordinate system is provided with a certain point in the real world as the origin, and a virtual object drawn in this coordinate system is displayed.

図6は、オブジェクト固定表示方式で表示した場合の観察者の視界を示す。   FIG. 6 shows the field of view of the observer when displayed by the object fixed display method.

現実世界のあるオブジェクトを原点に基準座標系が設けられ、この座標系で描画された仮想物体が表示される。   A reference coordinate system is provided with an object in the real world as the origin, and a virtual object drawn in this coordinate system is displayed.

図7は、常時表示方式で表示した場合の観察者の視界を示す。   FIG. 7 shows the field of view of the observer when the display is always performed.

観察者の位置、姿勢に関わらず、観察者の視界の特定の位置に仮想物体が表示される。   Regardless of the position and orientation of the observer, a virtual object is displayed at a specific position in the observer's field of view.

図8は、姿勢固定表示方式で表示した場合の観察者の視界を示す。観察者が特定の姿勢をした場合にのみ、観察者の視界の特定の位置に仮想物体が描画される。   FIG. 8 shows the field of view of the observer when displayed by the fixed posture display method. Only when the observer has a specific posture, a virtual object is drawn at a specific position in the field of view of the observer.

次に、仮想物体を描画する際の具体的な処理を説明する。   Next, specific processing when drawing a virtual object will be described.

図9は、本実施の形態1における基準座標を設定するまでの処理手順を説明するフローチャートである。   FIG. 9 is a flowchart for explaining a processing procedure until setting reference coordinates in the first embodiment.

まず、ステップS900において、イベント検出部307が、表示方式切替イベントが発生したか否かを監視する。イベント入力が発生したことを検出すると、表示方式決定部308は、発生したイベントに対応する表示方式を決定し、表示方式切替部304に決定した表示方式に関する情報を送る。表示方式切替部304は記憶部(図示せず)に格納された表示方式が現在の表示方式と同一かどうか判断する(S901)。同一でない場合は、表示方式決定部308で決められた表示方式に変更し、変更した表示方式に関する情報を記憶部(図示せず)に記憶するとともに、基準座標決定部305に通知する(S902)。切り替えた表示方式が、位置固定表示方式の場合は(S903のYes)、表示方式が仮想物体の属性情報に仮想物体を表示する位置情報を書き込む(S904)。仮想物体の属性情報は、例えば、XML(eXtensible Markup Language)により記述される。切り替えた表示方式がオブジェクト固定表示方式の場合は(S905のYes)、撮像データより、三次元仮想空間内での表示位置の基準となるオブジェクトの特徴点を抽出し(S906)、仮想物体の属性情報に基準となるオブジェクトの特徴点データを追加する(S907)。切り替えた表示方式が姿勢固定表示方式の場合(S908のYes)は、姿勢センサ302より観察者の姿勢を取得し(S909)、取得した姿勢を仮想物体表示姿勢として仮想物体の属性情報に追加する(S910)。前記基準座標の決定フローにより、仮想物体を表示する座標系を基準座標に設定する(S911)。   First, in step S900, the event detection unit 307 monitors whether or not a display method switching event has occurred. When it is detected that an event input has occurred, the display method determination unit 308 determines a display method corresponding to the event that has occurred, and sends information related to the determined display method to the display method switching unit 304. The display method switching unit 304 determines whether the display method stored in the storage unit (not shown) is the same as the current display method (S901). If they are not the same, the display method is changed to the display method determined by the display method determination unit 308, information on the changed display method is stored in the storage unit (not shown), and the reference coordinate determination unit 305 is notified (S902). . When the switched display method is the fixed position display method (Yes in S903), position information for displaying the virtual object is written in the attribute information of the virtual object (S904). The attribute information of the virtual object is described by, for example, XML (extensible Markup Language). When the switched display method is the object fixed display method (Yes in S905), the feature point of the object serving as the reference of the display position in the three-dimensional virtual space is extracted from the imaging data (S906), and the attribute of the virtual object is extracted. The feature point data of the reference object is added to the information (S907). When the switched display method is the fixed posture display method (Yes in S908), the posture of the observer is acquired from the posture sensor 302 (S909), and the acquired posture is added to the virtual object attribute information as a virtual object display posture. (S910). According to the reference coordinate determination flow, a coordinate system for displaying a virtual object is set as a reference coordinate (S911).

なお、ステップS903、ステップS905およびステップS908のいずれもNoの場合、切り替えた表示方式は常時表示方式であり、この場合はステップS911の処理を行うことになる。   In addition, when all of step S903, step S905, and step S908 are No, the switched display system is a constant display system, and in this case, the process of step S911 is performed.

以上の説明により、観察者のジェスチャに基づいて表示方式を制御することができる。   As described above, the display method can be controlled based on the gesture of the observer.

上述の説明では、観察者のジェスチャ対応する表示方式を決めるような構成としたが、観察者の一つまたは複数のジェスチャにより、表示方式を選択するための画面をUI画面表示し、UI画面から表示方式の切替命令を入力する構成としても良い。   In the above description, the display method corresponding to the gesture of the observer is determined. However, the screen for selecting the display method is displayed on the UI screen by one or more gestures of the observer, and the UI screen is displayed. A configuration may be adopted in which a display mode switching command is input.

以下に、UI画面を介して表示方式の切替命令が発生する際の本装置の動作について説明する。   The operation of this apparatus when a display mode switching command is generated via the UI screen will be described below.

図10は、仮想物体の状態遷移を表す。仮想物体は初期状態では非選択状態にある。使用者が仮想物体を手でつまむ動作を行うことをイベント検出部307が検出すると、仮想物体は選択状態に遷移する。使用者が仮想物体をつまんだ状態を維持したまま、オブジェクトを動かす動作をイベント検出部307が検出すると、例えばコンピュータ上でのドラッグ操作と同一の処理が行われ、仮想物体は移動状態に遷移する。次に、使用者が仮想物体をつまむ操作を終了し、手を放す動作をイベント検出部307が検出すると、ドラッグ処理が終了したと判断し、仮想物体は表示方式選択状態に遷移する。表示方式選択状態に遷移するとイベント検出部307は、UI画像生成部311にUI画面を作成するための命令を出力する。   FIG. 10 shows the state transition of the virtual object. The virtual object is in a non-selected state in the initial state. When the event detection unit 307 detects that the user performs an operation of pinching the virtual object by hand, the virtual object transitions to the selected state. When the event detection unit 307 detects an operation of moving the object while maintaining the state in which the user is pinching the virtual object, for example, the same processing as the drag operation on the computer is performed, and the virtual object transitions to the moving state. . Next, when the event detection unit 307 detects an operation in which the user finishes pinching the virtual object and releases the hand, it is determined that the drag process has ended, and the virtual object transitions to the display method selection state. When transitioning to the display method selection state, the event detection unit 307 outputs a command for creating a UI screen to the UI image generation unit 311.

UI画像生成部311は、イベント検出部307からの出力を受け、観察者が表示方式を選択するためのグラフィックユーザーインターフェース画面(つまりUI画面)を作成する。UI画像生成部311により作成されたUI画面は、表示画像合成部309により合成される。合成された画像は、表示部202により表示される。   The UI image generation unit 311 receives the output from the event detection unit 307 and creates a graphic user interface screen (that is, a UI screen) for the observer to select a display method. The UI screen created by the UI image generation unit 311 is synthesized by the display image synthesis unit 309. The synthesized image is displayed on the display unit 202.

図11は、表示方式選択状態の際に表示部に現れる画面の一例を表す。グラフィックユーザーインターフェースは、各々の表示方式を表すアイコンを表示する。使用者は、表示された選択肢の中から、表示方式を選択する。表示方式が選択されると、イベント検出部307は表示方式切替イベントを検知し、仮想物体は再び非選択状態に遷移する。   FIG. 11 shows an example of a screen that appears on the display unit in the display method selection state. The graphic user interface displays an icon representing each display method. The user selects a display method from the displayed options. When the display method is selected, the event detection unit 307 detects a display method switching event, and the virtual object transitions to the non-selected state again.

このとき、表示方式決定部308は、選択された表示方式を表示方式切替部308に出力する。   At this time, the display method determination unit 308 outputs the selected display method to the display method switching unit 308.

次に、本装置が仮想物体のデータを取得して、表示部202に表示するまでの処理を図12を用いて説明する。データ取得部310は、表示方式決定部より、現在の表示方式を取得する(S1200)。   Next, processing from when the apparatus acquires virtual object data until it is displayed on the display unit 202 will be described with reference to FIG. The data acquisition unit 310 acquires the current display method from the display method determination unit (S1200).

取得した表示方式が位置固定表示方式の場合(S1201のYes)、位置姿勢取得部303より、観察者の現在の地球上での位置Pcを取得する(S1202)。次にステップS703により保存された基準座標の位置情報Poを取得し(S1203)、PoがPcと十分近いか判定する。ここで、十分近いとする範囲は、あらかじめ定められた固定値でも良いし、基準座標ごとに定められていても良い。PoとPcが十分の近いと判断された場合、Poは表示範囲内に含まれていると判断され(S1204)、サーバー205から仮想物体のデータが取得される(S1213)。   When the acquired display method is the fixed position display method (Yes in S1201), the position / posture acquisition unit 303 acquires the current position Pc of the observer on the earth (S1202). Next, the position information Po of the reference coordinates stored in step S703 is acquired (S1203), and it is determined whether Po is sufficiently close to Pc. Here, the sufficiently close range may be a predetermined fixed value or may be determined for each reference coordinate. If it is determined that Po and Pc are close enough, it is determined that Po is included in the display range (S1204), and virtual object data is acquired from the server 205 (S1213).

取得した表示方式がオブジェクト固定表示方式の場合(S1205のYes)は、ステップS906で保存された基準座標の特徴点を取得する。撮像部201で取得された観察者の視野画像中に、前記特徴点と一致する特徴点があるか照合する(S1207)。特徴点が一致すると判断された場合(S1208のYes)サーバー205から仮想物体のデータが取得される(S1213)。   When the acquired display method is the object fixed display method (Yes in S1205), the feature points of the reference coordinates stored in step S906 are acquired. Whether there is a feature point that matches the feature point in the visual field image of the observer acquired by the imaging unit 201 is collated (S1207). If it is determined that the feature points match (Yes in S1208), virtual object data is acquired from the server 205 (S1213).

取得した表示方式が姿勢固定表示方式の場合(S1209のYes)は、位置姿勢取得部303より、観察者の現在の姿勢を取得する(S1210)。次にステップS909で仮想物体の属性情報に保存された仮想物体表示姿勢Aoを取得する(S1211)。AcとAoが同一の方向を向いているか否か(つまり、Acは表示範囲か否か)を判断し(S1212)、同一の方向を向いている場合(つまり、Acは表示範囲である場合)は、サーバー205から仮想物体のデータが取得される(S1213)。座標計算部306は、基準となる座標系と位置姿勢取得部303により取得された観察者の位置姿勢から、取得されたデータより生成される仮想物体の三次元仮想空間内での座標変換を行う(S1214)、座標変換された仮想物体は、表示部でレンダリングされる(S1215)。   When the acquired display method is the fixed posture display method (Yes in S1209), the current posture of the observer is acquired from the position / orientation acquisition unit 303 (S1210). Next, the virtual object display posture Ao stored in the virtual object attribute information in step S909 is acquired (S1211). It is determined whether Ac and Ao are facing the same direction (that is, whether Ac is the display range) (S1212). When facing the same direction (that is, when Ac is the display range). The virtual object data is acquired from the server 205 (S1213). The coordinate calculation unit 306 performs coordinate conversion in a three-dimensional virtual space of a virtual object generated from the acquired data from the reference coordinate system and the position and orientation of the observer acquired by the position and orientation acquisition unit 303. (S1214) The coordinate-converted virtual object is rendered on the display unit (S1215).

(変形例1)
本実施の形態の変形例として、位置情報を利用した拡張現実サービスを応用しても良い。位置情報を利用した拡張現実サービスでは、現在の位置情報をサーバー送信し、表示する仮想物体を取得する。位置固定表示方式において位置Pで表示される仮想物体について、位置固定表示方式から異なる表示方式が選択された場合、ステップS1213において、サーバーに擬似的に位置Pを送信し、所望の仮想物体を取得するという方法をとっても構わない。
(Modification 1)
As a modification of the present embodiment, an augmented reality service using location information may be applied. In an augmented reality service using position information, current position information is transmitted to a server and a virtual object to be displayed is acquired. When a different display method is selected from the fixed position display methods for the virtual object displayed at the position P in the fixed position display method, the position P is simulated to the server and a desired virtual object is acquired in step S1213. You may take the method of doing.

かかる構成により、位置固定表示方式でない表示方式においても、位置情報を利用した拡張現実サービスを利用することができる。   With this configuration, an augmented reality service using position information can be used even in a display method that is not a fixed position display method.

(変形例2)
本実施の形態では、一つの仮想物体を表示する際の処理について説明したが、仮想物体は一つに限定されるものではなく、複数あって良い。この場合、仮想物体Aは位置固定モードであるが、仮想オブジェクトBは姿勢固定モードとするように、仮想物体によって表示方式を変えても良いし、各々の仮想物体に基準座標が定められて良い。
(Modification 2)
In the present embodiment, processing for displaying one virtual object has been described, but the number of virtual objects is not limited to one, and there may be a plurality of virtual objects. In this case, although the virtual object A is in the position fixing mode, the display method may be changed depending on the virtual object so that the virtual object B is in the posture fixing mode, and the reference coordinates may be determined for each virtual object. .

かかる構成により、複数の仮想物体を複数の表示方式で重畳表示することができるため、観察者にさらに多彩な拡張現実感を提供できる。   With such a configuration, a plurality of virtual objects can be displayed in a superimposed manner by a plurality of display methods, and thus a wider variety of augmented reality can be provided to the observer.

(変形例3)
本実施の形態では、観察者入力のよって表示方式を切り替えることを前提に説明したが、切替判定は観察者の入力ではなく、システムが仮想物体の属性から自動的に判断しても構わない。例えば、TODOリストのような仮想物体であれば常時表示方式、カレンダーや時計のような仮想物体であれば左を向いたときに表示する姿勢固定表示方式、商品の広告に関する仮想物体であればオブジェクト固定表示方式、不動産広告に関する仮想物体であれば、位置固定表示方式に自動的に判断するといった具合である。
(Modification 3)
Although the present embodiment has been described on the assumption that the display method is switched by an observer input, the switching determination may be automatically determined from the attribute of the virtual object instead of the observer input. For example, if it is a virtual object such as a TODO list, it will always be displayed, if it is a virtual object such as a calendar or clock, it will be displayed when it is turned to the left. If the virtual object is related to a fixed display method or real estate advertisement, the position fixed display method is automatically determined.

下記に、表示方式を自動的に判断する処理の一例を説明する。   An example of processing for automatically determining the display method will be described below.

仮想物体の属性情報には、表示方式に関するフラグが表示方式の数だけ存在し、各々の表示方式に対応する。表示方式フラグは排他的であり、ある表示方式のフラグが1(TRUE)に設定されると、その他のフラグは0(FALSE)に設定される。本フラグは、例えば仮想物体を追加または編集する際に、設定することが可能である。表示方式決定部308は仮想物体の属性情報より表示方式フラグ群を取得し、フラグが1に設定されている表示形式を仮想物体の表示形式として決定する。表示方式を決定した後はステップS901以降と同じ処理を行う。   In the attribute information of the virtual object, there are as many flags regarding the display method as the number of display methods, and each of the display methods corresponds. The display method flag is exclusive. When a flag of a certain display method is set to 1 (TRUE), the other flags are set to 0 (FALSE). This flag can be set, for example, when adding or editing a virtual object. The display method determination unit 308 acquires a display method flag group from the virtual object attribute information, and determines the display format in which the flag is set to 1 as the display format of the virtual object. After the display method is determined, the same processing as that after step S901 is performed.

かかる構成により、観察者の煩わしさを低減させながら、仮想物体の特性に応じた最もふさわしい表示形式を自動的に表示させることができる。   With this configuration, it is possible to automatically display the most appropriate display format corresponding to the characteristics of the virtual object while reducing the troublesomeness of the observer.

(変形例4)
本実施の形態では、位置固定表示方式、オブジェクト固定表示方式、常時表示方式、姿勢固定表示方式の4つの表示方式を持つことを前提として説明したが、もちろんこの4つの形式全てを備えなくても構わない。また、上記4つの表示方式以外の表示方式を備えていても構わない。
(Modification 4)
In this embodiment, the description has been made on the premise that there are four display methods: a fixed position display method, an object fixed display method, a constant display method, and a fixed posture display method. I do not care. Further, a display method other than the above four display methods may be provided.

例えば、他に、第三者の視界画像、姿勢位置、位置情報等を受信して、第三者の視界に表示される仮想オブジェトを自分の視界にも表示する他者目線表示方式等があっても良い。   For example, there are other person's line-of-sight display methods that receive a third party's view image, posture position, position information, etc. and display a virtual object displayed in the third party's view also in their own view. May be.

かかる構成により、別の場所にいる他者の視界情報を得られ、疑似体験等をすることができる。   With such a configuration, it is possible to obtain the field of view information of another person in another place and perform a simulated experience or the like.

本発明の仮想物体表示装置によれば、仮想物体の操作を容易且つ高自由度で操作することが可能になる。拡張現実を利用したクーポンサービスや、コミュニケーションサービス、アイテムを集めるような仮想空間内でのゲーム等への応用が期待される。   According to the virtual object display device of the present invention, it is possible to operate a virtual object easily and with a high degree of freedom. Expected to be applied to coupon services using augmented reality, communication services, games in a virtual space where items are collected, and the like.

101 姿勢センサ
102 姿勢情報出力部
103 メモリ
105 画像生成部
106 表示画像
200 表示装置
201 撮像部
202 表示部
203 センサ群
204 システム制御部
205 サーバー
301 位置センサ
302 姿勢センサ
303 位置姿勢取得部
304 表示方式切替部
305 基準座標決定部
306 座標計算部
307 イベント検出部
308 表示方式決定部
309 表示画像合成部
310 データ取得部
311 UI画像生成部
DESCRIPTION OF SYMBOLS 101 Posture sensor 102 Posture information output part 103 Memory 105 Image generation part 106 Display image 200 Display apparatus 201 Imaging part 202 Display part 203 Sensor group 204 System control part 205 Server 301 Position sensor 302 Posture sensor 303 Position and posture acquisition part 304 Display system switching Unit 305 Reference coordinate determination unit 306 Coordinate calculation unit 307 Event detection unit 308 Display method determination unit 309 Display image synthesis unit 310 Data acquisition unit 311 UI image generation unit

Claims (9)

観察者の位置姿勢を取得する位置姿勢取得部と、
複数の画像表示方式から、一つの表示方式を決定する表示方式決定部と、
前記表示方式決定部で決定された表示方式に、前記表示方式を切り替える表示方式切替部と、
前記表示方式決定部で決定された表示方式に基づいて、表示対象とする仮想物体の三次元仮想空間内での表示位置の基準となる座標系を決定する基準座標系決定部と、
前記仮想物体のデータを取得するデータ取得部と、
前記基準座標系決定部により決定された基準となる座標系と前記位置姿勢取得部により取得された前記観察者の位置姿勢から、三次元仮想空間内での表示対象の前記仮想物体の座標変換を行う座標計算部と、
前記データ取得部で取得した前記仮想物体のデータを、前記基準座標系決定部で決定された座標系によって、前記座標計算部で座標変換された三次元仮想空間内での所定の位置に重畳して表示部に表示する表示画面合成部と、
を備える仮想物体表示装置。
A position and orientation acquisition unit for acquiring the position and orientation of the observer;
A display method determination unit for determining one display method from a plurality of image display methods;
A display method switching unit that switches the display method to the display method determined by the display method determining unit;
Based on the display method determined by the display method determination unit, a reference coordinate system determination unit that determines a coordinate system serving as a reference of a display position in a three-dimensional virtual space of a virtual object to be displayed;
A data acquisition unit for acquiring data of the virtual object;
From the reference coordinate system determined by the reference coordinate system determination unit and the position and orientation of the observer acquired by the position and orientation acquisition unit, coordinate conversion of the virtual object to be displayed in a three-dimensional virtual space is performed. A coordinate calculator to perform,
The virtual object data acquired by the data acquisition unit is superimposed on a predetermined position in the three-dimensional virtual space coordinate-converted by the coordinate calculation unit by the coordinate system determined by the reference coordinate system determination unit. Display screen composition unit to be displayed on the display unit,
A virtual object display device comprising:
前記表示方式決定部は、前記観察者からのイベント入力に応じて表示方式を決定する請求項1に記載の仮想物体表示装置。   The virtual object display device according to claim 1, wherein the display method determination unit determines a display method according to an event input from the observer. 前記表示方式決定部は、前記観察者が画像表示方式を選択するためのグラフィックユーザーインターフェースを表示する請求項2に記載の仮想物体表示装置。   The virtual object display device according to claim 2, wherein the display method determination unit displays a graphic user interface for the observer to select an image display method. 前記表示方式決定部は、表示対象の前記仮想物体の特徴に応じて表示方式を決定する請求項1に記載の仮想物体表示装置。   The virtual object display device according to claim 1, wherein the display method determination unit determines a display method according to characteristics of the virtual object to be displayed. 前記複数の画像表示方式の一つは、前記仮想物体を地球上の緯度、経度、高度のような絶対値の位置に表示する請求項1から4のいずれか1項に記載の仮想物体表示装置。   5. The virtual object display device according to claim 1, wherein one of the plurality of image display methods displays the virtual object at a position of an absolute value such as latitude, longitude, and altitude on the earth. . 前記複数の画像表示方式の一つは、現実または仮想の特定の物体が前記観察者の視界に入っている場合に、前記仮想物体を特定の物体からの相対位置で表示する請求項1から4のいずれか1項に記載の仮想物体表示装置。   The one of the plurality of image display methods displays the virtual object at a relative position from the specific object when the real or virtual specific object is in the field of view of the observer. The virtual object display device according to any one of the above. 前記複数の画像表示方式の一つは、前記観察者の位置姿勢に関わらず、常に前記観察者の視界の特定の位置に前記仮想物体を表示する請求項1から4のいずれか1項に記載の仮想物体表示装置。   The one of the plurality of image display methods always displays the virtual object at a specific position in the field of view of the observer regardless of the position and orientation of the observer. Virtual object display device. 前記複数の画像表示方式の一つは、前記観察者の位置に関わらず、前記観察者の姿勢が、特定の姿勢と一致した場合に前記仮想物体を表示する請求項1から4のいずれか1項に記載の仮想物体表示装置。   One of the plurality of image display methods displays the virtual object when the posture of the observer matches a specific posture regardless of the position of the observer. The virtual object display device according to Item. 前記データ取得部で取得される前記仮想物体のデータには、前記仮想物体に対応した表示方式を決定するための属性情報が含まれ、
前記表示方式決定部は、前記属性情報を用いて前記表示方式を自動的に決定する請求項1記載の仮想物体表示装置。
The data of the virtual object acquired by the data acquisition unit includes attribute information for determining a display method corresponding to the virtual object,
The virtual object display device according to claim 1, wherein the display method determination unit automatically determines the display method using the attribute information.
JP2010281590A 2010-12-17 2010-12-17 Virtual object display device Pending JP2012128779A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010281590A JP2012128779A (en) 2010-12-17 2010-12-17 Virtual object display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010281590A JP2012128779A (en) 2010-12-17 2010-12-17 Virtual object display device

Publications (1)

Publication Number Publication Date
JP2012128779A true JP2012128779A (en) 2012-07-05

Family

ID=46645699

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010281590A Pending JP2012128779A (en) 2010-12-17 2010-12-17 Virtual object display device

Country Status (1)

Country Link
JP (1) JP2012128779A (en)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014106681A (en) * 2012-11-27 2014-06-09 Sony Corp Image processor, image processing method, program and terminal equipment
JP2015146113A (en) * 2014-02-03 2015-08-13 ブラザー工業株式会社 Display program and display device
WO2016017253A1 (en) * 2014-08-01 2016-02-04 ソニー株式会社 Information processing device, information processing method, and program
WO2016017254A1 (en) * 2014-08-01 2016-02-04 ソニー株式会社 Information processing device, information processing method, and program
JP2016507793A (en) * 2012-11-02 2016-03-10 クアルコム,インコーポレイテッド Determining the reference coordinate system
JP5914739B1 (en) * 2015-08-27 2016-05-11 株式会社コロプラ Program to control the head mounted display system
JP2016091078A (en) * 2014-10-30 2016-05-23 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation Generation apparatus, generation method, and program
JP2016115148A (en) * 2014-12-15 2016-06-23 キヤノンマーケティングジャパン株式会社 Information processing apparatus, information processing system, information processing method, and program
JP2017041068A (en) * 2015-08-19 2017-02-23 富士通株式会社 Display control method, information processing apparatus, and display control program
WO2017033777A1 (en) * 2015-08-27 2017-03-02 株式会社コロプラ Program for controlling head-mounted display system
JP2018049591A (en) * 2016-09-14 2018-03-29 キヤノン株式会社 Image processing apparatus, image generation method, and program
US9939274B2 (en) 2013-02-27 2018-04-10 International Business Machines Corporation Providing route guide using building information modeling (BIM) data
CN112233172A (en) * 2020-09-30 2021-01-15 北京零境科技有限公司 Video penetration type mixed reality method, system, readable storage medium and electronic equipment
JP2021157270A (en) * 2020-03-25 2021-10-07 鹿島建設株式会社 Distance measuring instrument and program
JP7561009B2 (en) 2020-11-16 2024-10-03 任天堂株式会社 Information processing system, information processing program, information processing device, and information processing method
JP7576579B2 (en) 2019-06-25 2024-10-31 ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニー SYSTEM AND METHOD FOR VIRTUAL FEATURE DEVELOPMENT - Patent application

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10309762B2 (en) 2012-11-02 2019-06-04 Qualcomm Incorporated Reference coordinate system determination
JP2016507793A (en) * 2012-11-02 2016-03-10 クアルコム,インコーポレイテッド Determining the reference coordinate system
JP2014106681A (en) * 2012-11-27 2014-06-09 Sony Corp Image processor, image processing method, program and terminal equipment
US9939274B2 (en) 2013-02-27 2018-04-10 International Business Machines Corporation Providing route guide using building information modeling (BIM) data
US10295350B2 (en) 2013-02-27 2019-05-21 International Business Machines Corporation Providing a route guide using building information modeling (BIM) data
JP2015146113A (en) * 2014-02-03 2015-08-13 ブラザー工業株式会社 Display program and display device
US10462406B2 (en) 2014-08-01 2019-10-29 Sony Corporation Information processing apparatus and information processing method
US10225506B2 (en) 2014-08-01 2019-03-05 Sony Corporation Information processing apparatus and information processing method
US10499002B2 (en) 2014-08-01 2019-12-03 Sony Corporation Information processing apparatus and information processing method
WO2016017253A1 (en) * 2014-08-01 2016-02-04 ソニー株式会社 Information processing device, information processing method, and program
JPWO2016017253A1 (en) * 2014-08-01 2017-05-18 ソニー株式会社 Information processing apparatus, information processing method, and program
JPWO2016017254A1 (en) * 2014-08-01 2017-05-18 ソニー株式会社 Information processing apparatus, information processing method, and program
WO2016017254A1 (en) * 2014-08-01 2016-02-04 ソニー株式会社 Information processing device, information processing method, and program
US10289674B2 (en) 2014-10-30 2019-05-14 International Business Machines Corporation Generation apparatus, generation method, and program
JP2016091078A (en) * 2014-10-30 2016-05-23 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation Generation apparatus, generation method, and program
US10296579B2 (en) 2014-10-30 2019-05-21 International Business Machines Corporation Generation apparatus, generation method, and program
JP2016115148A (en) * 2014-12-15 2016-06-23 キヤノンマーケティングジャパン株式会社 Information processing apparatus, information processing system, information processing method, and program
JP2017041068A (en) * 2015-08-19 2017-02-23 富士通株式会社 Display control method, information processing apparatus, and display control program
JP5914739B1 (en) * 2015-08-27 2016-05-11 株式会社コロプラ Program to control the head mounted display system
US9779702B2 (en) 2015-08-27 2017-10-03 Colopl, Inc. Method of controlling head-mounted display system
WO2017033777A1 (en) * 2015-08-27 2017-03-02 株式会社コロプラ Program for controlling head-mounted display system
JP2019067427A (en) * 2016-09-14 2019-04-25 キヤノン株式会社 Image processing apparatus, image processing method, and program
JP2018049591A (en) * 2016-09-14 2018-03-29 キヤノン株式会社 Image processing apparatus, image generation method, and program
JP2020095729A (en) * 2016-09-14 2020-06-18 キヤノン株式会社 Image processing device, image processing method, and program
US11089284B2 (en) 2016-09-14 2021-08-10 Canon Kabushiki Kaisha Image processing apparatus, image generating method, and storage medium
JP7576579B2 (en) 2019-06-25 2024-10-31 ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニー SYSTEM AND METHOD FOR VIRTUAL FEATURE DEVELOPMENT - Patent application
JP2021157270A (en) * 2020-03-25 2021-10-07 鹿島建設株式会社 Distance measuring instrument and program
JP7425641B2 (en) 2020-03-25 2024-01-31 鹿島建設株式会社 Ranging equipment and programs
CN112233172A (en) * 2020-09-30 2021-01-15 北京零境科技有限公司 Video penetration type mixed reality method, system, readable storage medium and electronic equipment
JP7561009B2 (en) 2020-11-16 2024-10-03 任天堂株式会社 Information processing system, information processing program, information processing device, and information processing method

Similar Documents

Publication Publication Date Title
JP2012128779A (en) Virtual object display device
CN110830786B (en) Detection and display of mixed 2D/3D content
US10089794B2 (en) System and method for defining an augmented reality view in a specific location
CN105264572B (en) Information processing equipment, information processing method and program
JP4679661B1 (en) Information presenting apparatus, information presenting method, and program
JP5732988B2 (en) Image processing apparatus, display control method, and program
EP3133470B1 (en) Electronic system, portable display device and guiding device
KR100953931B1 (en) System for constructing mixed reality and Method thereof
US20140267419A1 (en) Method and system for representing and interacting with augmented reality content
US9933853B2 (en) Display control device, display control program, and display control method
JP2004062756A (en) Information-presenting device and information-processing method
KR20020025301A (en) Apparatus and Method for Furnishing Augmented-Reality Graphic using Panoramic Image with Supporting Multiuser
JP2012212345A (en) Terminal device, object control method and program
JP2012068481A (en) Augmented reality expression system and method
US11227494B1 (en) Providing transit information in an augmented reality environment
KR20140080720A (en) Augmented Reality imaging based sightseeing guide apparatus
JP5511084B2 (en) COMMUNICATION DEVICE, COMMUNICATION SYSTEM, COMMUNICATION METHOD, AND COMMUNICATION PROGRAM
US10171800B2 (en) Input/output device, input/output program, and input/output method that provide visual recognition of object to add a sense of distance
CN111538405A (en) Information processing method, terminal and non-transitory computer readable storage medium
CN110622110A (en) Method and apparatus for providing immersive reality content
TW201341848A (en) Telescopic observation for virtual reality system and method thereof using intelligent electronic device
JP2012141779A (en) Device for providing augmented reality, system for providing augmented reality, and method and program for providing augmented reality
JP2017182500A (en) Input device, input program, and input method
US11568579B2 (en) Augmented reality content generation with update suspension
JP2015087909A (en) Information processing system, information processing device, information processing server, information processing method and program