Nothing Special   »   [go: up one dir, main page]

JP2010282497A - Different-world state reflection device - Google Patents

Different-world state reflection device Download PDF

Info

Publication number
JP2010282497A
JP2010282497A JP2009136448A JP2009136448A JP2010282497A JP 2010282497 A JP2010282497 A JP 2010282497A JP 2009136448 A JP2009136448 A JP 2009136448A JP 2009136448 A JP2009136448 A JP 2009136448A JP 2010282497 A JP2010282497 A JP 2010282497A
Authority
JP
Japan
Prior art keywords
information
world
virtual space
virtual
texture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009136448A
Other languages
Japanese (ja)
Inventor
Takashi Yano
隆志 矢野
Yasuhiro Tabata
泰広 田端
Katsuyuki Kaji
克行 鍛冶
Kenta Nozaki
健太 野崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2009136448A priority Critical patent/JP2010282497A/en
Publication of JP2010282497A publication Critical patent/JP2010282497A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a system for comparatively easily achieving environmental construction while guaranteeing a sense of presence as much as possible. <P>SOLUTION: A different-world state reflection device includes: an imaging information acquisition part 111 for acquiring image information of a second object as a source of reflecting motion of a first object in a closed space on a real world imaged by an imaging device from the imaging device; a positional information acquisition part 112 for acquiring the positional information of the first object in the closed space; a three-dimensional shape information preparation part 113 for preparing three-dimensional shape information corresponding to the second object from the acquired image information and positional information by using coordinate axes of a virtual world corresponding to the coordinate axes of the closed space; a texture preparation part 114 for preparing a texture corresponding to the second object from the acquired image information and positional information by using coordinate axes in the virtual world; and a transmission part 115 for transmitting the positional information, the three-dimensional shape information and the texture to a virtual space control device. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、ユーザ端末に三次元形状情報およびテクスチャから表現されるアバターを含むコンピュータグラフィックスを表示するための仮想空間制御装置と実世界における第1のオブジェクトとに通信可能であり、実世界の状態を仮想世界の状態に反映させる異世界状態反映装置に関する。   The present invention is capable of communicating with a virtual space control device for displaying computer graphics including an avatar expressed from three-dimensional shape information and texture on a user terminal and a first object in the real world. The present invention relates to a different world state reflection device that reflects a state in a virtual world state.

従来から、遠隔地間でコミュニケーションを行う場合のように、一方の状態を他方に伝達する場合には、通話専用の電話やテレビ電話が使われている。特に、テレビ電話を使う場合には、相手側の状態を視覚的に把握できるため、より臨場感のある状態の伝達が可能である。   Conventionally, when one state is transmitted to the other as in the case of communication between remote locations, a telephone or videophone dedicated to a call has been used. In particular, when using a videophone, the state of the other party can be grasped visually, so that a more realistic state can be transmitted.

これに対して、遠隔地としての異なった実空間に存在する人間同士が、特殊な仮想物体立体視メガネを装着し、相手側の立体的な仮想物体(アバターなど)の映像を見ながら、コミュニケーションを行うことができるシステムが開示されている(例えば、特許文献1参照)。この特許文献1の方法では、それぞれの実空間に設置された光学式位置センサーから得たオブジェクト(人間やテーブルなど)の位置や変化に関する情報と、予め用意された仮想物体(アバターなど)の映像とに基づき、相手側の仮想物体立体視メガネに自分側のオブジェクトの位置や変化に対応した仮想物体の映像を送る。これにより、相手側の仮想物体立体視メガネに、相手側の実空間に加え自分側の実空間の物体に対応した映像である仮想物体を重ね合わされた状態で表示させることができる。   On the other hand, humans in different real spaces as remote places wear special virtual object stereoscopic glasses and communicate while watching images of the other party's stereoscopic virtual objects (such as avatars). The system which can perform is disclosed (for example, refer to patent documents 1). In the method of Patent Document 1, information on the position and change of an object (such as a person or a table) obtained from an optical position sensor installed in each real space, and an image of a virtual object (such as an avatar) prepared in advance. Based on the above, the video of the virtual object corresponding to the position and change of the object on the own side is sent to the virtual object stereoscopic glasses on the other side. Thereby, the virtual object stereoscopic vision glasses on the other side can be displayed in a state where the virtual object that is an image corresponding to the object in the real space on the other side in addition to the real space on the other side is superimposed.

しかしながら、特許文献1に示すようなシステムでは、遠隔地のそれぞれの実空間におけるオブジェクトの位置や変化に関する情報は、それぞれの実空間に設けられた光学式位置センサーから取得している。このため、相手側の仮想物体立体視メガネには、自分側のリアルな映像ではなく、予め用意された仮想物体の映像が表示されるに過ぎない。このように、相手側の実空間に自分側の実空間のオブジェクトに対応した仮想物体が重ね合わされて表示されるという点で、テレビ電話に比べて臨場感は増加するが、相手側に自分側のオブジェクトのリアルな映像が表示されないという点で、テレビ電話に比べて臨場感が減少するという問題が生じる。   However, in a system such as that disclosed in Patent Document 1, information on the position and change of an object in each real space at a remote location is acquired from an optical position sensor provided in each real space. For this reason, the virtual object stereoscopic glasses on the other side only display the image of the virtual object prepared in advance, not the real image of the own side. In this way, the virtual object corresponding to the real space object on the other side is superimposed and displayed on the other side's real space, but the presence is increased compared to the video phone, but the other side is There is a problem that a sense of reality is reduced as compared with a video phone in that a real video of the object is not displayed.

また、特許文献1に示すようなシステムでは、遠隔地にてお互いに光学式位置センサーが設置された部屋などの環境を構築しなければならないため、状態の伝達をするための環境の構築が容易ではないという問題も生じる。   Further, in the system as shown in Patent Document 1, since it is necessary to construct an environment such as a room where optical position sensors are installed at remote locations, it is easy to construct an environment for transmitting the state. The problem is not.

本発明は、上記事情に鑑みてなされたもので、遠隔地間の状態をお互いに伝達するにあたって、極力臨場感を担保させながら、環境の構築を比較的容易に実現できるシステムを提供することを目的とする。   The present invention has been made in view of the above circumstances, and provides a system that can realize environment construction relatively easily while ensuring the sense of reality as much as possible in transmitting the state between remote locations to each other. Objective.

上述した課題を解決し、目的を達成するために、本発明は、ユーザ端末に三次元形状情報およびテクスチャから表現されるアバターを含むコンピュータグラフィックスを表示するための仮想空間制御装置と実世界における第1のオブジェクトとに通信可能であり、実世界の所定の閉空間の状態を仮想世界の状態に反映させる異世界状態反映装置であって、撮影装置により撮影された、前記第1のオブジェクトの動きの反映元となる第2のオブジェクトの画像情報を前記撮影装置から取得する撮影情報取得手段と、前記閉空間における前記第1のオブジェクトの位置を示す第1のオブジェクト位置情報を前記第1のオブジェクトから取得する位置情報取得手段と、前記閉空間に設定された座標軸に対応した仮想世界における座標軸を用いて、前記第2のオブジェクトの画像情報および前記第1のオブジェクト位置情報から、前記第2のオブジェクトに対応する三次元形状情報を作成する三次元形状情報作成手段と、前記仮想世界における座標軸を用いて、前記第2のオブジェクトの画像情報および前記第1のオブジェクト位置情報から、前記第2のオブジェクトに対応するテクスチャを作成するテクスチャ作成手段と、前記第1のオブジェクト位置情報と、前記三次元形状情報と、前記テクスチャとを前記仮想空間制御装置に送信する送信手段と、を有することを特徴とする。   In order to solve the above-described problems and achieve the object, the present invention provides a virtual space control device for displaying computer graphics including an avatar represented from three-dimensional shape information and texture on a user terminal and in the real world. A different world state reflecting device that is communicable with a first object and reflects a state of a predetermined closed space in the real world in a state of a virtual world, the first object being photographed by a photographing device Imaging information acquisition means for acquiring image information of a second object that is a reflection source of movement from the imaging device, and first object position information indicating the position of the first object in the closed space is the first object. Using the position information acquisition means acquired from the object and the coordinate axes in the virtual world corresponding to the coordinate axes set in the closed space, Using 3D shape information creating means for creating 3D shape information corresponding to the second object from the image information of the second object and the first object position information, and the coordinate axes in the virtual world, Texture creating means for creating a texture corresponding to the second object from the image information of the second object and the first object position information, the first object position information, the three-dimensional shape information, Transmission means for transmitting the texture to the virtual space control device.

本発明によれば、遠隔地間の状態をお互いに伝達するにあたって、極力臨場感を担保させながら、環境の構築を比較的容易に実現できるという効果を奏する。   According to the present invention, there is an effect that it is possible to construct an environment relatively easily while ensuring a sense of reality as much as possible when transmitting states between remote locations to each other.

図1は、状態反映システムの構成例を示すブロック図である。FIG. 1 is a block diagram illustrating a configuration example of a state reflection system. 図2は、状態反映システムに関連する実空間と仮想空間との関係を説明するための模式図である。FIG. 2 is a schematic diagram for explaining the relationship between the real space and the virtual space related to the state reflection system. 図3は、情報提供サーバの一例のハードウェア構成図である。FIG. 3 is a hardware configuration diagram of an example of the information providing server. 図4は、拡張現実と仮想現実との対応の一例を示す模式図である。FIG. 4 is a schematic diagram illustrating an example of correspondence between augmented reality and virtual reality.

以下に添付図面を参照して、この発明にかかる異世界状態反映装置の最良な実施の形態を詳細に説明する。   Exemplary embodiments of a different world state reflecting apparatus according to the present invention will be explained below in detail with reference to the accompanying drawings.

以下では、本発明の異世界状態反映装置を適用した状態反映サーバ110について説明するが、全体の概要を把握容易とするために、状態反映サーバ110を含んだ異世界状態反映システムについて図1および図2を用いて説明する。   Hereinafter, the state reflection server 110 to which the different world state reflection apparatus of the present invention is applied will be described. However, for easy understanding of the overall outline, the different world state reflection system including the state reflection server 110 is illustrated in FIG. This will be described with reference to FIG.

図1は、状態反映システムの構成例を示すブロック図である。また、図2は、状態反映システムに関連する実空間と仮想空間との関係を説明するための模式図である。   FIG. 1 is a block diagram illustrating a configuration example of a state reflection system. FIG. 2 is a schematic diagram for explaining the relationship between the real space and the virtual space related to the state reflection system.

図1に示すように、異世界状態反映システムは、実世界(実空間)における所定の閉空間としてのクライアントオフィス200、情報提供サーバ100、およびユーザ端末としてのPC(Personal Computer)300を含み、夫々インターネット、またはイントラネットといったネットワーク400を介して相互に通信可能な状態で接続されている。   As shown in FIG. 1, the different world state reflection system includes a client office 200 as a predetermined closed space in the real world (real space), an information providing server 100, and a PC (Personal Computer) 300 as a user terminal, They are connected in a state where they can communicate with each other via a network 400 such as the Internet or an intranet.

まず、クライアントオフィス200内に備えられる各装置の構成について説明する。クライアントオフィス200は、撮像装置としてのカメラ210と、ベースステーション220と、基準位置信号発信機230と、第1のオブジェクトとしてのHMD(ヘッドマウントディスプレイ)240と、を備えている。図2に示すように、クライアントオフィス200には、第2のオブジェクトとしてのユーザ22が存在する。このユーザ22が、HMD240を装備している。   First, the configuration of each device provided in the client office 200 will be described. The client office 200 includes a camera 210 as an imaging device, a base station 220, a reference position signal transmitter 230, and an HMD (head mounted display) 240 as a first object. As shown in FIG. 2, the client office 200 includes a user 22 as a second object. This user 22 is equipped with the HMD 240.

なお、第2のオブジェクトは人間に限定されることはなく、犬や猫などの他の生命体をはじめ、イスや机等の什器や家具といった種々のオブジェクトを適用することができる。また、第1のオブジェクトはHMD240に限定されることはなく、オブジェクトの位置情報を取得可能な、RFIDといった他の通信装置を適用することができる。   The second object is not limited to a human being, and various objects such as other life forms such as dogs and cats, furniture such as chairs and desks, and furniture can be applied. Further, the first object is not limited to the HMD 240, and other communication devices such as RFID that can acquire the position information of the object can be applied.

カメラ210は、クライアントオフィス200内に複数設けられている(図2参照)。カメラ210は、クライアントオフィス200を撮像することで入力した撮像情報と該撮像情報を撮影した時刻(撮影時刻)と対応づけて、ネットワーク400を介して情報提供サーバ100に逐次送信する。さらに、カメラ210は、カメラ210を特定するための、撮像装置特定情報としてのカメラIDも、ネットワーク400を介して情報提供サーバ100に送信する。   A plurality of cameras 210 are provided in the client office 200 (see FIG. 2). The camera 210 associates imaging information input by imaging the client office 200 with the time (imaging time) when the imaging information was captured, and sequentially transmits the information to the information providing server 100 via the network 400. Furthermore, the camera 210 also transmits a camera ID as image capturing apparatus specifying information for specifying the camera 210 to the information providing server 100 via the network 400.

ベースステーション220は、HMD240から、クライアントオフィス200におけるHMD240の位置情報および方向情報(位置方向情報)を受信し、受信した位置方向情報を、ネットワーク400を介して情報提供サーバ100に送信する。   The base station 220 receives the position information and direction information (position / direction information) of the HMD 240 in the client office 200 from the HMD 240 and transmits the received position / direction information to the information providing server 100 via the network 400.

位置情報とは、クライアントオフィス200内の所定位置を原点として予め定められた座標軸(図2では座標軸21)でのHMD240の位置を表す情報である。また、方向情報とは、座標軸21により表される座標系でHMD240が向いている方向を表す情報である。例えば、HMD240を装備するユーザ22の前方方向を方向情報とすることができる。   The position information is information representing the position of the HMD 240 on a predetermined coordinate axis (coordinate axis 21 in FIG. 2) with a predetermined position in the client office 200 as the origin. The direction information is information representing the direction in which the HMD 240 faces in the coordinate system represented by the coordinate axis 21. For example, the forward direction of the user 22 equipped with the HMD 240 can be used as the direction information.

基準位置信号発信機230は、HMD240が、クライアントオフィス200におけるHMD240の位置方向情報を検出可能とするための基準位置信号を発信する。例えば、基準位置信号発信機230が、GPS衛星が発信する信号と同様の基準位置信号を発信するように構成する。これにより、後述する位置方向情報検出部242が、GPS機能と同様の方法により、HMD240の位置および方向を検出可能となる。   The reference position signal transmitter 230 transmits a reference position signal for enabling the HMD 240 to detect the position direction information of the HMD 240 in the client office 200. For example, the reference position signal transmitter 230 is configured to transmit a reference position signal similar to a signal transmitted from a GPS satellite. As a result, a position / direction information detection unit 242 described later can detect the position and direction of the HMD 240 by the same method as that of the GPS function.

HMD240は、表示部241と、位置方向情報検出部242と、位置方向情報送信部243と、を備えている。   The HMD 240 includes a display unit 241, a position / direction information detection unit 242, and a position / direction information transmission unit 243.

表示部241は、情報提供サーバ100から受信した画像情報を表示する。   The display unit 241 displays the image information received from the information providing server 100.

位置方向情報検出部242は、基準位置信号発信機230から受信した基準位置信号を用いて、クライアントオフィス200におけるHMD240の位置情報と方向情報を検出する。例えば、位置方向情報検出部242は、複数の基準位置信号発信機230から発信された基準位置信号を表す搬送波の位相に基づいて位置情報と方向情報を検出する。   The position / direction information detection unit 242 detects the position information and direction information of the HMD 240 in the client office 200 using the reference position signal received from the reference position signal transmitter 230. For example, the position / direction information detection unit 242 detects position information and direction information based on the phase of a carrier wave representing a reference position signal transmitted from a plurality of reference position signal transmitters 230.

このように、位置方向情報検出部242は、GPS機能と同様の機能により位置情報と方向情報とを検出することができる。つまり、通常のGPSであれば、衛星から送信される信号を用いて位置情報と方向情報とを検出するところ、本実施の形態における位置方向情報検出部242は、衛星の替わりに基準位置信号発信機230と協働することにより、HMD240の位置情報と方向情報とを検出する。   As described above, the position / direction information detection unit 242 can detect the position information and the direction information by a function similar to the GPS function. That is, in the case of normal GPS, position information and direction information are detected using a signal transmitted from a satellite. The position / direction information detection unit 242 according to the present embodiment transmits a reference position signal instead of a satellite. By cooperating with the machine 230, position information and direction information of the HMD 240 are detected.

なお、位置方向情報を検出する方法は上記に限られるものではなく、HMD240の位置および方向を検出可能な方法であれば従来から用いられているあらゆる方法を適用できる。例えば、複数のカメラ210によって撮像された画像情報を解析することにより位置方向情報を検出するように構成してもよい。   Note that the method of detecting the position / direction information is not limited to the above, and any conventionally used method can be applied as long as the method can detect the position and direction of the HMD 240. For example, the position / direction information may be detected by analyzing image information captured by a plurality of cameras 210.

位置方向情報送信部243は、位置方向情報検出部242が検出したクライアントオフィス200におけるHMD240の位置情報および方向情報を、ベースステーション220に送信する。なお、方向情報は必要に応じて送信すればよい。   The position / direction information transmission unit 243 transmits the position information and direction information of the HMD 240 in the client office 200 detected by the position / direction information detection unit 242 to the base station 220. In addition, what is necessary is just to transmit direction information as needed.

ここで、HMD240は、位置方向情報を逐次検出し、検出された位置方向情報を逐次ベースステーション220に送信することで、ベースステーション220を介してHMD240の位置方向情報をリアルタイムで情報提供サーバ100に入力する。   Here, the HMD 240 sequentially detects the position and direction information, and sequentially transmits the detected position and direction information to the base station 220, whereby the position and direction information of the HMD 240 is transmitted to the information providing server 100 in real time via the base station 220. input.

なお、HMD240は、ユーザ22に装着されているため、HMD240の位置方向情報は、ユーザ22の位置情報と換言することができる。また、ユーザ22に連動してHMD240も動作することになるため、ユーザ22は、HMD240における動きの反映元と言える。   Since the HMD 240 is attached to the user 22, the position / direction information of the HMD 240 can be restated as the position information of the user 22. Further, since the HMD 240 also operates in conjunction with the user 22, the user 22 can be said to be a reflection source of movement in the HMD 240.

次に、情報提供サーバ100の構成について説明する。情報提供サーバ100は、異空間状態反映装置としての状態反映サーバ110と、仮想空間制御装置としての仮想空間制御サーバ120とを備えている。   Next, the configuration of the information providing server 100 will be described. The information providing server 100 includes a state reflection server 110 as a different space state reflection device and a virtual space control server 120 as a virtual space control device.

状態反映サーバ110は、撮影情報取得部111と、位置情報取得部112と、三次元形状情報作成部113と、テクスチャ作成部114と、送信部115と、方向情報取得部116と、要求部117と、を備えている。   The state reflection server 110 includes an imaging information acquisition unit 111, a position information acquisition unit 112, a three-dimensional shape information generation unit 113, a texture generation unit 114, a transmission unit 115, a direction information acquisition unit 116, and a request unit 117. And.

撮影情報取得部111は、カメラ210において撮影された撮像情報と撮影時刻とを、ネットワーク400を介して取得する。さらに、撮影情報取得部111は、カメラIDも併せて取得する。カメラ210は複数設けられているため、撮影情報取得部111は、各カメラ210から撮像情報と撮影時刻とを取得することになる。したがって、撮影情報取得部111は、ユーザ22を複数の方向から撮影した撮像画像を、ネットワーク400を介してカメラ210から取得する。   The imaging information acquisition unit 111 acquires imaging information and imaging time taken by the camera 210 via the network 400. Furthermore, the imaging information acquisition unit 111 also acquires a camera ID. Since a plurality of cameras 210 are provided, the imaging information acquisition unit 111 acquires imaging information and imaging time from each camera 210. Therefore, the shooting information acquisition unit 111 acquires captured images obtained by shooting the user 22 from a plurality of directions from the camera 210 via the network 400.

また、撮影情報取得部111は、図示しない初期画像記憶部と接続されている。初期画像記憶部は、カメラ210毎にユーザ22が存在した状態におけるクライアントオフィス200の撮像画像(以下、「初期画像」という)を記憶している。   The photographing information acquisition unit 111 is connected to an initial image storage unit (not shown). The initial image storage unit stores a captured image (hereinafter referred to as “initial image”) of the client office 200 in a state where the user 22 exists for each camera 210.

そして、取得したカメラ210毎に、初期画像記憶部に記憶されている初期画像とカメラ210から取得した撮像情報との差分をとることにより、撮影情報取得部111は、第2のオブジェクトの画像情報としてのユーザ22の画像情報を抽出する。したがって、撮影情報取得部111は、カメラ210から第2のオブジェクトの画像情報を取得する処理を実行していると言える。   Then, for each acquired camera 210, by taking the difference between the initial image stored in the initial image storage unit and the imaging information acquired from the camera 210, the imaging information acquisition unit 111 causes the image information of the second object to be acquired. The image information of the user 22 is extracted. Therefore, it can be said that the photographing information acquisition unit 111 is executing processing for acquiring image information of the second object from the camera 210.

なお、初期画像と撮像画像との差分を検出し、ユーザ22の画像情報を抽出する処理は、HMD240が実行してもよい。また、HMD240と撮影情報取得部111との間に別途画像情報抽出部を設け、この画像情報抽出部により実行してもよい。   Note that the HMD 240 may execute the process of detecting the difference between the initial image and the captured image and extracting the image information of the user 22. Further, a separate image information extraction unit may be provided between the HMD 240 and the photographing information acquisition unit 111, and the image information extraction unit may execute the image information extraction unit.

位置情報取得部112は、HMD240から、ベースステーション220を介してHMD240の位置情報を取得する。   The position information acquisition unit 112 acquires the position information of the HMD 240 from the HMD 240 via the base station 220.

三次元形状情報作成部113は、例えば特許文献2に記載された方法等により、ユーザ22の三次元形状情報を作成する。ここで、三次元形状情報作成部113における処理の概略を説明する。まず、三次元形状情報作成部113は、撮影情報取得部111が取得したユーザ22の画像情報を、カメラ210毎に撮影情報取得部111から取得する。そして、三次元形状情報作成部113は、各画像情報から特徴点を抽出することにより、ユーザ22の三次元形状情報を作成する。なお、三次元形状情報作成部113は、三次元形状情報として、ポリゴンを作成してもよいし、その他の三次元形状情報を作成するように構成してもよい。   The three-dimensional shape information creation unit 113 creates the three-dimensional shape information of the user 22 by the method described in Patent Document 2, for example. Here, an outline of processing in the three-dimensional shape information creation unit 113 will be described. First, the three-dimensional shape information creation unit 113 acquires the image information of the user 22 acquired by the shooting information acquisition unit 111 from the shooting information acquisition unit 111 for each camera 210. Then, the three-dimensional shape information creating unit 113 creates the three-dimensional shape information of the user 22 by extracting feature points from each image information. The three-dimensional shape information creating unit 113 may create a polygon as the three-dimensional shape information, or may be configured to create other three-dimensional shape information.

テクスチャ作成部114は、例えば特許文献2に記載された方法等により、ユーザ22の三次元形状情報に貼り付けるテクスチャを作成する。ここで、テクスチャ作成の概略を説明する。テクスチャ作成部114は、撮影情報取得部111が取得したユーザ22の画像情報を、三次元形状情報作成部113が作成した三次元形状情報の向きに応じたテクスチャとする。つまり、方向Aを向いた三次元形状情報が作成された場合、この三次元形状情報に貼るべきテクスチャは、A−180°の方向を向いてユーザ22を撮撮した撮像画像となる。   The texture creation unit 114 creates a texture to be pasted on the three-dimensional shape information of the user 22 by, for example, the method described in Patent Document 2. Here, an outline of texture creation will be described. The texture creation unit 114 sets the image information of the user 22 acquired by the imaging information acquisition unit 111 as a texture corresponding to the direction of the 3D shape information created by the 3D shape information creation unit 113. That is, when the three-dimensional shape information facing the direction A is created, the texture to be pasted on the three-dimensional shape information is a captured image taken of the user 22 facing the direction of A-180 °.

送信部115は、三次元形状情報作成部113によって作成された三次元形状情報、テクスチャ作成部114によって作成されたテクスチャ、および位置情報取得部112が取得したHMD240の位置情報を、後述する仮想空間制御サーバ120に送信する。ここで、上述の通り、HMD240の位置情報はユーザ22の位置情報と換言できるため、送信部115は、三次元形状情報、テクスチャ、およびユーザ22の位置情報を仮想空間制御サーバ120に送信していると言える。   The transmission unit 115 transmits the 3D shape information created by the 3D shape information creation unit 113, the texture created by the texture creation unit 114, and the location information of the HMD 240 obtained by the location information acquisition unit 112 to a virtual space described later. It transmits to the control server 120. Here, as described above, since the position information of the HMD 240 can be rephrased as the position information of the user 22, the transmission unit 115 transmits the three-dimensional shape information, the texture, and the position information of the user 22 to the virtual space control server 120. I can say that.

以上の処理により、後述の仮想空間制御サーバ120は、送信された位置情報に応じて、三次元形状情報およびテクスチャから表現されるオブジェクトを三次元仮想空間内に表示させることが可能となる。つまり、送信された位置情報と仮想世界(仮想空間)の座標軸とで決定される位置に、送信された三次元形状情報およびテクスチャから表現されるオブジェクトを配置することが可能となる。したがって、実世界の状態を仮想世界に反映させることが可能となる。   Through the above processing, the virtual space control server 120 described later can display an object expressed from the three-dimensional shape information and the texture in the three-dimensional virtual space according to the transmitted position information. That is, it is possible to place an object expressed from the transmitted three-dimensional shape information and texture at a position determined by the transmitted position information and the coordinate axis of the virtual world (virtual space). Therefore, the real world state can be reflected in the virtual world.

さらに、第2のオブジェクトとして生命体を用いた場合、カメラ210から逐次送信される撮像情報を用いてテクスチャを作成するため、生命体の表情等が三次元仮想空間内に逐次表示されることとなり、より高度なコミュニケーションが可能となる。   In addition, when a living object is used as the second object, a texture is created using imaging information sequentially transmitted from the camera 210, so that the expression of the living object is sequentially displayed in the three-dimensional virtual space. , More advanced communication is possible.

なお、仮想空間の座標軸は、実空間のクライアントオフィス200の座標軸に対応するように定められる。図2では、仮想空間30の座標軸31が、実空間のクライアントオフィス200の座標軸21に対応する。図2の仮想空間30は、仮想空間を生成する仮想空間制御サーバ120の仮想空間生成部122(詳細は後述)によって生成される仮想的な空間を模式的に示したものである。   Note that the coordinate axes of the virtual space are determined to correspond to the coordinate axes of the client office 200 in the real space. In FIG. 2, the coordinate axis 31 of the virtual space 30 corresponds to the coordinate axis 21 of the client office 200 in the real space. A virtual space 30 in FIG. 2 schematically shows a virtual space generated by a virtual space generation unit 122 (details will be described later) of the virtual space control server 120 that generates the virtual space.

また、図2では、実空間内のイス、机、部屋の仕切り等のオブジェクトを、そのまま仮想空間30内に表示させる例が示されている。このため、図2の例では、実世界のユーザ22の状態を反映した仮想世界のユーザ32を、仮想世界(仮想空間30)に表示させることができる。   FIG. 2 shows an example in which objects such as chairs, desks, and room partitions in the real space are displayed in the virtual space 30 as they are. For this reason, in the example of FIG. 2, the user 32 of the virtual world reflecting the state of the user 22 of the real world can be displayed in the virtual world (virtual space 30).

続いて、仮想空間の状態を実空間に反映させるための構成について説明する。   Next, a configuration for reflecting the state of the virtual space in the real space will be described.

方向情報取得部116は、HMD240から、ベースステーション220を介してHMD240の方向情報を取得する。   The direction information acquisition unit 116 acquires the direction information of the HMD 240 from the HMD 240 via the base station 220.

要求部117は、取得されたHMD240の方向情報と、位置情報取得部112が取得したHMD240の位置情報とを、仮想空間制御サーバ120に送信することにより、仮想空間制御サーバ120に対して、コンピュータグラフィックのデータを要求する。   The request unit 117 transmits the acquired direction information of the HMD 240 and the position information of the HMD 240 acquired by the position information acquisition unit 112 to the virtual space control server 120, thereby causing the computer to the virtual space control server 120. Request graphic data.

ここで、仮想空間にて表現されるコンピュータグラフィックのデータは、2種類に大別することができる。一つは仮想空間における背景や建物といったオブジェクトと、人や動物といったアバターである。アバターとは、仮想空間にてユーザが活動する際の分身といえ、ユーザがPC300を介して操作可能なキャラクターである。図2では、動物を模したアバター33を仮想空間30内に表示した例が示されている。   Here, computer graphic data expressed in a virtual space can be roughly divided into two types. One is objects such as backgrounds and buildings in a virtual space, and avatars such as people and animals. The avatar is a character that can be operated by the user via the PC 300 in the virtual space. FIG. 2 shows an example in which an avatar 33 that imitates an animal is displayed in the virtual space 30.

要求部117は、コンピュータグラフィックスのうち、アバターのコンピュータグラフィックの送信要求を行なう。   The request unit 117 makes a transmission request for computer graphics of avatars among computer graphics.

次に、仮想空間制御サーバ120の構成の詳細について説明する。仮想空間制御サーバ120は、三次元仮想空間を提供するためのサーバであり、ネットワーク400を介してPC300に接続されている。仮想空間制御サーバ120は、要求受付部121と、仮想空間生成部122と、画像送信部123とを備えている。   Next, details of the configuration of the virtual space control server 120 will be described. The virtual space control server 120 is a server for providing a three-dimensional virtual space, and is connected to the PC 300 via the network 400. The virtual space control server 120 includes a request reception unit 121, a virtual space generation unit 122, and an image transmission unit 123.

要求受付部121は、視野情報と仮想空間内における位置情報とをPC300から受付ける。視野情報とは、仮想空間内でのPC300のユーザの視線方向を表す情報である。例えばマウスの操作により仮想空間内での視野を動かすマウスルックと呼ばれる方法により、視野情報が変更される。視野情報および位置情報を受付けた要求受付部121は、仮想空間生成部122に視野情報および位置情報を入力する。   The request receiving unit 121 receives visual field information and position information in the virtual space from the PC 300. The visual field information is information that represents the line-of-sight direction of the user of the PC 300 in the virtual space. For example, the visual field information is changed by a method called mouse look that moves the visual field in the virtual space by operating the mouse. The request reception unit 121 that has received the visual field information and the position information inputs the visual field information and the position information to the virtual space generation unit 122.

仮想空間生成部122は、視野情報および位置情報に応じたアバターを含む仮想空間のコンピュータグラフィックスを生成する。仮想空間生成部122は、入力された位置情報から所定の距離だけ離れた位置に表現すべきコンピュータグラフィックスであって、入力された視野情報に応じた領域に存在すべきコンピュータグラフィックスを生成する。   The virtual space generation unit 122 generates computer graphics of a virtual space including avatars according to the visual field information and the position information. The virtual space generation unit 122 generates computer graphics that should be expressed at a position separated from the input position information by a predetermined distance, and that should exist in an area corresponding to the input visual field information. .

画像送信部123は、生成されたコンピュータフィックスをPC300に送信することで、PC300のディスプレイに三次元仮想空間を表示させる。   The image transmission unit 123 displays the three-dimensional virtual space on the display of the PC 300 by transmitting the generated computer fix to the PC 300.

なお、仮想空間制御サーバ120における上記各処理は、SecondLife(登録商標)等における三次元仮想空間の提供と同じ方法により実現できる。   Each process in the virtual space control server 120 can be realized by the same method as the provision of a three-dimensional virtual space in SecondLife (registered trademark) or the like.

要求受付部121は、さらに、状態反映サーバ110からHMD240の位置情報および方向情報を受付ける。そして、HMD240の位置情報および方向情報とを受付けた要求受付部121は、仮想空間生成部122に位置情報および方向情報を入力する。   The request reception unit 121 further receives the position information and direction information of the HMD 240 from the state reflection server 110. Then, the request reception unit 121 that has received the position information and direction information of the HMD 240 inputs the position information and direction information to the virtual space generation unit 122.

仮想空間生成部122は、入力された情報等を元に、PC300に表示する仮想空間のコンピュータグラフィックスを生成するか、HMD240の表示部241に表示するアバターのコンピュータグラフィックスを生成するかを判断する。仮想空間生成部122は、例えば、要求受付部121から要求元を判別する要求元情報を入力し、この要求元情報が状態反映サーバ110を表す場合に、表示部241に表示するアバターのコンピュータグラフィックスを生成すると判断する。表示部241に表示するアバターのコンピュータグラフィックスを生成すると判断した場合、仮想空間生成部122は、入力された位置情報から所定の距離だけ離れた位置に表現すべきコンピュータグラフィックスであって、入力された方向情報に応じた領域に存在すべきアバターのコンピュータグラフィックスを生成する。   The virtual space generation unit 122 determines whether to generate computer graphics of a virtual space to be displayed on the PC 300 or to generate computer graphics of an avatar to be displayed on the display unit 241 of the HMD 240 based on the input information or the like. To do. The virtual space generation unit 122 receives, for example, request source information for determining the request source from the request reception unit 121, and the computer graphic of the avatar displayed on the display unit 241 when the request source information represents the state reflection server 110 It is determined that the When it is determined that the computer graphics of the avatar to be displayed on the display unit 241 is to be generated, the virtual space generation unit 122 is a computer graphic to be expressed at a position separated from the input position information by a predetermined distance. The computer graphics of the avatar which should exist in the area | region according to the direction information made is produced | generated.

仮想空間生成部122は、生成したアバターのコンピュータグラフィックスを、要求元である状態反映サーバ110に送信する。そして、状態反映サーバ110の送信部115が、生成されたアバターの画像を、ネットワーク400を介してHMD240に送信する。   The virtual space generation unit 122 transmits the generated computer graphics of the avatar to the state reflection server 110 that is the request source. Then, the transmission unit 115 of the state reflection server 110 transmits the generated avatar image to the HMD 240 via the network 400.

以上の処理により、HMD240の表示部241に対して、三次元仮想空間に存在するアバターをHMD240の方向情報に応じて表示させることが可能となる。そして、HMD240を通じて実世界に存在するユーザ22が、あたかも三次元仮想空間に存在するアバターが実世界に存在かの如く視認することが可能となる。図2の例では、仮想空間30内のアバター33に対応するアバター23が、クライアントオフィス200内に存在するかのように、HMD240の表示部241に表示される。   With the above processing, the avatar present in the three-dimensional virtual space can be displayed on the display unit 241 of the HMD 240 according to the direction information of the HMD 240. Then, the user 22 existing in the real world through the HMD 240 can visually recognize as if the avatar existing in the three-dimensional virtual space exists in the real world. In the example of FIG. 2, the avatar 23 corresponding to the avatar 33 in the virtual space 30 is displayed on the display unit 241 of the HMD 240 as if it exists in the client office 200.

次に、情報提供サーバ100のハードウェア構成を、図3を用いて説明する。図3は、情報提供サーバ100の一例のハードウェア構成図である。   Next, the hardware configuration of the information providing server 100 will be described with reference to FIG. FIG. 3 is a hardware configuration diagram of an example of the information providing server 100.

図3に示されるように、情報提供サーバ100は、それぞれバスで相互に接続されている入力装置11と、表示装置12と、ドライブ装置13と、記憶媒体14と、ROM(Read Only Memory)15と、RAM(Random Access Memory)16と、CPU(Central Processing Unit)17と、インターフェース装置18と、HDD(Hard Disk Drive)19とから構成されている。   As shown in FIG. 3, the information providing server 100 includes an input device 11, a display device 12, a drive device 13, a storage medium 14, and a ROM (Read Only Memory) 15, which are mutually connected by a bus. And a RAM (Random Access Memory) 16, a CPU (Central Processing Unit) 17, an interface device 18, and an HDD (Hard Disk Drive) 19.

入力装置11は、情報提供サーバ100のユーザが操作するキーボード及びマウス等で構成され、情報提供サーバ100に各種操作信号を入力するのに用いられる。   The input device 11 includes a keyboard and a mouse operated by a user of the information providing server 100 and is used to input various operation signals to the information providing server 100.

表示装置12は、情報提供サーバ100のユーザが利用するディスプレイ等で構成され、各種情報を表示する。   The display device 12 includes a display used by the user of the information providing server 100 and displays various types of information.

インターフェース装置18は、情報提供サーバ100をネットワーク等に接続するインターフェースである。   The interface device 18 is an interface that connects the information providing server 100 to a network or the like.

情報提供サーバ100上で実行される各種処理を行う情報提供サーバ100のプログラム等は、例えば、CD−ROM等の記憶媒体14によって情報提供サーバ100に提供されるか、ネットワークを通じてダウンロードされる。記憶媒体14は、ドライブ装置13にセットされ、前記プログラム等が記憶媒体14からドライブ装置13を介してROM15にインストールされる。   A program or the like of the information providing server 100 that performs various processes executed on the information providing server 100 is provided to the information providing server 100 by the storage medium 14 such as a CD-ROM or downloaded through the network. The storage medium 14 is set in the drive device 13, and the program and the like are installed in the ROM 15 from the storage medium 14 via the drive device 13.

ROM15は、データや前記プログラム等を格納する。RAM16は、情報提供サーバ100の起動時にROM15から前記プログラム等を読み出して格納する。CPU17は、RAM16に読み出され、格納された前記プログラム等に従って処理を実行する。   The ROM 15 stores data, the program, and the like. The RAM 16 reads and stores the program and the like from the ROM 15 when the information providing server 100 is activated. The CPU 17 executes processing in accordance with the program read out and stored in the RAM 16.

HDD19は、データやファイルを格納する。   The HDD 19 stores data and files.

なお、PC300のハードウェア構成は、図3に示した情報提供サーバ100のハードウェア構成と同様である。また、上記説明では、情報提供サーバ100内に状態反映サーバ110および仮想空間制御サーバ120を備える例を説明したが、状態反映サーバ110および仮想空間制御サーバ120をそれぞれ物理的に異なる装置として実現してもよい。この場合、状態反映サーバ110および仮想空間制御サーバ120が、図3に示すようなハードウェア構成を備えるように構成することができる。   Note that the hardware configuration of the PC 300 is the same as the hardware configuration of the information providing server 100 shown in FIG. In the above description, the example in which the state reflection server 110 and the virtual space control server 120 are provided in the information providing server 100 has been described. However, the state reflection server 110 and the virtual space control server 120 are realized as physically different devices. May be. In this case, the state reflection server 110 and the virtual space control server 120 can be configured to have a hardware configuration as shown in FIG.

次に、本実施の形態の実世界(拡張現実)と仮想世界(仮想現実)の関係の具体例について図4を用いて説明する。図4は、拡張現実と仮想現実との対応の一例を示す模式図である。アバターが拡張現実に出現し、人がメタバースで活動することが可能であり、実世界とメタバースのどちらかで起きた事象は必ず他方でも起きる。図4に一つの例を示す。実世界空間とそれをコピーして創った仮想現実空間は共通の空間座標を持ち、実世界の人401は、HMD240により実世界にアバター402を見ることができる。また、アバターのユーザはPC300のディスプレイで仮想現実空間に実世界の人403の映像を見ることができる。   Next, a specific example of the relationship between the real world (augmented reality) and the virtual world (virtual reality) according to the present embodiment will be described with reference to FIG. FIG. 4 is a schematic diagram illustrating an example of correspondence between augmented reality and virtual reality. Avatars appear in augmented reality and people can work in the metaverse, and events that happen in either the real world or the metaverse will always happen on the other side. An example is shown in FIG. The real world space and the virtual reality space created by copying it have common space coordinates, and the real world person 401 can see the avatar 402 in the real world by the HMD 240. Also, the user of the avatar can see the video of the person 403 in the real world in the virtual reality space on the display of the PC 300.

11 入力装置
12 表示装置
13 ドライブ装置
14 記憶媒体
15 ROM
16 RAM
17 CPU
18 インターフェース装置
19 HDD
21、31 座標軸
22、32 ユーザ
23、33 アバター
30 仮想空間
100 情報提供サーバ
110 状態反映サーバ
111 撮影情報取得部
112 位置情報取得部
113 三次元形状情報作成部
114 テクスチャ作成部
115 送信部
116 方向情報取得部
117 要求部
120 仮想空間制御サーバ
121 要求受付部
122 仮想空間生成部
123 画像送信部
200 クライアントオフィス
210 カメラ
220 ベースステーション
230 基準位置信号発信機
241 表示部
242 位置方向情報検出部
243 位置方向情報送信部
400 ネットワーク
11 Input device 12 Display device 13 Drive device 14 Storage medium 15 ROM
16 RAM
17 CPU
18 Interface device 19 HDD
21, 31 Coordinate axes 22, 32 User 23, 33 Avatar 30 Virtual space 100 Information providing server 110 State reflection server 111 Imaging information acquisition unit 112 Position information acquisition unit 113 Three-dimensional shape information generation unit 114 Texture generation unit 115 Transmission unit 116 Direction information Acquisition unit 117 Request unit 120 Virtual space control server 121 Request reception unit 122 Virtual space generation unit 123 Image transmission unit 200 Client office 210 Camera 220 Base station 230 Reference position signal transmitter 241 Display unit 242 Position / direction information detection unit 243 Position / direction information Transmitter 400 network

特開2002−305758号公報JP 2002-305758 A 特開2001−022936号公報JP 2001-022936 A

Claims (4)

ユーザ端末に三次元形状情報およびテクスチャから表現されるアバターを含むコンピュータグラフィックスを表示するための仮想空間制御装置と実世界における第1のオブジェクトとに通信可能であり、実世界の所定の閉空間の状態を仮想世界の状態に反映させる異世界状態反映装置であって、
撮影装置により撮影された、前記第1のオブジェクトの動きの反映元となる第2のオブジェクトの画像情報を前記撮影装置から取得する撮影情報取得手段と、
前記閉空間における前記第1のオブジェクトの位置を示す第1のオブジェクト位置情報を前記第1のオブジェクトから取得する位置情報取得手段と、
前記閉空間に設定された座標軸に対応した仮想世界における座標軸を用いて、前記第2のオブジェクトの画像情報および前記第1のオブジェクト位置情報から、前記第2のオブジェクトに対応する三次元形状情報を作成する三次元形状情報作成手段と、
前記仮想世界における座標軸を用いて、前記第2のオブジェクトの画像情報および前記第1のオブジェクト位置情報から、前記第2のオブジェクトに対応するテクスチャを作成するテクスチャ作成手段と、
前記第1のオブジェクト位置情報と、前記三次元形状情報と、前記テクスチャとを前記仮想空間制御装置に送信する送信手段と、
を有することを特徴とする異世界状態反映装置。
A virtual space control device for displaying computer graphics including avatars expressed from three-dimensional shape information and textures on a user terminal and a first object in the real world can communicate with each other, and a predetermined closed space in the real world A different world state reflection device that reflects the state of the world in the state of the virtual world,
Shooting information acquisition means for acquiring image information of the second object, which is a reflection source of the movement of the first object, shot by the shooting device;
Position information acquisition means for acquiring first object position information indicating the position of the first object in the closed space from the first object;
Using the coordinate axes in the virtual world corresponding to the coordinate axes set in the closed space, the three-dimensional shape information corresponding to the second object is obtained from the image information of the second object and the first object position information. 3D shape information creation means to create,
Texture creating means for creating a texture corresponding to the second object from the image information of the second object and the first object position information using coordinate axes in the virtual world;
Transmitting means for transmitting the first object position information, the three-dimensional shape information, and the texture to the virtual space control device;
A different world state reflecting device characterized by comprising:
前記閉空間に設定された座標軸における前記第1のオブジェクトの方向を示す第1のオブジェクト方向情報を前記第1のオブジェクトから取得する第1のオブジェクト方法情報取得手段と、
前記第1のオブジェクト位置情報および前記第1のオブジェクト方向情報を前記仮想空間制御装置に送信し、前記仮想空間制御装置に対して前記アバターのコンピュータグラフィックスのデータを要求する要求手段と、を有し、
前記送信手段は、前記要求手段によって要求することで前記仮想空間制御装置から入手した前記アバターのコンピュータグラフィックスのデータを前記第1のオブジェクトに送信することを特徴とする請求項1に記載の異世界状態反映装置。
First object method information acquisition means for acquiring, from the first object, first object direction information indicating the direction of the first object on the coordinate axis set in the closed space;
Requesting means for transmitting the first object position information and the first object direction information to the virtual space control device and requesting the virtual space control device for computer graphics data of the avatar. And
2. The difference according to claim 1, wherein the transmission unit transmits the computer graphics data of the avatar obtained from the virtual space control device to the first object by requesting the request unit. World state reflection device.
前記第2のオブジェクトは生命体であり、前記第1のオブジェクトは前記生命体に装着可能なヘッドマウントディスプレイであることを特徴とする請求項1または2に記載の異世界状態反映装置。   3. The different world state reflecting apparatus according to claim 1, wherein the second object is a life form, and the first object is a head mounted display that can be attached to the life form. 前記第2のオブジェクトは什器であり、前記第1のオブジェクトは前記什器に装着可能な通信装置であることを特徴とする請求項1乃至3のいずれか一項に記載の異世界状態反映装置。   4. The different world state reflecting apparatus according to claim 1, wherein the second object is a fixture, and the first object is a communication device that can be attached to the fixture. 5.
JP2009136448A 2009-06-05 2009-06-05 Different-world state reflection device Pending JP2010282497A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009136448A JP2010282497A (en) 2009-06-05 2009-06-05 Different-world state reflection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009136448A JP2010282497A (en) 2009-06-05 2009-06-05 Different-world state reflection device

Publications (1)

Publication Number Publication Date
JP2010282497A true JP2010282497A (en) 2010-12-16

Family

ID=43539159

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009136448A Pending JP2010282497A (en) 2009-06-05 2009-06-05 Different-world state reflection device

Country Status (1)

Country Link
JP (1) JP2010282497A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014109802A (en) * 2012-11-30 2014-06-12 Casio Comput Co Ltd Image processor, image processing method and program
JP6888854B1 (en) * 2020-09-02 2021-06-16 シンメトリー・ディメンションズ・インク Remote work support system and remote work support method
JP2022008400A (en) * 2017-05-09 2022-01-13 ソニーグループ株式会社 Client apparatus, display system, client apparatus processing method, and program
WO2023090163A1 (en) 2021-11-19 2023-05-25 ソニーグループ株式会社 Information processing device, information processing method, and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1196366A (en) * 1997-09-19 1999-04-09 Nippon Telegr & Teleph Corp <Ntt> Method and device for synthesizing facial image of person wearing head mount display
JP2003346190A (en) * 2002-05-29 2003-12-05 Canon Inc Image processor
JP2004102835A (en) * 2002-09-11 2004-04-02 Univ Waseda Information providing method and system therefor, mobile terminal device, head-wearable device, and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1196366A (en) * 1997-09-19 1999-04-09 Nippon Telegr & Teleph Corp <Ntt> Method and device for synthesizing facial image of person wearing head mount display
JP2003346190A (en) * 2002-05-29 2003-12-05 Canon Inc Image processor
JP2004102835A (en) * 2002-09-11 2004-04-02 Univ Waseda Information providing method and system therefor, mobile terminal device, head-wearable device, and program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
野口 康人 YASUHITO NOGUCHI: "複合現実感を用いた分散会議における複数アバタの配置と表現 Study on Placement and Presentation of Mul", 情報処理学会論文誌 第48巻 第1号 IPSJ JOURNAL, vol. 第48巻 第1号, JPN6013007234, 15 January 2007 (2007-01-15), JP, pages 54 - 62, ISSN: 0002459857 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014109802A (en) * 2012-11-30 2014-06-12 Casio Comput Co Ltd Image processor, image processing method and program
JP2022008400A (en) * 2017-05-09 2022-01-13 ソニーグループ株式会社 Client apparatus, display system, client apparatus processing method, and program
JP7173249B2 (en) 2017-05-09 2022-11-16 ソニーグループ株式会社 CLIENT DEVICE, DISPLAY SYSTEM, CLIENT DEVICE PROCESSING METHOD AND PROGRAM
JP6888854B1 (en) * 2020-09-02 2021-06-16 シンメトリー・ディメンションズ・インク Remote work support system and remote work support method
JP2022042423A (en) * 2020-09-02 2022-03-14 シンメトリー・ディメンションズ・インク Remote work assisting system and remote work assisting method
WO2023090163A1 (en) 2021-11-19 2023-05-25 ソニーグループ株式会社 Information processing device, information processing method, and program

Similar Documents

Publication Publication Date Title
US11127210B2 (en) Touch and social cues as inputs into a computer
JP7506091B2 (en) Image-based localization
EP3619599B1 (en) Virtual content displayed with shared anchor
CN109891365B (en) Virtual reality and cross-device experience
JP5843340B2 (en) 3D environment sharing system and 3D environment sharing method
KR101637990B1 (en) Spatially correlated rendering of three-dimensional content on display components having arbitrary positions
US20130174213A1 (en) Implicit sharing and privacy control through physical behaviors using sensor-rich devices
US8933931B2 (en) Distributed asynchronous localization and mapping for augmented reality
US8660362B2 (en) Combined depth filtering and super resolution
KR101591493B1 (en) System for the rendering of shared digital interfaces relative to each user&#39;s point of view
KR101292463B1 (en) Augmented reality system and method that share augmented reality service to remote
KR20160148557A (en) World-locked display quality feedback
CN102959616A (en) Interactive reality augmentation for natural interaction
JP2020065229A (en) Video communication method, video communication device, and video communication program
JP6409861B2 (en) Information processing apparatus, information processing system, control method thereof, and program
JP2017010387A (en) System, mixed-reality display device, information processing method, and program
KR20180120456A (en) Apparatus for providing virtual reality contents based on panoramic image and method for the same
JP2015118442A (en) Information processor, information processing method, and program
JP2010282497A (en) Different-world state reflection device
EP3316222B1 (en) Pre-visualization device
US20200410734A1 (en) Spatial reproduction method and spatial reproduction system
KR101315398B1 (en) Apparatus and method for display 3D AR information
JP2023134045A (en) Communication apparatus, communication system, display method, and program
WO2024145124A1 (en) Device pairing using machine-readable optical label
AU2023238467A1 (en) Multilocation augmented reality

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120508

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130422

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130514