JP3530772B2 - Mixed reality device and mixed reality space image generation method - Google Patents
Mixed reality device and mixed reality space image generation methodInfo
- Publication number
- JP3530772B2 JP3530772B2 JP16471799A JP16471799A JP3530772B2 JP 3530772 B2 JP3530772 B2 JP 3530772B2 JP 16471799 A JP16471799 A JP 16471799A JP 16471799 A JP16471799 A JP 16471799A JP 3530772 B2 JP3530772 B2 JP 3530772B2
- Authority
- JP
- Japan
- Prior art keywords
- marker
- image
- player
- mixed reality
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/10—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
- A63F2300/1012—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals involving biosensors worn by the player, e.g. for measuring heart beat, limb activity
Landscapes
- Processing Or Creating Images (AREA)
- Studio Circuits (AREA)
- Closed-Circuit Television Systems (AREA)
- User Interface Of Digital Computer (AREA)
Description
【0001】[0001]
【発明の属する技術分野】本発明は、マーカを位置指標
として用いる複合現実感装置において、複合現実空間を
観察するプレーヤがマーカの存在を意識することなく、
複合現実空間の観察に集中できる複合現実感装置及び複
合現実空間画像の生成方法に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a mixed reality apparatus using a marker as a position index, without the player observing the mixed reality space being aware of the presence of the marker.
The present invention relates to a mixed reality apparatus that can concentrate on observation of a mixed reality space and a method for generating a mixed reality space image.
【0002】[0002]
【従来の技術】近年、現実空間と仮想空間の継ぎ目のな
い結合を目的とした複合現実感(Mixed Reality、M
R)に関する研究が盛んになっている。MRは従来、現
実空間と切り離された状況でのみ体験可能であったバー
チャルリアリティ(VR)の世界と現実空間との共存を
目的とし、VRを増強する技術として注目されている。In recent years, mixed reality for the purpose of seamless coupling of real space and virtual space (Mixed Reality, M
Research on R) has become popular. MR has been attracting attention as a technique for enhancing VR for the purpose of coexistence of the world of virtual reality (VR), which was conventionally available only in a situation separated from the physical space, and the physical space.
【0003】複合現実感を実現する装置として代表的な
ものは、ヘッドマウントディスプレイ(HMD)であ
る。すなわち、現実空間と仮想空間をHMDに合成して
表示することにより、複合現実感を実現するものであ
る。また、HMDを用いたMRの方式としては、半透過
型(シースルー型)のヘッドマウントディスプレイ(H
MD)にCG等の画像を重畳する光学シースルー方式
と、HMDに装着したビデオカメラで撮影した画像デー
タにCG等の画像を合成した後、HMDに表示するビデ
オシースルー方式がある。A typical device for realizing mixed reality is a head mounted display (HMD). That is, the mixed reality is realized by synthesizing and displaying the real space and the virtual space on the HMD. As an MR method using the HMD, a semi-transmissive (see-through type) head mounted display (H
There are an optical see-through method of superimposing an image of CG or the like on the MD) and a video see-through method of displaying an image on the HMD after the image of the CG or the like is combined with image data taken by a video camera mounted on the HMD.
【0004】MRの用途としては、患者の体内の様子を
透過しているように医師に提示する医療補助の用途や、
工場において製品の組み立て手順を実物に重ねて表示す
る作業補助の用途など、今までのVRとは質的に全く異
なった新たな分野が期待されている。[0004] MR is used as a medical assistance to present to a doctor as if the patient's internal condition is seen through, and
It is expected that new fields will be qualitatively completely different from the VRs used up to now, such as the use of work assistance in which the assembly procedure of products is displayed on the actual product in a factory.
【0005】これらの応用に対して共通に要求されるの
は、現実空間と仮想空間の間の”ずれ”をいかにして取
り除くかという技術である。”ずれ”は位置ずれ、時間
ずれ、質的ずれに分類可能であり、この中でももっとも
基本的な要求といえる位置ずれの解消については、従来
から多くの取り組みが行われてきた。What is commonly required for these applications is a technique for removing the "deviation" between the real space and the virtual space. “Misalignment” can be classified into misalignment, time misalignment, and qualitative misalignment. Among these, many efforts have been made to solve misalignment, which is the most basic requirement.
【0006】特にビデオシースルー方式MRの場合、位
置ずれを補正する方法として画像処理の手法が比較的容
易に適用できるため、画像処理を利用した位置合わせに
ついて従来提案がなされている。Particularly in the case of the video see-through type MR, an image processing method can be applied relatively easily as a method for correcting the positional deviation. Therefore, a conventional proposal has been made for the alignment using the image processing.
【0007】具体的には、現実空間の所定位置に、画像
処理によって検出しやすい色で印付けされたマーカを配
置し、プレーヤが装着したカメラで撮影した画像から検
出したマーカ位置によって 視点位置を計算する方法
や、画像中のマーカ位置によって位置姿勢センサの出力
信号を補正する方法などである。Specifically, a marker marked with a color that can be easily detected by image processing is arranged at a predetermined position in the real space, and the viewpoint position is determined by the marker position detected from the image taken by the camera worn by the player. There are a calculation method and a method of correcting the output signal of the position and orientation sensor according to the marker position in the image.
【0008】[0008]
【発明が解決しようとする課題】画像データ中のマーカ
を検出し、その結果によってプレーヤの位置姿勢を推定
する場合には、マーカは、画像中に適度な大きさかつほ
ぼ均一な間隔で現れる必要がある。また、視点位置の計
算には十分な個数のマーカが同時に画像中で検出される
必要があるため、画像中である程度狭い間隔で観測され
るようにマーカを配置する必要がある。When a marker in image data is detected and the position and orientation of the player is estimated based on the result, the marker must appear in the image at an appropriate size and at substantially uniform intervals. There is. Further, since it is necessary to detect a sufficient number of markers in the image at the same time to calculate the viewpoint position, it is necessary to arrange the markers so that they can be observed at a certain narrow interval in the image.
【0009】一方、マーカの追跡精度や識別精度を上げ
るためには,画像中である程度広い間隔で観測されるよ
うにマーカを配置する必要がある。On the other hand, in order to improve the tracking accuracy and identification accuracy of the markers, it is necessary to arrange the markers so that they can be observed at a somewhat wide interval in the image.
【0010】プレーヤが一人の場合であれば、このよう
な条件を満たすようにマーカを配置することは困難では
ないが、複数のプレーヤが共通の複合現実空間を共有す
るようなアプリケーションにおいては、あるプレーヤか
らは等間隔で観測可能に配置されたマーカが、他のプレ
ーヤからは等間隔に観測されないことが起こりうる。When there is only one player, it is not difficult to arrange the markers so as to satisfy such a condition, but in an application where a plurality of players share a common mixed reality space, it is possible. It is possible that markers that are observable at equal intervals from the player are not observed at equal intervals from other players.
【0011】そのため、特開平11−84307号公報
では、2人のプレーヤが現実物体であるテーブル上で仮
想のパックを打ち合うエアホッケーゲームにおいて、プ
レーヤごとに異なる色のマーカを設けることによって、
各プレーヤからマーカが好適な配置と大きさで観測でき
るように構成している。Therefore, in Japanese Unexamined Patent Publication No. 11-84307, in an air hockey game in which two players strike a virtual puck on a table, which is a real object, markers of different colors are provided for each player.
The markers can be observed by each player in a suitable arrangement and size.
【0012】しかしながら、同一複合現実空間を共有す
るプレーヤが増えると、色分けによるマーカ配置が困難
になってくる。すなわち、画像処理によって色を検出す
るためには、マーカと背景物体の色および異なるユーザ
間のマーカの色はそれぞれ画像処理によって容易に検
出、分離が可能な色である必要があるが、使用する色が
増加するとこの条件をみたすことが困難になり、抽出誤
りやマーカ相互の識別誤りの発生原因となる。However, as the number of players sharing the same mixed reality space increases, it becomes difficult to arrange markers by color coding. That is, in order to detect a color by image processing, the color of the marker and the background object and the color of the marker between different users must be colors that can be easily detected and separated by the image processing. If the number of colors increases, it becomes difficult to meet this condition, which causes an extraction error or an identification error between markers.
【0013】図10は、複数色のマーカを用いた際の誤
認識原因について説明する図である。図10において、
横軸は赤、縦軸は緑を示し、説明を簡略化するために青
色の軸を省略して記載してある。図において、領域Aは
マーカtypeA(赤色マーカ)の色分布を定義する領
域、領域BはマーカtypeB(橙色マーカ)の色分布
を定義する領域をそれぞれ示している。このように、プ
レーヤが増加し、似た色をマーカとして使用した場合、
光源の位置や撮影の角度によって例えば赤色マーカを観
測したにもかかわらず,領域Bの(即ち橙色マーカの)
色として検出されてしまう可能性があり、誤検出のもと
となってしまう。FIG. 10 is a diagram for explaining the cause of erroneous recognition when markers of a plurality of colors are used. In FIG.
The horizontal axis represents red and the vertical axis represents green, and the blue axis is omitted in order to simplify the description. In the figure, a region A shows a region defining the color distribution of the marker type A (red marker), and a region B shows a region defining the color distribution of the marker type B (orange marker). Thus, when the number of players increases and similar colors are used as markers,
Despite observing a red marker, for example, depending on the position of the light source or the angle of the image, the area B (that is, the orange marker)
There is a possibility that it will be detected as a color, which will cause erroneous detection.
【0014】また、各プレーヤごとに異なる色のマーカ
を複数配置することによって現実空間に非常に多くのマ
ーカが存在することになり、プレーヤの視界が煩雑にな
る上、複合現実空間を体感する上で臨場感などを損なう
原因となる。Further, by arranging a plurality of markers of different colors for each player, a large number of markers exist in the real space, which complicates the field of view of the player and gives a sense of the mixed reality space. It becomes a cause to impair the sense of presence.
【0015】本発明の目的は、上述の課題を解決し、現
実空間にマーカが配置されていた場合であっても、プレ
ーヤがマーカの存在を意識することなく、複合現実感を
体感することが可能な複合現実感装置及び複合現実空間
画像の生成方法を提供することにある。An object of the present invention is to solve the above-mentioned problems and enable a player to experience mixed reality without being aware of the presence of the marker even when the marker is arranged in the physical space. An object is to provide a possible mixed reality apparatus and a method for generating a mixed reality space image.
【0016】[0016]
【課題を解決するための手段】すなわち、本発明の要旨
は、プレーヤの視点位置姿勢に応じた仮想画像を生成す
る画像生成手段と、プレーヤの略視点位置姿勢から撮影
することにより得られる画像データを入力する画像入力
手段と、画像データと仮想画像を合成することにより複
合現実空間を生成する合成手段とを有する複合現実感装
置であって、画像入力手段によって入力された、絶対位
置指標としてのマーカが配置された現実空間を撮影する
ことにより得られた画像データから、マーカ領域を検出
するマーカ検出手段と、現実空間の、マーカが配置され
ていない状態を撮影することにより得られた画像データ
をテクスチャ画像として保持する保持手段と、マーカ検
出手段によって検出されたマーカ領域に対して、テクス
チャ画像を置き換え又は重畳する手段とを有することを
特徴とする複合現実感装置に存する。That is, the gist of the present invention is to generate a virtual image according to the viewpoint position and orientation of the player.
Image generation means and shooting from the approximate viewpoint position and orientation of the player
Image input to input the image data obtained by
By combining the image data with the virtual image.
Mixed reality with synthesis means for generating an augmented reality space
And the absolute position input by the image input means.
Take a picture of the physical space where markers as placement indicators are placed
The marker area is detected from the image data obtained by
Marker detection means and the markers in the real space are arranged.
Image data obtained by shooting the unloaded state
Holding means for holding the
For the marker area detected by the output means,
A mixed reality apparatus having a means for replacing or superimposing a cha image .
【0017】また、本発明の別の要旨は、プレーヤの視
点位置姿勢に応じた仮想画像を生成する画像生成ステッ
プと、プレーヤの略視点位置姿勢から撮影することによ
り得られる画像データを入力する画像入力ステップと、
画像データと仮想画像を合成することにより複合現実空
間画像を生成する合成ステップとを有する複合現実空間
画像の生成方法であって、画像入力手段によって入力さ
れた、絶対位置指標としてのマーカが配置された現実空
間を撮影することにより得られた画像データから、マー
カ領域を検出するマーカ検出ステップと、現実空間の、
マーカが配置されていない状態を撮影することにより得
られた画像データをテクスチャ画像として保持する保持
ステップと、マーカ検出ステップによって検出されたマ
ーカ領域に対して、テクスチャ画像を置き換え又は重畳
するステップとを有することを特徴とする複合現実感空
間画像の生成方法に存する。Another gist of the present invention is the player's view.
An image generation step that generates a virtual image according to the point position and orientation.
And shooting from the player's approximate viewpoint position and orientation.
Image input step of inputting the obtained image data,
By combining image data and virtual images
Mixed reality space with a compositing step for generating inter-images
A method of generating an image, which is input by image input means.
Real sky where markers as absolute position indicators are placed
From the image data obtained by shooting the
Marker detection step to detect the mosquito region, and in the real space,
Obtained by taking a picture of the state where no marker is placed
Hold the stored image data as a texture image
Step and the marker detected by the marker detection step.
Replace or superimpose the texture image on the marker area
The method for generating a mixed reality space image is characterized by including the steps of:
【0018】[0018]
【0019】[0019]
【0020】[0020]
【発明の実施の形態】以下、図面を参照して本発明のマ
ーカ配置方法の好ましい実施形態について説明する。本
実施形態は、3人のプレーヤーが同一仮想空間を共有し
て行う複合現実感ゲームであるが、本発明による複合現
実空間におけるマーカ配置方法は、その他任意の用途に
適用することができる。BEST MODE FOR CARRYING OUT THE INVENTION Preferred embodiments of the marker placement method of the present invention will be described below with reference to the drawings. Although the present embodiment is a mixed reality game in which three players share the same virtual space, the marker placement method in the mixed reality space according to the present invention can be applied to any other application.
【0021】図1は、本発明によるマーカ配置方法を適
用した複合現実感ゲームを実施するための複合現実感装
置の構成を示す図である。図1は、プレーヤが3人の場
合の構成を示している。複合現実感装置は、各プレーヤ
ごとに設けられたプレーヤ処理部100〜300と、各
プレーヤ処理部に接続された制御部400とから構成さ
れており、プレーヤの増減によって制御部400に接続
されるプレーヤ処理部も増減する。FIG. 1 is a diagram showing the configuration of a mixed reality apparatus for executing a mixed reality game to which the marker placement method according to the present invention is applied. FIG. 1 shows the configuration when there are three players. The mixed reality apparatus includes player processing units 100 to 300 provided for each player and a control unit 400 connected to each player processing unit, and is connected to the control unit 400 depending on the number of players. The number of player processing units also increases or decreases.
【0022】プレーヤ処理部100〜300はそれぞれ
同一の構成を有しており、プレーヤの体に装着されたセ
ンサや表示装置などの入出力部分(102、103、1
05、1011、1021、1022)と、センサから
収集した信号処理及びこの信号処理結果と制御部から供
給される他プレーヤの情報を元にして表示装置に表示す
べき画像を生成する回路部分(101、104、10
6、107)とから構成される。The player processing units 100 to 300 have the same structure, and input / output units (102, 103, 1) such as sensors and display devices mounted on the player's body.
05, 1011, 1021, 1022), a circuit part (101) for generating an image to be displayed on the display device based on the signal processing collected from the sensor and the result of this signal processing and the information of another player supplied from the control unit. , 104, 10
6, 107).
【0023】以下、図1と本実施形態において各プレー
ヤが装着する入出力機器の種類と装着場所を示す図2を
参照して、プレーヤ処理部の構成を説明する。図2に示
すように、本実施形態において各プレーヤは、頭部に現
実空間と仮想空間とを合成して表示するための表示装置
である頭部装着型画像表示装置(以下HMDと言う)1
05を装着する。本発明においてHMDはビデオシース
ルー型でも光学シースルー型でもよいが、以下の説明で
はビデオシースルー型HMDを用いた場合を例にして説
明する。The configuration of the player processing unit will be described below with reference to FIG. 1 and FIG. 2 showing the types of input / output devices mounted by each player and the mounting locations in this embodiment. As shown in FIG. 2, in the present embodiment, each player has a head-mounted image display device (hereinafter, referred to as an HMD) 1 which is a display device for combining and displaying a real space and a virtual space on the head.
Wear 05. In the present invention, the HMD may be either a video see-through type or an optical see-through type, but in the following description, a case where a video see-through HMD is used will be described as an example.
【0024】HMD105の目に近い部分には、2つの
小型ビデオカメラ103が設けられている。このビデオ
カメラ103で撮影された、プレーヤの視点とほぼ同一
の視点による映像は、画像入力部104を介して後述す
る画像合成部106に供給され、仮想空間画像と重畳さ
れてプレーヤのHMD105に表示される。また、画像
入力部104は画像合成部106の他に、入力画像を頭
部位置検出部101へ供給する。Two small video cameras 103 are provided near the eyes of the HMD 105. An image captured by the video camera 103 from a viewpoint substantially the same as the viewpoint of the player is supplied to an image combining unit 106, which will be described later, via the image input unit 104, and is superimposed on the virtual space image and displayed on the HMD 105 of the player. To be done. Further, the image input unit 104 supplies the input image to the head position detection unit 101 in addition to the image synthesis unit 106.
【0025】また、プレーヤの頭部にはさらに、例えば
磁気センサからなる頭部位置姿勢センサ1011が装着
されている。頭部位置姿勢センサ1011は、例えばH
MD105を利用して装着することができる。頭部位置
姿勢センサ1011の出力信号は頭部位置姿勢計測部1
01に入力される。頭部位置姿勢計測部101は、画像
入力部104から供給される画像を用いて位置補正用の
マーカを検出し、頭部位置姿勢センサ1011より供給
される信号を補正することで、プレーヤの視点位置、姿
勢を推定する。Further, a head position / orientation sensor 1011 including, for example, a magnetic sensor is mounted on the player's head. The head position / orientation sensor 1011 is, for example, H
It can be attached using the MD 105. The output signal of the head position / orientation sensor 1011 is the head position / orientation measurement unit 1
01 is input. The head position / orientation measurement unit 101 detects a marker for position correction using the image supplied from the image input unit 104, and corrects the signal supplied from the head position / orientation sensor 1011 to obtain the viewpoint of the player. Estimate position and orientation.
【0026】一方、プレーヤの腕には、対話操作入力装
置102が装着されている。対話操作入力装置102
は、装着された部位の位置、姿勢を検出する位置姿勢セ
ンサ1021と、装着部位の動きに応じてオン・オフす
るスイッチ(トリガ)1022とを有し、プレーヤが所
定の動作を行うことによってコマンド入力を行うための
装置である。On the other hand, the interactive operation input device 102 is mounted on the player's arm. Interactive operation input device 102
Has a position / orientation sensor 1021 for detecting the position and posture of the mounted part, and a switch (trigger) 1022 for turning on / off according to the movement of the mounted part. This is a device for inputting.
【0027】以下の説明においては、複数のプレーヤ
(本実施形態では3人)が同一の仮想空間を共有し、仮
想空間上に出現する敵からの攻撃を避けながら、敵を撃
破し、時間あるいは敵の攻撃によるダメージが所定量に
達するまでに撃破した敵の数あるいは点数を競うゲーム
であって、対話操作入力装置102を用いて以下のよう
なコマンド入力が可能な場合を例にして説明する。In the following description, a plurality of players (three people in this embodiment) share the same virtual space, destroy the enemy while avoiding the attack from the enemy appearing in the virtual space, and A case in which the following commands can be input using the interactive operation input device 102 in a game of competing for the number or points of the enemies destroyed until the damage caused by the enemy's attack reaches a predetermined amount will be described as an example. .
【0028】・コマンド1(照準コマンド)
照準位置を仮想空間上で指し示す照準線を表示するコマ
ンド。手の甲を上にした状態で、肘よりも手首を上方に
位置させることにより入力する。
・コマンド2(射撃コマンド)
照準線が示す照準位置を射撃するコマンド。照準コマン
ドにより照準線が表示された状態で、一定の加速度以上
で腕(肘から手のひらにかけて)を前後に往復移動させ
ることにより入力する。
・コマンド3(防御コマンド)
相手方の攻撃を防御するコマンド。手の甲を相手方に向
けた状態で、指先を上方に向けることにより入力する。
・コマンド4(リセットコマンド)
射撃コマンドを入力した後、再度照準コマンドを入力す
る際に入力するコマンド。腕を下に垂らした状態にする
ことで入力する。Command 1 (aiming command) A command for displaying an aiming line indicating the aiming position in the virtual space. With the back of the hand up, enter by placing the wrist above the elbow.・ Command 2 (shooting command) Command to shoot at the aiming position indicated by the line of sight. When the aiming line is displayed by the aiming command, the arm (from the elbow to the palm) is reciprocally moved back and forth with a certain acceleration or more to input. -Command 3 (defense command) A command that defends the opponent's attack. With the back of the hand facing the other party, point by pointing your finger upwards. -Command 4 (reset command) A command to be input when the aiming command is input again after the shooting command is input. Input by making the arm hang down.
【0029】すなわち、本実施形態のゲームにおけるプ
レーヤの動作としては通常、照準コマンド→射撃コマン
ド→リセットコマンド→照準コマンドというサイクルで
コマンドの入力を繰り返し、このサイクルの中で必要に
応じて防御コマンドを入力することになる。That is, as a player's operation in the game of the present embodiment, normally, command input is repeated in a cycle of aiming command → shooting command → reset command → aiming command, and a defense command is issued as necessary in this cycle. Will be input.
【0030】対話操作入力装置102によって入力され
たコマンドは、画像生成部107に供給される。The command input by the interactive operation input device 102 is supplied to the image generator 107.
【0031】画像生成部107は、頭部位置姿勢計測部
101から供給されるプレーヤの頭部位置及び姿勢情報
と対話操作入力装置102から供給されるコマンド情報
を制御部400へ転送する。また、プレーヤの頭部位置
・姿勢情報及びコマンド情報と、制御部400から受信
した他プレーヤの頭部位置・姿勢情報並びにコマンド情
報とモデル情報、敵キャラクタの位置、移動方向、状態
情報、空間内に配置された障害物の位置、形状などの情
報を用いて、対応するプレーヤのHMD105に表示す
べき仮想空間画像を作成し、画像合成部106へ出力す
る。The image generator 107 transfers the player's head position / posture information supplied from the head position / posture measuring unit 101 and the command information supplied from the interactive operation input device 102 to the control unit 400. Further, the head position / posture information of the player and the command information, the head position / posture information of the other player received from the control unit 400, the command information and the model information, the position, the moving direction, the state information of the enemy character, the space A virtual space image to be displayed on the HMD 105 of the corresponding player is created by using the information such as the position and shape of the obstacle arranged at, and is output to the image synthesizing unit 106.
【0032】画像合成部106は、プレーヤの視点に近
い位置に取り付けられたビデオカメラ103の画像(実
空間画像)と、画像生成部107が作成した仮想空間画
像とを合成し、プレーヤのHMD105に供給する。The image synthesizing unit 106 synthesizes the image (real space image) of the video camera 103 attached at a position close to the player's viewpoint and the virtual space image created by the image creating unit 107, and the HMD 105 of the player. Supply.
【0033】制御部400は、上述のようなプレーヤ処
理部100〜300が接続された複合現実空間管理部1
と、現実物体位置計測部2とから構成されている。複合
現実空間管理部1は、各プレーヤ処理部100〜300
から受信したプレーヤの頭部位置、姿勢に関する情報
と、対話操作入力装置102の位置、姿勢及びコマンド
情報とを配信するとともに、仮想空間上に表示する敵キ
ャラクタの生成、消滅、制御及び射撃コマンドによる射
撃の当たり判定等のゲーム処理を行う。敵キャラクタの
モデルや位置、移動方向及び、状態(撃破されたか等)
の情報も各プレーヤの情報とともに接続される全てのユ
ーザに配信される。The control section 400 is a mixed reality space management section 1 to which the player processing sections 100 to 300 as described above are connected.
And the physical object position measuring unit 2. The mixed reality space management unit 1 uses the player processing units 100 to 300.
The information regarding the position and posture of the player's head received from the player and the position, posture and command information of the interactive operation input device 102 are distributed, and the generation, disappearance, control and shooting commands of the enemy character displayed in the virtual space are used. Performs game processing such as shooting hit determination. Enemy character's model, position, movement direction, and state (whether it was destroyed)
Information is also distributed to all users who are connected together with the information of each player.
【0034】また、図3に示すように、ゲームの難易度
を調整するために射撃の障害となるような現実物体31
〜33を配置する様な場合には、この現実物体31〜3
3の形状及び位置に関する情報も複合現実空間管理部1
が管理する。Further, as shown in FIG. 3, in order to adjust the difficulty level of the game, a real object 31 that may be an obstacle to shooting is provided.
~ 33 are arranged, the physical objects 31 to 3
The information about the shape and position of 3 also includes the mixed reality space management unit 1
Managed by.
【0035】図3(a)はあるプレーヤから見たゲーム
フィールド(複合現実空間)の斜視図、図3(b)はそ
の上面図をそれぞれ示す。図3においては、(現実空間
の)テーブル30の上に、3つの現実空間物体31〜3
3を障害物として配置した場合を示す。本実施形態にお
いては、上述のように対話操作入力装置102を用いた
照準コマンドの入力動作が、肘より手首を高くする動作
であるため、一般的な体型において腰の高さ程度の高さ
を有するテーブル30の上に現実空間物体を配置してい
るが、対話操作入力装置によるコマンド入力動作によっ
てはテーブルが不要であることは言うまでもない。FIG. 3A is a perspective view of a game field (mixed reality space) viewed from a certain player, and FIG. 3B is a top view thereof. In FIG. 3, three physical space objects 31 to 3 are placed on a table 30 (in physical space).
The case where 3 is arranged as an obstacle is shown. In the present embodiment, since the aiming command input operation using the interactive operation input device 102 is an operation of raising the wrist higher than the elbow as described above, the height is about the same as the waist in a general figure. Although the physical space object is arranged on the table 30 that it has, it goes without saying that the table is unnecessary depending on the command input operation by the interactive operation input device.
【0036】図3において、現実空間物体31、32は
固定、33は可動とされている。可動の現実空間物体が
あると、ゲームの難易度を動的に変化させることができ
る。例えば、可動現実物体33がランダムなスピードで
左右に移動すれば、標的である敵キャラクタの射撃は静
的な現実物体31、32のみが配置されている場合より
も更に難しくなる。可動現実物体の移動制御は、複合現
実空間管理部1が行っても、他の制御回路によって行っ
てもよい。この場合、可動物体のモデルは複合現実空間
管理部1が管理し、またその位置は可動物体33に設け
た物体位置センサ331を現実物体位置計測部2によっ
て計測することになる。In FIG. 3, physical space objects 31 and 32 are fixed, and 33 is movable. If there is a movable physical space object, the difficulty level of the game can be dynamically changed. For example, if the movable physical object 33 moves to the left and right at random speed, the shooting of the enemy character that is the target becomes more difficult than when only the static physical objects 31 and 32 are arranged. The movement control of the movable reality object may be performed by the mixed reality space management unit 1 or by another control circuit. In this case, the model of the movable object is managed by the mixed reality space management unit 1, and the position thereof is measured by the physical object position measuring unit 2 using the object position sensor 331 provided on the movable object 33.
【0037】以上説明したような複合現実感装置は、制
御部400をサーバー、プレーヤ処理部100〜300
(の回路部分)をクライアントとするクライアント=サ
ーバーシステムによって実現することができる。個々の
プレーヤに関する処理をクライアントで分散して処理す
ることにより、プレーヤの増減に柔軟に対処可能であ
る。より具体的に述べれば、プレーヤ処理部はビデオ入
出力機能及び各種センサからの信号受信機能を有する汎
用コンピュータ装置により、制御部400も各プレーヤ
処理部と通信可能なインタフェースと、物体位置計測部
2からの計測信号受信機能を有する汎用コンピュータ装
置により実現できる。In the mixed reality apparatus described above, the control unit 400 is the server, and the player processing units 100 to 300.
It can be realized by a client = server system in which (the circuit portion of) is a client. It is possible to flexibly deal with the increase and decrease of the players by distributing the processing related to each player among the clients. More specifically, the player processing unit is a general-purpose computer device having a video input / output function and a signal receiving function from various sensors, and the control unit 400 can also communicate with each player processing unit and an object position measuring unit 2. It can be realized by a general-purpose computer device having a function of receiving a measurement signal from.
【0038】ただし、3次元の画像表示に関する演算を
実時間で行う必要があるため、この様な演算に特化した
アクセラレータ(いわゆる3Dアクセラレータ)等を有
する比較的高速なコンピュータ装置を用いることが好ま
しい。また、制御部400とプレーヤ処理部100〜3
00との通信も100BASE−Tなど容量の大きな回
線による接続が好ましい。通信回線の容量が小さいとプ
レーヤ数の増加に伴い処理速度の低下が大きくなる。However, since it is necessary to perform the calculation relating to the three-dimensional image display in real time, it is preferable to use a relatively high speed computer device having an accelerator (so-called 3D accelerator) specialized for such calculation. . Further, the control unit 400 and the player processing units 100 to 3
The communication with 00 is also preferably connected by a line with a large capacity such as 100BASE-T. If the capacity of the communication line is small, the processing speed will decrease as the number of players increases.
【0039】(マーカ配置方法)図4は、本実施形態に
おけるマーカ配置の一例を示す斜視図である。本実施形
態のゲームにおいては、現実物体による障害物を配置す
るが、その障害物を利用してマーカを配置することによ
り、各プレーヤの移動範囲内において視野に入るマーカ
を制限しつつ、前述の条件を満たすことが可能となる。(Marker Arrangement Method) FIG. 4 is a perspective view showing an example of marker arrangement in this embodiment. In the game of the present embodiment, an obstacle due to a physical object is arranged, but by arranging the marker using the obstacle, the marker which is in the visual field within the moving range of each player is limited, and It is possible to meet the conditions.
【0040】図5(a)〜(c)はそれぞれ、図4にお
けるプレーヤA,B,Cからみることのできるマーカを
抽出して示した図である。このように、各プレーヤから
見えるマーカはそれぞれほぼ均等の間隔かつ視点位置の
計算に必要な数観察されるが、他プレーヤ用のマーカは
視認されないため、色を変える必要がない。また、図4
に示すように複数のプレーヤ間で同じマーカを共有する
ことも可能となる。FIGS. 5A to 5C are diagrams showing the markers that can be seen from the players A, B, and C in FIG. 4 extracted. In this way, the markers seen by each player are observed at substantially equal intervals and the number necessary for the calculation of the viewpoint position, but the markers for other players are not visually recognized, so that it is not necessary to change the color. Also, FIG.
It is also possible to share the same marker among a plurality of players as shown in FIG.
【0041】図6(a)〜(c)は、障害物を利用しな
い場合に各プレーヤから観察されるマーカを図5(a)
〜(c)に対応して示した図である。本発明によるマー
カ配置方法によって、各プレーヤが観察するマーカの数
が非常に少なくなり、かつ前述の条件を満たすようにな
ることが図5と図6との対比から明快に理解される。6 (a) to 6 (c) show markers observed by each player when no obstacle is used, as shown in FIG. 5 (a).
It is a figure shown corresponding to- (c). It will be clearly understood from the comparison between FIG. 5 and FIG. 6 that the marker arrangement method according to the present invention significantly reduces the number of markers observed by each player and satisfies the above condition.
【0042】プレーヤが増加した場合にはマーカを設け
る現実物体の形状(断面形状や高低等)を変化させた
り、色を追加するなどの方法で対処することができる。
色を増やす場合も従来の様に1プレーヤに1色を割り当
てるわけではないので、少ない色で多数のプレーヤに対
するマーカを配置することが可能となる。When the number of players is increased, it is possible to deal with the situation by changing the shape (cross-sectional shape, height, etc.) of the physical object on which the marker is provided, or by adding a color.
Even when the number of colors is increased, one color is not assigned to one player as in the conventional case, so that it is possible to arrange markers for many players with a small number of colors.
【0043】マーカの配置位置の決定は、人手に頼って
も良いが、あらかじめ現実物体のモデルと各プレーヤの
視点位置移動可能範囲のモデルを生成しておき、対象と
なるプレーヤから見える範囲でかつ他のプレーヤの視線
が遮られる範囲を求めることによって決定することがで
きる。さらに、設けたいマーカの数と配置規則を用いて
位置を算出するようにしても良い。逆に、このような条
件を満たすような障害物形状及び/または配置を算出す
るように構成しても良い。The placement position of the marker may be determined manually, but a model of the physical object and a model of the movable range of the viewpoint position of each player are generated in advance, and the model can be seen by the target player. It can be determined by obtaining the range in which the line of sight of another player is blocked. Further, the position may be calculated using the number of markers to be provided and the arrangement rule. On the contrary, the obstacle shape and / or the layout satisfying such a condition may be calculated.
【0044】また、障害物などマーカの配置に利用でき
る物体がない場合であっても、アプリケーション上問題
にならない位置に現実物体を配置し、現実物体の存在を
仮想空間画像で隠すことにより、プレーヤはマーカ用の
現実物体を意識することなく複合現実空間を体験するこ
とが可能となる。仮想空間画像によるマーカ等の隠蔽に
ついては後で詳述する。Even if there is no object such as an obstacle that can be used for arranging the marker, the real object is arranged at a position where there is no problem in the application, and the existence of the real object is hidden by the virtual space image. Makes it possible to experience mixed reality space without being aware of the physical object for the marker. Concealment of markers and the like by the virtual space image will be described in detail later.
【0045】(マーカの検出)次にマーカの検出方法に
ついて説明する。図8は、図7に示す領域Aに含まれる
色を有するtypeAのマーカ(赤色マーカ)を検出す
る処理の流れを示すフローチャートである。マーカ検出
処理及び検出したマーカの情報の利用はいずれも頭部位
置姿勢計測部101が行う。(Detection of Marker) Next, a method of detecting a marker will be described. FIG. 8 is a flowchart showing a flow of processing for detecting a type A marker (red marker) having a color included in the area A shown in FIG. The head position / orientation measurement unit 101 performs both the marker detection process and the use of the detected marker information.
【0046】まず、ビデオカメラ103で撮影された画
像を、画像入力部104を介して取得する(ステップS
701)。そして、2値化処理を行う(ステップS70
2)。具体的には、図7(青の軸は省略して記載)に示
される領域Aに含まれる画素を1、それ以外を0とす
る。すなわち、
Ii: 入力カラー画像Iを構成するi番目の画素
Ri,Gi,Bi: Iiを構成するR、G、B各色の値
ITHi: 2値画像のi番目の画素値
RminA、GminA,BminA:
領域Aを定義するR、G、Bそれぞれの最小値
RmaxA、GmaxA,BmaxA:
領域Aを定義するR、G、Bそれぞれの最大値
とすると、各Iiごとに、RminA<Ri<Rmax
AかつGminA<Gi<GmaxAかつBminA<
Bi<BmaxAを満たすIiに対応するITHiに
1、それ以外のIiに対応するITHiを0として、二
値画像ITHを形成する。First, the image captured by the video camera 103 is acquired via the image input unit 104 (step S).
701). Then, binarization processing is performed (step S70).
2). Specifically, the pixels included in the region A shown in FIG. 7 (the blue axis is omitted) are set to 1, and the other pixels are set to 0. Ii: i-th pixel Ri, Gi, Bi constituting the input color image I: R, G, B color values ITHi constituting Ii: i-th pixel value RminA, GminA, BminA of the binary image: Minimum values RmaxA, GmaxA, BmaxA of R, G, B defining the area A: If R, G, B maximum values of the area A are defined, RminA <Ri <Rmax for each Ii.
A and GminA <Gi <GmaxA and BminA <
A binary image ITH is formed by setting ITHi corresponding to Ii that satisfies Bi <BmaxA to 1 and ITHi corresponding to other Ii to 0.
【0047】ついで、二値画像ITHにラベリング処理
を行い、マーカ領域(クラスタ)を抽出する(ステップ
S703)。そして、各クラスタの重心(Xn,Yn)
と面積anを算出して(ステップS704)、頭部位置
姿勢計測部101内部の、視点位置姿勢推定モジュール
(図示せず)へ出力する(ステップS705)。視点位
置姿勢推定モジュールにおいては、あらかじめ登録され
ているマーカの絶対座標と、画像から検出されたマーカ
位置(クラスタ重心)とから、頭部位置姿勢センサ10
11の出力信号の補正を行い、プレーヤの視点位置及び
姿勢を算出する。Then, a labeling process is performed on the binary image ITH to extract a marker area (cluster) (step S703). And the center of gravity of each cluster (Xn, Yn)
And the area an are calculated (step S704) and output to a viewpoint position / posture estimation module (not shown) inside the head position / posture measurement unit 101 (step S705). The viewpoint position / posture estimation module uses the head position / posture sensor 10 based on the absolute coordinates of the markers registered in advance and the marker positions (cluster centroids) detected from the image.
The output signal of 11 is corrected, and the viewpoint position and orientation of the player are calculated.
【0048】図8においては、ある1色(赤色)のマー
カを検出する場合の処理について説明したが、プレーヤ
数が増加し、複数色のマーカが存在する場合には、2値
化画像を生成する際の閾値を変えて各色ごとの検出処理
を繰り返し行う。In FIG. 8, the processing for detecting a certain color (red) marker has been described. However, when the number of players increases and there are markers of a plurality of colors, a binarized image is generated. The detection process for each color is repeated by changing the threshold value when performing.
【0049】(マーカの消去)前述の通り、マーカは本
来頭部位置姿勢センサ1011の出力が正確であれば不
要なものである。さらに、マーカをプレーヤが認識する
ことにより臨場感を損なうおそれがあるなど、複合現実
空間においてマーカの存在は認識されないことが望まし
い。(Erase of Marker) As described above, the marker is originally unnecessary if the output of the head position / orientation sensor 1011 is accurate. Further, it is desirable that the presence of the marker is not recognized in the mixed reality space, such that the player may lose the sense of presence by recognizing the marker.
【0050】そのため、本発明においては、プレーヤに
マーカの存在を意識させないように見かけ上マーカを消
去することを特徴とする。マーカを見かけ上消去する方
法としては、種々の方法が考えられるが、マーカに仮想
画像を重畳してプレーヤに表示する方法が処理の負荷や
違和感が小さいことから好ましい。Therefore, the present invention is characterized in that the marker is apparently erased so that the player is not aware of the presence of the marker. Various methods are conceivable for apparently erasing the marker, but a method of superimposing a virtual image on the marker and displaying it on the player is preferable because the processing load and discomfort are small.
【0051】図9は、マーカの消去方法を説明する図で
ある。図9(a)は、本実施形態におけるマーカ配置方
法で配置した、プレーヤAに対するマーカを表したもの
で、図5(a)に対応する。このようにテーブル及び障
害物といった現実物体に配置されたマーカを消去するに
は、まずマーカを配置する前に配置の予定される場所を
ビデオやデジタルカメラ、スチルカメラ等で撮影し、画
像データをテクスチャとして取得しておく。そして、マ
ーカの配置後、プレーヤのHMDに表示する画像データ
のうち、マーカ部分に相当する画像データをあらかじめ
取得しておいたテクスチャ画像で置き換えるか、重畳し
て画像データを表示する(図9(b))。FIG. 9 is a diagram for explaining a marker erasing method. FIG. 9A shows the markers for the player A arranged by the marker arrangement method according to the present embodiment, and corresponds to FIG. 5A. In order to erase the markers placed on the physical object such as the table and the obstacle in this way, first, before placing the markers, shoot the planned location with a video, digital camera, still camera, etc., and save the image data. Get it as a texture. Then, after the marker is arranged, of the image data displayed on the HMD of the player, the image data corresponding to the marker portion is replaced with the texture image acquired in advance, or the image data is displayed in a superimposed manner (FIG. 9 ( b)).
【0052】このように画像データを置き換え/重畳す
ることにより、プレーヤはマーカの存在を認識すること
なく、ゲームに集中することが可能となる。テクスチャ
として用意する画像データは、実際に使用される条件
(光源位置や明るさ)の元で取得することが、視覚上の
違和感を低減する上で好ましいが、同じ材質の現実物体
に配置されるマーカを消去するテクスチャ画像を1つの
共通テクスチャとしてもよい。By replacing / superimposing the image data in this way, the player can concentrate on the game without recognizing the presence of the marker. It is preferable to acquire the image data prepared as a texture under the conditions (light source position and brightness) that are actually used, in order to reduce the visual discomfort, but it is arranged on a real object of the same material. The texture image from which the marker is deleted may be one common texture.
【0053】また、障害物を使用しないアプリケーショ
ンにおいて、マーカ配置のためのみに現実物体を配置し
たような場合や、個々のマーカに対して画像データを置
き換え/重畳するのが困難な場合などは、図9(c)の
ように、現実物体をすべて覆うような画像91を用いる
こともできる。この場合、どのような画像データを用い
るかは、アプリケーションによって適宜定めればよい。
たとえば、ゲームアプリケーションにおいては、逆にこ
の画像91を利用して、仮想空間におけるステージの様
なものを形成しても良いし、現実空間との差を感じさせ
たくないアプリケーションであれば現実空間で撮影した
物体のデータにすればよい。もちろん、2次元画像デー
タでなく、3次元物体のデータとすることも可能であ
る。Further, in an application that does not use an obstacle, when a real object is arranged only for marker arrangement, or when it is difficult to replace / superimpose image data on individual markers, As shown in FIG. 9C, it is also possible to use an image 91 that covers all real objects. In this case, what kind of image data is used may be appropriately determined by the application.
For example, in a game application, on the contrary, the image 91 may be used to form a stage-like object in the virtual space, or in an actual space if the application does not want to feel a difference from the real space. It may be data of a photographed object. Of course, it is also possible to use the data of a three-dimensional object instead of the two-dimensional image data.
【0054】[0054]
【他の実施形態】上述の実施形態では、マーカから得ら
れる情報は頭部位置姿勢センサ1011の誤差補正のた
めに用いていたが、頭部位置姿勢センサ1011を用い
ることなく、マーカから得られる情報のみからプレーヤ
の視点位置姿勢を求める事も可能であり、そのような用
途にも本発明を適用することが可能である。また、上述
の実施形態はビデオシースルー方式の複合現実感装置で
あったが、本発明は光学シースルー方式の複合現実感装
置にも同様に適用可能であることは言うまでもない。[Other Embodiments] In the above embodiment, the information obtained from the marker is used for the error correction of the head position / orientation sensor 1011. However, the information can be obtained from the marker without using the head / orientation sensor 1011. It is also possible to obtain the viewpoint position and orientation of the player from only the information, and the present invention can be applied to such an application. In addition, although the above-described embodiment is a video see-through mixed reality apparatus, it goes without saying that the present invention is also applicable to an optical see-through mixed reality apparatus.
【0055】また、上述の実施形態においては、トリガ
1022を使用せず、対話操作入力装置の動きを検出し
てコマンドを入力したが、プレーヤがトリガ1022を
用いて各種コマンドを入力するようにしても、動作検出
とトリガのオン・オフとを組み合わせても良い。さら
に、対話操作入力装置に、プレーヤの動作に応じてオン
・オフするようなスイッチを組み込んでトリガとして用
いることもできる。In the above embodiment, the trigger 1022 is not used, and the command is input by detecting the movement of the interactive operation input device. However, the player uses the trigger 1022 to input various commands. Alternatively, motion detection and trigger on / off may be combined. Further, the interactive operation input device may be incorporated with a switch that is turned on / off according to the player's operation and used as a trigger.
【0056】本発明の目的は、上述した実施形態の機能
を実現するソフトウェアのプログラムコードを記録した
記憶媒体(または記録媒体)を、システムあるいは装置
に供給し、そのシステムあるいは装置のコンピュータ
(またはCPUやMPU)が記憶媒体に格納されたプログラム
コードを読み出し実行することによっても、達成される
ことは言うまでもない。この場合、記憶媒体から読み出
されたプログラムコード自体が前述した実施形態の機能
を実現することになり、そのプログラムコードを記憶し
た記憶媒体は本発明を構成することになる。また、コン
ピュータが読み出したプログラムコードを実行すること
により、前述した実施形態の機能が実現されるだけでな
く、そのプログラムコードの指示に基づき、コンピュー
タ上で稼働しているオペレーティングシステム(OS)など
が実際の処理の一部または全部を行い、その処理によっ
て前述した実施形態の機能が実現される場合も含まれる
ことは言うまでもない。An object of the present invention is to supply a storage medium (or recording medium) recording a program code of software for realizing the functions of the above-described embodiments to a system or apparatus, and to supply a computer (or CPU) of the system or apparatus. It is needless to say that it is achieved by reading and executing the program code stored in the storage medium. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention. Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an operating system (OS) running on the computer based on the instructions of the program code. It goes without saying that a case where some or all of the actual processing is performed and the functions of the above-described embodiments are realized by the processing is also included.
【0057】さらに、記憶媒体から読み出されたプログ
ラムコードが、コンピュータに挿入された機能拡張カー
ドやコンピュータに接続された機能拡張ユニットに備わ
るメモリに書込まれた後、そのプログラムコードの指示
に基づき、その機能拡張カードや機能拡張ユニットに備
わるCPUなどが実際の処理の一部または全部を行い、そ
の処理によって前述した実施形態の機能が実現される場
合も含まれることは言うまでもない。Further, after the program code read from the storage medium is written in the memory provided in the function expansion card inserted in the computer or the function expansion unit connected to the computer, based on the instruction of the program code. Needless to say, this also includes a case where a CPU or the like included in the function expansion card or the function expansion unit performs a part or all of the actual processing and the processing realizes the functions of the above-described embodiments.
【0058】[0058]
【発明の効果】以上説明したように、本発明によれば、
複合現実感装置において位置指針として用いられるマー
カを見かけ上消去することによって、プレーヤはマーカ
の存在を意識することがなく、臨場感を損なわずに複合
現実感を体感することができる。As described above, according to the present invention,
By apparently erasing the marker used as the position pointer in the mixed reality device, the player does not have to be aware of the presence of the marker and can experience the mixed reality without impairing the realism.
【図1】本発明によるマーカ配置方法を適用可能な複合
現実感装置の構成例を示すブロック図である。FIG. 1 is a block diagram showing a configuration example of a mixed reality apparatus to which a marker placement method according to the present invention can be applied.
【図2】プレーヤが装着する装置の種類と装着部位を説
明する図である。FIG. 2 is a diagram illustrating a type of a device worn by a player and a mounting site.
【図3】本発明の実施形態におけるゲームを説明する図
である。FIG. 3 is a diagram illustrating a game according to the embodiment of the present invention.
【図4】本発明によるマーカ配置方法を説明する図であ
る。FIG. 4 is a diagram illustrating a marker placement method according to the present invention.
【図5】図4の配置により各プレーヤから観察されるマ
ーカを示す図である。5 is a diagram showing markers observed by each player in the arrangement of FIG.
【図6】障害物を利用せずに図4と同様のマーカを配置
した場合に各プレーヤから観察されるマーカを示す図で
ある。FIG. 6 is a diagram showing markers observed by each player when the same markers as those in FIG. 4 are arranged without using obstacles.
【図7】本発明の実施形態における、赤色マーカの色領
域を示す図である。FIG. 7 is a diagram showing a color region of a red marker according to the embodiment of the present invention.
【図8】カラー画像データから図7に示す色領域のマー
カを検出する処理の手順を示すフローチャートである。8 is a flowchart showing a procedure of processing for detecting a marker in the color area shown in FIG. 7 from color image data.
【図9】マーカの消去形態を説明する図である。FIG. 9 is a diagram illustrating a marker erasing mode.
【図10】マーカの色数を増やした際の誤検出について
説明する図である。FIG. 10 is a diagram illustrating erroneous detection when the number of colors of markers is increased.
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI H04N 7/18 H04N 7/18 V (56)参考文献 特開 平10−326357(JP,A) 特開 平10−210473(JP,A) (58)調査した分野(Int.Cl.7,DB名) A63F 13/00 - 13/12 G06F 3/00 G06T 17/40 H04N 5/262 H04N 7/18 ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 7 identification code FI H04N 7/18 H04N 7/18 V (56) Reference JP-A-10-326357 (JP, A) JP-A-10-210473 ( (58) Fields surveyed (Int.Cl. 7 , DB name) A63F 13/00-13/12 G06F 3/00 G06T 17/40 H04N 5/262 H04N 7/18
Claims (6)
像を生成する画像生成手段と、 前記プレーヤの略視点位置姿勢から撮影することにより
得られる画像データを入力する画像入力手段と、 前記画像データと前記仮想画像を合成することにより複
合現実空間を生成する合成手段とを有する複合現実感装
置であって、 前記画像入力手段によって入力された、絶対位置指標と
してのマーカが配置された現実空間を撮影することによ
り得られた画像データから、マーカ領域を検出するマー
カ検出手段と、 前記現実空間の、前記マーカが配置されていない状態を
撮影することにより得られた画像データをテクスチャ画
像として保持する保持手段と、 前記マーカ検出手段によって検出された前記マーカ領域
に対して、前記テクスチャ画像を置き換え又は重畳する
手段とを有することを特徴とする複合現実感装置。1. An image generation unit for generating a virtual image according to a player's viewpoint position / posture, an image input unit for inputting image data obtained by shooting from the player's approximate viewpoint position / posture, and the image data. A mixed reality apparatus having a synthesizing means for generating a mixed reality space by synthesizing the virtual image with the virtual image, wherein a real space in which a marker as an absolute position index, which is input by the image input means, is placed A marker detecting unit that detects a marker area from image data obtained by shooting, and image data obtained by shooting a state in which the marker is not arranged in the real space is held as a texture image. Holding means and replacing the texture image for the marker area detected by the marker detecting means Mixed reality apparatus characterized by having a means for superimposing the.
マーカに対応する複数のマーカ領域を置き換え又は重畳
するために用いられる前記テクスチャ画像が共通である
ことを特徴とする請求項1記載の複合現実感装置。2. The texture image used for replacing or superimposing a plurality of marker regions corresponding to a plurality of markers arranged on a physical object of the same material is common. Mixed reality device.
マーカ領域と、前記マーカの絶対座標と、前記プレーヤ
の頭部位置姿勢センサの出力信号とから、前記プレーヤ
の視点位置姿勢を推測する手段をさらに有することを特
徴とする請求項1記載の複合現実感装置。3. A marker area detected by the marker detecting means, absolute coordinates of the marker, and the player.
The mixed reality apparatus according to claim 1, further comprising means for estimating a viewpoint position / orientation of the player from an output signal of the head position / orientation sensor .
像を生成する画像生成ステップと、 前記プレーヤの略視点位置姿勢から撮影することにより
得られる画像データを入力する画像入力ステップと、 前記画像データと前記仮想画像を合成することにより複
合現実空間画像を生成する合成ステップとを有する複合
現実空間画像の生成方法であって、 前記画像入力手段によって入力された、絶対位置指標と
してのマーカが配置された現実空間を撮影することによ
り得られた画像データから、マーカ領域を検出するマー
カ検出ステップと、 前記現実空間の、前記マーカが配置されていない状態を
撮影することにより得られた画像データをテクスチャ画
像として保持する保持ステップと、 前記マーカ検出ステップによって検出された前記マーカ
領域に対して、前記テクスチャ画像を置き換え又は重畳
するステップとを有することを特徴とする複合現実感空
間画像の生成方法。4. An image generating step of generating a virtual image according to a player's viewpoint position / posture, an image input step of inputting image data obtained by shooting from the player's approximate viewpoint position / posture, and the image data And a synthesizing step of synthesizing the virtual image to generate a mixed reality space image, wherein a marker as an absolute position index input by the image input means is arranged. A marker detection step of detecting a marker area from image data obtained by photographing the real space; and texture image data obtained by photographing the state of the real space in which the markers are not arranged. A holding step of holding as an image, and the marker region detected by the marker detecting step. Respect, the method of generating the mixed reality space image, characterized by a step of replacing or superimposes the texture image.
マーカに対応する複数のマーカ領域を置き換え又は重畳
するために用いられる前記テクスチャ画像が共通である
ことを特徴とする請求項4記載の複合現実空間画像の生
成方法。5. The texture image used for replacing or superimposing a plurality of marker regions corresponding to a plurality of markers arranged on a physical object of the same material is common. A method for generating a mixed reality space image.
れたマーカ領域と、前記マーカの絶対座標と、前記プレ
ーヤの頭部位置姿勢センサの出力信号とから、前記プレ
ーヤの視点位置姿勢を推測するステップをさらに有する
ことを特徴とする請求項4記載の複合現実空間画像の生
成方法。6. A marker area detected by the marker detection step, the absolute coordinates of the marker, the pre
The method for generating a mixed reality space image according to claim 4, further comprising the step of estimating the viewpoint position and orientation of the player from the output signal of the head position and orientation sensor of the player.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP16471799A JP3530772B2 (en) | 1999-06-11 | 1999-06-11 | Mixed reality device and mixed reality space image generation method |
US09/506,382 US7084887B1 (en) | 1999-06-11 | 2000-02-18 | Marker layout method, mixed reality apparatus, and mixed reality space image generation method |
US11/087,500 US7408561B2 (en) | 1999-06-11 | 2005-03-24 | Marker layout method, mixed reality apparatus, and mixed reality space image generation method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP16471799A JP3530772B2 (en) | 1999-06-11 | 1999-06-11 | Mixed reality device and mixed reality space image generation method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2000350860A JP2000350860A (en) | 2000-12-19 |
JP3530772B2 true JP3530772B2 (en) | 2004-05-24 |
Family
ID=15798562
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP16471799A Expired - Fee Related JP3530772B2 (en) | 1999-06-11 | 1999-06-11 | Mixed reality device and mixed reality space image generation method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3530772B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012011180A1 (en) | 2010-07-22 | 2012-01-26 | パイオニア株式会社 | Augmented reality device and method of controlling the same |
Families Citing this family (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3486613B2 (en) | 2001-03-06 | 2004-01-13 | キヤノン株式会社 | Image processing apparatus and method, program, and storage medium |
JP2003305276A (en) * | 2002-02-18 | 2003-10-28 | Space Tag Inc | Game system, game apparatus and recording medium |
JP4253567B2 (en) | 2003-03-28 | 2009-04-15 | オリンパス株式会社 | Data authoring processor |
CN100356407C (en) * | 2003-03-28 | 2007-12-19 | 奥林巴斯株式会社 | Data authoring device |
JP4447896B2 (en) * | 2003-11-25 | 2010-04-07 | キヤノン株式会社 | Image processing apparatus and method |
JP4537104B2 (en) * | 2004-03-31 | 2010-09-01 | キヤノン株式会社 | Marker detection method, marker detection device, position and orientation estimation method, and mixed reality space presentation method |
US8547401B2 (en) * | 2004-08-19 | 2013-10-01 | Sony Computer Entertainment Inc. | Portable augmented reality device and method |
JP4689380B2 (en) * | 2004-09-28 | 2011-05-25 | キヤノン株式会社 | Information processing method and apparatus |
DE602005013752D1 (en) * | 2005-05-03 | 2009-05-20 | Seac02 S R L | Augmented reality system with identification of the real marking of the object |
JP4574473B2 (en) | 2005-07-11 | 2010-11-04 | キヤノン株式会社 | Information processing apparatus and method |
FR2889761A3 (en) * | 2005-08-09 | 2007-02-16 | Total Immersion | SYSTEM ALLOWING A USER TO LOCATE A CAMERA IN ORDER TO BE ABLE TO INSERT, QUICKLY IN AN ADJUSTED MANNER, IMAGES OF VIRTUAL ELEMENTS INTO VIDEO IMAGES OF REAL ELEMENTS CAPTURED BY THE CAMERA |
JP5162928B2 (en) * | 2007-03-12 | 2013-03-13 | ソニー株式会社 | Image processing apparatus, image processing method, and image processing system |
JP4871200B2 (en) * | 2007-04-25 | 2012-02-08 | 日本放送協会 | Video composition device and video composition program |
JP2009237878A (en) * | 2008-03-27 | 2009-10-15 | Dainippon Printing Co Ltd | Composite image generating system, overlaying condition determining method, image processing apparatus, and image processing program |
JP2010033397A (en) * | 2008-07-30 | 2010-02-12 | Dainippon Printing Co Ltd | Image composition device and method |
JP5293025B2 (en) * | 2008-09-11 | 2013-09-18 | ブラザー工業株式会社 | Head mounted display |
JP5207941B2 (en) * | 2008-12-09 | 2013-06-12 | キヤノン株式会社 | Image processing apparatus, image processing method, and program |
JP5348004B2 (en) * | 2010-02-13 | 2013-11-20 | ブラザー工業株式会社 | Strike zone presentation system |
EP3584682B1 (en) | 2010-12-22 | 2021-06-30 | zSpace, Inc. | Three-dimensional tracking of a user control device in a volume |
JP5773421B2 (en) * | 2011-06-01 | 2015-09-02 | Kddi株式会社 | Information terminal equipment |
JP2013034237A (en) * | 2012-10-17 | 2013-02-14 | Sony Corp | Image processor, image processing method and image processing system |
US9785839B2 (en) | 2012-11-02 | 2017-10-10 | Sony Corporation | Technique for combining an image and marker without incongruity |
JP2015048171A (en) * | 2013-08-30 | 2015-03-16 | 学校法人立命館 | Picking system |
JP6070676B2 (en) * | 2014-02-14 | 2017-02-01 | キヤノンマーケティングジャパン株式会社 | Information processing apparatus, information processing system, control method thereof, and program |
JP6514089B2 (en) * | 2015-11-02 | 2019-05-15 | 株式会社ソニー・インタラクティブエンタテインメント | INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING SYSTEM, AND INFORMATION PROCESSING METHOD |
JP6688088B2 (en) * | 2016-01-19 | 2020-04-28 | キヤノン株式会社 | Information processing apparatus and control method thereof |
JP6916460B2 (en) | 2016-08-31 | 2021-08-11 | カシオ計算機株式会社 | Object display system, user terminal device, object display method and program |
-
1999
- 1999-06-11 JP JP16471799A patent/JP3530772B2/en not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012011180A1 (en) | 2010-07-22 | 2012-01-26 | パイオニア株式会社 | Augmented reality device and method of controlling the same |
Also Published As
Publication number | Publication date |
---|---|
JP2000350860A (en) | 2000-12-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3530772B2 (en) | Mixed reality device and mixed reality space image generation method | |
US7084887B1 (en) | Marker layout method, mixed reality apparatus, and mixed reality space image generation method | |
JP2000350859A (en) | Marker arranging method and composite reality really feeling device | |
US6972734B1 (en) | Mixed reality apparatus and mixed reality presentation method | |
CN104436634B (en) | The true man's shooting game system and implementation method of a kind of use immersive VR technology | |
US9892563B2 (en) | System and method for generating a mixed reality environment | |
US10488659B2 (en) | Apparatus, systems and methods for providing motion tracking using a personal viewing device | |
JP3413127B2 (en) | Mixed reality device and mixed reality presentation method | |
US20020095265A1 (en) | Information processing apparatus, mixed reality presentation apparatus, method thereof, and storage medium | |
US8956227B2 (en) | Storage medium recording image processing program, image processing device, image processing system and image processing method | |
US8696458B2 (en) | Motion tracking system and method using camera and non-camera sensors | |
EP1060772B1 (en) | Apparatus and method to represent mixed reality space shared by plural operators, game apparatus using mixed reality apparatus and interface method thereof | |
US20170315364A1 (en) | Virtual object display device, method, program, and system | |
US20030032484A1 (en) | Game apparatus for mixed reality space, image processing method thereof, and program storage medium | |
GB2376397A (en) | Virtual or augmented reality | |
JP3584229B2 (en) | Video experience system and information processing method | |
JP3413128B2 (en) | Mixed reality presentation method | |
WO2014111947A1 (en) | Gesture control in augmented reality | |
EP3836081B1 (en) | Data processing method and apparatus | |
US11562564B2 (en) | Recording medium, information processing system, and display method | |
DK201870226A1 (en) | A method and apparatus for user interaction with a video stream | |
US20200042077A1 (en) | Information processing apparatus | |
JP7534199B2 (en) | Goggle Display System | |
WO2023176103A1 (en) | Information processing device, information processing method, and program | |
WO2021177132A1 (en) | Information processing device, information processing system, information processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20031215 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20040130 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20040223 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20040301 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080305 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090305 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100305 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100305 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110305 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120305 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130305 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140305 Year of fee payment: 10 |
|
LAPS | Cancellation because of no payment of annual fees |