Nothing Special   »   [go: up one dir, main page]

JP2012196286A - Game device, control method for game device, and program - Google Patents

Game device, control method for game device, and program Download PDF

Info

Publication number
JP2012196286A
JP2012196286A JP2011061703A JP2011061703A JP2012196286A JP 2012196286 A JP2012196286 A JP 2012196286A JP 2011061703 A JP2011061703 A JP 2011061703A JP 2011061703 A JP2011061703 A JP 2011061703A JP 2012196286 A JP2012196286 A JP 2012196286A
Authority
JP
Japan
Prior art keywords
player
game
target
trajectory
detection target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011061703A
Other languages
Japanese (ja)
Inventor
Caroline Schmitter
カロリン シュミター
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konami Digital Entertainment Co Ltd
Original Assignee
Konami Digital Entertainment Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konami Digital Entertainment Co Ltd filed Critical Konami Digital Entertainment Co Ltd
Priority to JP2011061703A priority Critical patent/JP2012196286A/en
Publication of JP2012196286A publication Critical patent/JP2012196286A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To enable a player to easily recognize a trajectory to be drawn, in a game where the player moves a detected object so as to draw a trajectory to the music.SOLUTION: A game device (20) executes a game where the player moves the detected object so as to draw the trajectory to the music. A guide means (44) guides the trajectory to be drawn by movement of the detected object by the player and a point of time when the player moves the detected object so as to draw the trajectory, by moving respective plurality of guide images (34) displayed on a game screen (30) from a position different from a target position to which the guide images (34) is to be moved toward a target position where the guide images (34) is to be moved, so that as they approach a reference point of time when the detected object is to be at a position corresponding to the target position, the guide images (34) approach the target position.

Description

本発明は、ゲーム装置、ゲーム装置の制御方法、及びプログラムに関する。   The present invention relates to a game device, a game device control method, and a program.

従来、プレイヤが、楽曲に合わせて軌跡を描くように検出対象を動かすゲームが知られている。例えば、特許文献1には、プレイヤが、モニタに表示されたキャラクタのダンスを真似るように、楽曲に合わせて軌跡を描くように手や足(検出対象)を動かすゲームが記載されている。   Conventionally, a game in which a player moves a detection target so as to draw a trajectory in accordance with music is known. For example, Patent Document 1 describes a game in which a player moves his hands and feet (detection target) so as to draw a trajectory in accordance with music so as to imitate the dance of a character displayed on a monitor.

特許第3866474号公報Japanese Patent No. 3866474

しかしながら、上記のように、プレイヤが楽曲に合わせて軌跡を描くように検出対象を移動させる場合、プレイヤは、いつ、どのような軌跡を描くべきかを把握することが困難であった。例えば、特許文献1の技術においては、プレイヤは、予めキャラクタの部位の軌跡を記憶しておく必要があり、ゲームのプレイ中に描くべき軌跡を把握することが困難であった。   However, as described above, when the player moves the detection target so as to draw a trajectory in accordance with the music, it is difficult for the player to grasp when and what trajectory should be drawn. For example, in the technique of Patent Document 1, it is necessary for a player to store a trajectory of a character part in advance, and it is difficult to grasp a trajectory to be drawn during game play.

本発明は、上記課題に鑑みてなされたものであって、その目的は、プレイヤが楽曲に合わせて軌跡を描くように検出対象を動かすゲームにおいて、プレイヤに、描くべき軌跡を容易に把握させることが可能なゲーム装置、ゲーム装置の制御方法、及びプログラムを提供することである。   The present invention has been made in view of the above problems, and an object thereof is to allow a player to easily grasp a locus to be drawn in a game in which a player moves a detection target so as to draw a locus in accordance with music. The present invention provides a game device, a game device control method, and a program capable of performing the above.

上記課題を解決するために、本発明に係るゲーム装置は、プレイヤが、楽曲に合わせて軌跡を描くように検出対象を動かすゲームを実行するゲーム装置であって、前記検出対象の位置に関する位置情報を取得する位置情報取得手段と、前記プレイヤが前記検出対象を動かすことによって描くべき軌跡と、前記軌跡を描くように前記プレイヤが前記検出対象を動かすべき時点を前記プレイヤに案内する案内手段と、前記位置情報に基づいてゲーム処理を実行する処理実行手段と、を含み、前記案内手段は、基準軌跡を示す軌跡画像と、前記基準軌跡上の複数の目標位置の各々に向けて移動する複数の案内画像と、を含むゲーム画面を表示手段に表示させる手段と、前記目標位置に対応する位置に前記検出対象があるべき基準時点に関する情報を記憶する手段から前記基準時点に関する情報を取得する手段と、前記複数の案内画像の各々を、当該案内画像が移動すべき目標位置とは異なる位置から、当該案内画像が移動すべき目標位置に向けて、当該目標位置に対応する位置に前記検出対象があるべき前記基準時点が近づくにつれて、当該案内画像が当該目標位置に近づくようにして移動させる手段と、を含むことを特徴とする。   In order to solve the above-described problem, a game device according to the present invention is a game device that executes a game in which a player moves a detection target so as to draw a trajectory in accordance with music, and position information regarding the position of the detection target. Position information acquisition means for acquiring the position, a trajectory to be drawn by moving the detection target by the player, and a guide means for guiding the player when to move the detection target to draw the trajectory, Processing execution means for executing game processing based on the position information, and the guide means includes a trajectory image indicating a reference trajectory and a plurality of target positions that move toward each of a plurality of target positions on the reference trajectory. Means for displaying a game screen including a guide image on a display means, and information on a reference time point at which the detection target should be at a position corresponding to the target position. Means for acquiring information relating to the reference time point from means for storing and directing each of the plurality of guide images from a position different from a target position to which the guide image should move to a target position to which the guide image should move. And a means for moving the guide image so as to approach the target position as the reference time at which the detection target should be located approaches a position corresponding to the target position.

また、本発明に係るゲーム装置の制御方法は、プレイヤが、楽曲に合わせて軌跡を描くように検出対象を動かすゲームを実行するゲーム装置の制御方法であって、前記検出対象の位置に関する位置情報を取得する位置情報取得ステップと、前記プレイヤが前記検出対象を動かすことによって描くべき軌跡と、前記軌跡を描くように前記プレイヤが前記検出対象を動かすべき時点を前記プレイヤに案内する案内ステップと、前記位置情報に基づいてゲーム処理を実行する処理実行ステップと、を含み、前記案内ステップは、基準軌跡を示す軌跡画像と、前記基準軌跡上の複数の目標位置の各々に向けて移動する複数の案内画像と、を含むゲーム画面を表示手段に表示させるステップと、前記目標位置に対応する位置に前記検出対象があるべき基準時点に関する情報を記憶する手段から前記基準時点に関する情報を取得するステップと、前記複数の案内画像の各々を、当該案内画像が移動すべき目標位置とは異なる位置から、当該案内画像が移動すべき目標位置に向けて、当該目標位置に対応する位置に前記検出対象があるべき前記基準時点が近づくにつれて、当該案内画像が当該目標位置に近づくようにして移動させるステップと、を含むことを特徴とする。   The game apparatus control method according to the present invention is a game apparatus control method for executing a game in which a player moves a detection target so as to draw a trajectory in accordance with music, and includes position information relating to the position of the detection target. A position information acquisition step for acquiring the path, a trajectory to be drawn by moving the detection target by the player, and a guidance step for guiding the player to move the detection target to draw the trajectory, A process execution step of executing a game process based on the position information, wherein the guide step includes a trajectory image indicating a reference trajectory and a plurality of target positions that move toward each of a plurality of target positions on the reference trajectory. A step of causing the display means to display a game screen including a guide image; and a base on which the detection target should be at a position corresponding to the target position. Obtaining the information on the reference time from the means for storing the information on the time, and the guide image should be moved from a position different from the target position to which the guide image should move. Moving the guide image closer to the target position toward the target position as the reference time point at which the detection target should be close to the position corresponding to the target position. To do.

また、本発明に係るプログラムは、プレイヤが、楽曲に合わせて軌跡を描くように検出対象を動かすゲームを実行するゲーム装置としてコンピュータを機能させるためのプログラムであって、前記検出対象の位置に関する位置情報を取得する位置情報取得手段、前記プレイヤが前記検出対象を動かすことによって描くべき軌跡と、前記軌跡を描くように前記プレイヤが前記検出対象を動かすべき時点を前記プレイヤに案内する案内手段、前記位置情報に基づいてゲーム処理を実行する処理実行手段、を含み、前記案内手段は、基準軌跡を示す軌跡画像と、前記基準軌跡上の複数の目標位置の各々に向けて移動する複数の案内画像と、を含むゲーム画面を表示手段に表示させる手段、前記目標位置に対応する位置に前記検出対象があるべき基準時点に関する情報を記憶する手段から前記基準時点に関する情報を取得する手段、前記複数の案内画像の各々を、当該案内画像が移動すべき目標位置とは異なる位置から、当該案内画像が移動すべき目標位置に向けて、当該目標位置に対応する位置に前記検出対象があるべき前記基準時点が近づくにつれて、当該案内画像が当該目標位置に近づくようにして移動させる手段、を含むことを特徴とする。   The program according to the present invention is a program for causing a computer to function as a game device that executes a game in which a player moves a detection target so as to draw a trajectory in accordance with music, and the position relating to the position of the detection target Position information acquisition means for acquiring information, a trajectory to be drawn by moving the detection target by the player, and a guide means for guiding the player when to move the detection target to draw the trajectory, Processing execution means for executing game processing based on position information, wherein the guide means has a trajectory image indicating a reference trajectory and a plurality of guide images moving toward each of a plurality of target positions on the reference trajectory. And a means for displaying a game screen including display on the display means, and a reference that should be the detection target at a position corresponding to the target position Means for acquiring information relating to the reference time from means for storing information relating to points; each of the plurality of guide images from a position different from the target position to which the guide image should move; Means for moving the guide image closer to the target position toward the position as the reference time point at which the detection target should be close to the position corresponding to the target position.

また、本発明に係る情報記憶媒体は、上記プログラムを記録したコンピュータ読み取り可能な情報記憶媒体である。   An information storage medium according to the present invention is a computer-readable information storage medium recording the above program.

本発明によれば、プレイヤが楽曲に合わせて軌跡を描くように検出対象を動かすゲームにおいて、プレイヤに、描くべき軌跡を容易に把握させることが可能になる。   According to the present invention, in a game in which a player moves a detection target so as to draw a trajectory according to music, the player can easily grasp the trajectory to be drawn.

また、本発明の一態様では、前記検出対象は前記プレイヤの部位であり、前記ゲーム装置は、前記プレイヤが、前記楽曲に合わせて軌跡を描くように前記プレイヤの部位を動かすゲームを実行する、ことを特徴とする。   In one aspect of the present invention, the detection target is a part of the player, and the game device executes a game in which the player moves the part of the player so as to draw a trajectory according to the music. It is characterized by that.

また、本発明の一態様では、前記位置情報取得手段は、前記プレイヤの複数の部位の位置に関する位置情報を取得し、前記処理実行手段は、前記プレイヤの複数の部位の各々について、前記基準時点に基づいて設定される評価対象時点において取得される位置情報が示す当該部位の位置と、前記目標位置に対応する位置と、の位置ずれに基づいて、前記プレイヤの動きを評価する評価手段と、前記プレイヤの複数の部位のうちのいずれかと、前記目標位置に対応する前記位置と、の位置ずれが所定範囲である場合、当該部位を識別する識別情報を記憶手段に記憶させる手段と、を更に含み、前記評価手段は、前記識別情報が前記記憶手段に記憶されている場合、前記識別情報が示す前記プレイヤの部位以外の部位の位置と、前記目標位置に対応する位置と、の位置ずれに基づいて前記プレイヤの動きを評価することを制限し、前記識別情報が示す前記プレイヤの部位の位置と、前記目標位置に対応する位置と、の位置ずれに基づいて前記プレイヤの動きを評価する、ことを特徴とする。   In the aspect of the invention, the position information acquisition unit acquires position information regarding the positions of the plurality of parts of the player, and the processing execution unit performs the reference time point for each of the plurality of parts of the player. Evaluation means for evaluating the movement of the player based on a positional deviation between the position of the part indicated by the position information acquired at the evaluation target time set based on the position and the position corresponding to the target position; Means for storing, in a storage means, identification information for identifying the part when a positional deviation between any one of the plurality of parts of the player and the position corresponding to the target position is within a predetermined range; And when the identification information is stored in the storage means, the evaluation means is configured to detect the position of the part other than the part of the player indicated by the identification information and the target position. And the position of the player indicated by the identification information and the position corresponding to the target position are limited based on the position deviation. The movement of the player is evaluated.

また、本発明の一態様では、前記表示手段に表示される前記ゲーム画面は、他の領域よりも明度が高く設定された所定領域を含み、前記目標位置は、前記所定領域内に含まれ、前記案内手段は、前記案内画像を前記目標位置に向けて前記所定領域内で移動させることを特徴とする。   Moreover, in one aspect of the present invention, the game screen displayed on the display unit includes a predetermined area set with a higher brightness than other areas, and the target position is included in the predetermined area, The guide means moves the guide image within the predetermined area toward the target position.

ゲームをプレイするプレイヤの様子を示す図である。It is a figure which shows the mode of the player who plays a game. CCDカメラによって生成される撮影画像の一例を示す図である。It is a figure which shows an example of the picked-up image produced | generated by a CCD camera. 赤外線センサによるプレイヤの深度の測定方法を説明するための図である。It is a figure for demonstrating the measuring method of the depth of the player by an infrared sensor. 赤外線センサによって得られる深度画像の一例を示す図である。It is a figure which shows an example of the depth image obtained by an infrared sensor. 位置検出装置により生成されるプレイヤ位置情報の一例を示す図である。It is a figure which shows an example of the player position information produced | generated by a position detection apparatus. プレイヤ位置情報によって特定されるプレイヤの位置を示す図である。It is a figure which shows the position of the player specified by player position information. ゲーム画面の一例を示す図である。It is a figure which shows an example of a game screen. 位置検出装置のハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of a position detection apparatus. ゲーム装置のハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of a game device. ゲーム装置において実現される機能を示す機能ブロック図である。It is a functional block diagram which shows the function implement | achieved in a game device. 基準データの一例を示す図である。It is a figure which shows an example of reference | standard data. 基準位置が示す3次元座標を説明するための図である。It is a figure for demonstrating the three-dimensional coordinate which a reference position shows. ゲーム空間を示す図である。It is a figure which shows game space. キャラクタオブジェクトの生成方法を説明するための図である。It is a figure for demonstrating the production | generation method of a character object. 音符オブジェクトが移動する様子を説明するための図である。It is a figure for demonstrating a mode that a note object moves. ゲーム装置において実行される処理の一例を示すフロー図である。It is a flowchart which shows an example of the process performed in a game device. プレイヤが描くべき軌跡とプレイヤの部位との関連付けを示す図である。It is a figure which shows correlation with the locus | trajectory which a player should draw, and the site | part of a player. 実施形態2のゲーム装置において実行される処理の一例を示すフロー図である。10 is a flowchart showing an example of processing executed in the game device of Embodiment 2. FIG. 実施形態2のゲーム装置において実行される処理の一例を示すフロー図である。10 is a flowchart showing an example of processing executed in the game device of Embodiment 2. FIG.

[1.実施形態1]
以下、本発明の実施形態の一例について図面に基づき詳細に説明する。本発明の実施形態に係るゲーム装置は、例えば家庭用ゲーム機(据置型ゲーム機)、携帯ゲーム機、携帯電話機、携帯情報端末(PDA)又はパーソナルコンピュータ等によって実現される。ここでは、本発明の実施形態に係るゲーム装置を家庭用ゲーム機によって実現する場合について説明する。
[1. Embodiment 1]
Hereinafter, an example of an embodiment of the present invention will be described in detail with reference to the drawings. The game device according to the embodiment of the present invention is realized by, for example, a home game machine (stationary game machine), a portable game machine, a mobile phone, a personal digital assistant (PDA), a personal computer, or the like. Here, a case where the game device according to the embodiment of the present invention is realized by a consumer game machine will be described.

図1は、ゲームをプレイするプレイヤの様子を示す図である。図1に示すように、プレイヤ100は、例えば、位置検出装置1の前方に位置する。位置検出装置1とゲーム装置20とは、データ通信可能に接続される。   FIG. 1 is a diagram illustrating a state of a player playing a game. As shown in FIG. 1, the player 100 is located in front of the position detection device 1, for example. The position detection device 1 and the game device 20 are connected so that data communication is possible.

[2.位置検出装置の動作]
まず、位置検出装置1について説明する。位置検出装置1は、3次元空間におけるプレイヤの位置に関するプレイヤ位置情報を生成する。本実施形態においては、プレイヤの位置情報が、プレイヤ100の複数の部位の位置に関する情報を含む場合を説明する。プレイヤ100の部位は、例えば、頭や両腕等である。
[2. Operation of position detection device]
First, the position detection apparatus 1 will be described. The position detection device 1 generates player position information related to the position of the player in the three-dimensional space. In the present embodiment, a case will be described in which the position information of the player includes information regarding the positions of a plurality of parts of the player 100. The part of the player 100 is, for example, the head or both arms.

図1に示すように、位置検出装置1は、例えば、CCDカメラ2、赤外線センサ3、複数のマイクロフォンを含むマイク4等を備える。   As shown in FIG. 1, the position detection device 1 includes, for example, a CCD camera 2, an infrared sensor 3, a microphone 4 including a plurality of microphones, and the like.

CCDカメラ2は、CCDイメージセンサを備えた公知のカメラである。CCDカメラ2は、例えば、所定時間毎(例えば1/60秒毎)にプレイヤ100を撮影した撮影画像(例えば、RGBデジタル画像)を生成する。   The CCD camera 2 is a known camera equipped with a CCD image sensor. The CCD camera 2 generates, for example, a captured image (for example, an RGB digital image) obtained by capturing the player 100 at a predetermined time (for example, every 1/60 seconds).

図2は、CCDカメラ2によって生成される撮影画像の一例を示す図である。図2に示すように、撮影画像には、例えば、プレイヤ100が含まれる。撮影画像には、互いに直行するXs軸、Ys軸が設定される。例えば、撮影画像の左上を、原点Os(0,0)とする。また例えば、撮影画像の右下を、座標Pmax(Xmax,Ymax)とする。撮影画像に対応する各画素の位置は、それぞれの画素に割り当てられる2次元座標(Xs−Ys座標)によって特定される。   FIG. 2 is a diagram illustrating an example of a captured image generated by the CCD camera 2. As shown in FIG. 2, the photographed image includes, for example, a player 100. An Xs axis and a Ys axis that are orthogonal to each other are set in the captured image. For example, the upper left of the photographed image is the origin Os (0, 0). In addition, for example, the lower right corner of the captured image is set as coordinates Pmax (Xmax, Ymax). The position of each pixel corresponding to the captured image is specified by two-dimensional coordinates (Xs-Ys coordinates) assigned to each pixel.

赤外線センサ3は、例えば、赤外線発光素子及び赤外線受光素子(例えば、赤外線ダイオード)から構成される。赤外線センサ3は、赤外線光を照射して得られる反射光を検出する。赤外線センサ3は、この反射光の検出結果に基づいて被写体(例えば、プレイヤ100)の深度を測定する。   The infrared sensor 3 includes, for example, an infrared light emitting element and an infrared light receiving element (for example, an infrared diode). The infrared sensor 3 detects reflected light obtained by irradiating infrared light. The infrared sensor 3 measures the depth of the subject (for example, the player 100) based on the detection result of the reflected light.

被写体の深度とは、測定基準位置と被写体の位置との距離間隔である。測定基準位置とは、プレイヤ100の位置の深度(奥行き)を測定する際の基準となる位置である。測定基準位置は、位置検出装置1の位置と関連付けられる所定の位置であればよく、例えば、赤外線センサ3の赤外線受光素子の位置である。赤外線センサ3は、例えば、赤外線を照射してから反射光を受光するまでの飛行時間(TOF:Time of Flight)に基づいてプレイヤ100の深度を測定する。   The subject depth is a distance interval between the measurement reference position and the subject position. The measurement reference position is a position serving as a reference when measuring the depth (depth) of the position of the player 100. The measurement reference position may be a predetermined position associated with the position of the position detection device 1, for example, the position of the infrared light receiving element of the infrared sensor 3. The infrared sensor 3 measures the depth of the player 100 based on, for example, a flight time (TOF: Time of Flight) from when the infrared light is irradiated until the reflected light is received.

図3は、赤外線センサ3によるプレイヤ100の深度の測定方法を説明するための図である。図3に示すように、赤外線センサ3から所定間隔でパルス状の赤外線光が照射される。赤外線センサ3から照射された赤外線光は、赤外線センサ3の発光位置を中心点として球状に広がる。   FIG. 3 is a diagram for explaining a method of measuring the depth of the player 100 by the infrared sensor 3. As shown in FIG. 3, pulsed infrared light is emitted from the infrared sensor 3 at a predetermined interval. Infrared light emitted from the infrared sensor 3 spreads in a spherical shape with the light emission position of the infrared sensor 3 as a center point.

赤外線センサ3から照射された赤外線光は、例えば、プレイヤ100の体の表面に当たる。これらの表面に当たった赤外線光は、反射する。反射した赤外線光は、赤外線センサ3の赤外線受光素子により検出される。即ち、赤外線センサ3は、照射した赤外線に対して位相が180度反転した反射光を検出する。   For example, the infrared light emitted from the infrared sensor 3 strikes the surface of the player 100 body. Infrared light hitting these surfaces is reflected. The reflected infrared light is detected by the infrared light receiving element of the infrared sensor 3. That is, the infrared sensor 3 detects reflected light whose phase is inverted by 180 degrees with respect to the irradiated infrared ray.

例えば、図3に示すように、プレイヤ100が両手を前方に突き出している場合、突き出された両手は、プレイヤ100の胴体よりも赤外線センサ3に近い。つまり、プレイヤ100の両手によって反射される赤外線光の飛行時間は、プレイヤ100の胴体によって反射される赤外線光の飛行時間よりも短い。   For example, as shown in FIG. 3, when the player 100 projects both hands forward, the projected hands are closer to the infrared sensor 3 than the body of the player 100. That is, the flight time of the infrared light reflected by both hands of the player 100 is shorter than the flight time of the infrared light reflected by the player's 100 body.

赤外線センサ3が赤外線光を照射してから反射光を検出するまでの時間(つまり、飛行時間)と、赤外線の速度と、を乗算して半分で割った値は、測定基準位置とプレイヤ100との距離間隔(即ち、深度)に相当する。このような処理を行うことにより、赤外線センサ3は、プレイヤ100の深度を測定することができる。   The value obtained by multiplying the time from when the infrared sensor 3 irradiates the infrared light to the time when the reflected light is detected (that is, the flight time) and the speed of the infrared rays and dividing the result by the half is the measurement reference position and the player 100. Is equivalent to the distance interval (ie, depth). By performing such processing, the infrared sensor 3 can measure the depth of the player 100.

また、赤外線センサ3は、反射した赤外線光から得られる深度差を検出することにより、被写体(プレイヤ100)の輪郭も検出する。上記のように、赤外線センサ3が赤外線光の反射光を受信することは、この場所に物体が配置されていることを意味する。また、この物体の後方の近い位置に他の物体が配置されていなければ、この物体と、この物体の周囲と、の深度差は大きくなる。例えば、深度差が所定値よりも大きい箇所をつなぎ合わせることによって、プレイヤ100の輪郭を検出する。   The infrared sensor 3 also detects the contour of the subject (player 100) by detecting the depth difference obtained from the reflected infrared light. As described above, the fact that the infrared sensor 3 receives the reflected light of the infrared light means that an object is arranged at this place. Also, if no other object is placed near the rear of this object, the depth difference between this object and the surroundings of this object will be large. For example, the contour of the player 100 is detected by connecting places where the depth difference is larger than a predetermined value.

なお、プレイヤ100の輪郭を検出する方法は、上記の例に限られない。他にも例えば、CCDカメラ2によって得られる撮影画像の各画素の輝度に基づいて輪郭を検知するようにしてもよい。この場合も、例えば、画素間の輝度差が大きい箇所をつなぎ合わせることによってプレイヤ100の輪郭を検出することができる。   Note that the method of detecting the contour of the player 100 is not limited to the above example. In addition, for example, the contour may be detected based on the luminance of each pixel of the captured image obtained by the CCD camera 2. Also in this case, for example, the contour of the player 100 can be detected by connecting portions having a large luminance difference between pixels.

上記のようにして検出されるプレイヤ100の深度に関する情報(深度情報)は、例えば、深度画像として表現される。本実施形態においては、深度情報が、グレースケールの深度画像(例えば、256ビットのグレースケールの画像データ)として表現される例を挙げて説明する。   Information (depth information) relating to the depth of the player 100 detected as described above is expressed as a depth image, for example. In the present embodiment, an example will be described in which depth information is expressed as a grayscale depth image (for example, 256-bit grayscale image data).

図4は、赤外線センサ3によって得られる深度画像の一例を示す図である。図4に示すように、例えば、赤外線センサ3に近い物体は明るく(輝度が高く)、遠い物体は暗く(輝度が低く)表現される。プレイヤ100の深度は、深度画像の輝度(画素値)に対応する。   FIG. 4 is a diagram illustrating an example of a depth image obtained by the infrared sensor 3. As shown in FIG. 4, for example, an object close to the infrared sensor 3 is expressed bright (high brightness), and a distant object is expressed dark (low brightness). The depth of the player 100 corresponds to the brightness (pixel value) of the depth image.

例えば、深度画像が256ビットのグレースケールの画像データとして表される場合、プレイヤ100の深度が2センチメートル異なる毎に深度画像の輝度が1ビット異なる。この場合、赤外線センサ3は、被写体の深度を2センチ単位で検出することが可能であることを示す。プレイヤ100が両手を前方に突き出している場合(図3)、図4に示すように、プレイヤ100の両手に対応する画素は、胴体に対応する画素よりも明るく(輝度が高く)表現される。   For example, when the depth image is represented as 256-bit grayscale image data, the brightness of the depth image is different by 1 bit every time the depth of the player 100 is different by 2 centimeters. In this case, the infrared sensor 3 indicates that the depth of the subject can be detected in units of 2 cm. When the player 100 projects both hands forward (FIG. 3), as shown in FIG. 4, the pixels corresponding to both hands of the player 100 are expressed brighter (higher brightness) than the pixels corresponding to the trunk.

本実施形態においては、赤外線センサ3は、CCDカメラ2と同様に所定時間毎(例えば1/60秒毎)に、深度画像を生成する。CCDカメラ2により得られる撮影画像と、赤外線センサ3により得られる深度画像と、に基づいてプレイヤ100の部位の位置に関するプレイヤ位置情報が生成される。   In the present embodiment, the infrared sensor 3 generates a depth image every predetermined time (for example, every 1/60 seconds) as in the CCD camera 2. Based on the captured image obtained by the CCD camera 2 and the depth image obtained by the infrared sensor 3, player position information relating to the position of the part of the player 100 is generated.

例えば、CCDカメラ2により得られる撮影画像(RGBデータ)に、深度画像が示す深度情報(D:Depth)が合算された合成画像(RGBDデータ)が生成される。即ち、合成画像は、各画素ごとに、色情報(RGBそれぞれの明度)と深度情報とを含む。   For example, a composite image (RGBD data) in which depth information (D: Depth) indicated by the depth image is added to a captured image (RGB data) obtained by the CCD camera 2 is generated. That is, the composite image includes color information (RGB brightness) and depth information for each pixel.

合成画像に基づいてプレイヤ位置情報が生成される際には、まず、深度画像に基づいてプレイヤ100の輪郭に対応する画素が特定される。次いで、合成画像のうち輪郭によって囲まれた画素の色情報(RGBの明度)が参照される。合成画像の色情報に基づいて、プレイヤ100の体の各部位に対応する画素が特定される。この特定方法としては、例えば、比較画像(教師画像)との比較によって画像の中から対象物(即ち、プレイヤ100の体の各部位)を抽出するパターンマッチング法等、公知の手法を適用可能である。   When the player position information is generated based on the composite image, first, pixels corresponding to the contour of the player 100 are specified based on the depth image. Next, the color information (RGB brightness) of the pixels surrounded by the outline in the composite image is referred to. Based on the color information of the composite image, pixels corresponding to each part of the body of the player 100 are specified. As this specifying method, for example, a known method such as a pattern matching method for extracting an object (that is, each part of the body of the player 100) from an image by comparison with a comparison image (teacher image) can be applied. is there.

上記のようにして特定された画素の画素値(RGBD値)に基づいて、プレイヤ100の頭や肩等の3次元座標が算出される。例えば、この画素値に対して所定の行列変換処理が施されることによって、3次元座標が生成される。この行例変換処理は、例えば、3Dグラフィックにおけるワールド座標−スクリーン座標の2つの座標系の変換処理と同様の行例演算によって実行される。つまり、画素の色情報を示すRGB値と奥行きを示すD値と、が所定の行列式に代入されることにより、この画素の3次元座標が算出される。   Based on the pixel values (RGBD values) of the pixels specified as described above, three-dimensional coordinates such as the head and shoulders of the player 100 are calculated. For example, a three-dimensional coordinate is generated by performing a predetermined matrix conversion process on the pixel value. This line example conversion process is executed by, for example, line example calculation similar to the conversion process of two coordinate systems of world coordinates-screen coordinates in 3D graphics. That is, the RGB value indicating the color information of the pixel and the D value indicating the depth are substituted into a predetermined determinant, whereby the three-dimensional coordinates of the pixel are calculated.

なお、画素値(RGBD値)から画素に対応する3次元座標が算出される方法は、公知の手法を適用可能であり、この算出方法は、上記の例に限られない。他にも例えば、ルックアップテーブルを用いて座標変換が行われるようにしてもよい。   A known method can be applied to the method for calculating the three-dimensional coordinates corresponding to the pixel from the pixel value (RGBD value), and this calculation method is not limited to the above example. In addition, for example, coordinate conversion may be performed using a lookup table.

図5は、位置検出装置1により生成されるプレイヤ位置情報の一例を示す図である。図5に示すように、プレイヤ位置情報は、プレイヤ100の複数の部位の位置に関する複数の情報を含む。プレイヤ位置情報は、例えば、プレイヤ100の各部位と、3次元座標と、が対応付けられて格納される。   FIG. 5 is a diagram illustrating an example of player position information generated by the position detection device 1. As shown in FIG. 5, the player position information includes a plurality of information related to the positions of a plurality of parts of the player 100. The player position information is stored in association with, for example, each part of the player 100 and three-dimensional coordinates.

図6は、プレイヤ位置情報によって特定されるプレイヤ100の位置を示す図である。本実施形態では、例えば、位置検出装置1に対応する所定位置(例えば、測定基準位置)を原点Opとする。例えば、原点Opは、赤外線センサ3の測定基準位置に対応する3次元座標である。なお、原点Opの位置は、プレイヤ100がいる3次元空間のどこに設定されてもよい。例えば、撮影画像の原点Osに対応する3次元座標が、原点Opとして設定されるようにしてもよい。   FIG. 6 is a diagram illustrating the position of the player 100 specified by the player position information. In the present embodiment, for example, a predetermined position (for example, a measurement reference position) corresponding to the position detection device 1 is set as the origin Op. For example, the origin Op is a three-dimensional coordinate corresponding to the measurement reference position of the infrared sensor 3. Note that the position of the origin Op may be set anywhere in the three-dimensional space where the player 100 is located. For example, a three-dimensional coordinate corresponding to the origin Os of the captured image may be set as the origin Op.

図6に示すように、本実施形態では、プレイヤ位置情報がプレイヤ100の複数の部位のうちで少なくとも頭の位置及び腰の位置に関する部位情報を含む場合を説明する。例えば、プレイヤ位置情報は、プレイヤ100の頭P1、肩P2、左上腕P3、右上腕P4、左下腕P5、右下腕P6、背中P7、左ももP8、右ももP9、左すねP10、右すねP11に対応する11個の3次元座標が含まれる。   As shown in FIG. 6, in the present embodiment, a case will be described in which the player position information includes at least part information regarding the position of the head and the position of the waist among the plurality of parts of the player 100. For example, the player position information includes the head P1, the shoulder P2, the upper left arm P3, the upper right arm P4, the lower left arm P5, the lower right arm P6, the back P7, the left arm P8, the right arm P9, and the left shin P10. Eleven three-dimensional coordinates corresponding to the right shin P11 are included.

なお、プレイヤ位置情報によって示されるプレイヤ100の体の部位は、プレイヤの体(骨格)のうちで予め定められた部位のものであってよい。例えば、この部位は、先述したパターンマッチング法によって特定可能な体の部位であればどこでもよい。   Note that the body part of the player 100 indicated by the player position information may be a predetermined part of the player's body (skeleton). For example, this part may be any part of the body that can be specified by the pattern matching method described above.

例えば、所定間隔毎(例えば、1/60秒毎)に生成されるプレイヤ位置情報は、位置検出装置1からゲーム装置20に対して送信される。ゲーム装置20は、プレイヤ位置情報を位置検出装置1から受信し、プレイヤ(以降、プレイヤの「100」の符号を省略する。)の体の動きを把握してゲームを実行する。   For example, player position information generated at predetermined intervals (for example, every 1/60 seconds) is transmitted from the position detection device 1 to the game device 20. The game device 20 receives the player position information from the position detection device 1 and grasps the body movement of the player (hereinafter, the player's “100” is omitted) to execute the game.

[3.ゲーム装置で実行されるゲーム]
ゲーム装置20は、プレイヤが、楽曲に合わせて軌跡を描くように検出対象(例えば、プレイヤの部位)を動かすゲームを実行する場合を説明する。検出対象とは、プレイヤが描く軌跡をゲーム装置20に検出させるためにプレイヤが用いるものであり、例えば、プレイヤの部位である。即ち、ゲーム装置20は、検出対象の位置変化を検出することによってプレイヤが描く軌跡を検出する。プレイヤは、ゲーム装置20に表示されるゲーム画面の表示内容を頼りにして、楽曲に合わせて手や足を用いて所定の軌跡を描くことを目指す。
[3. Game executed on game device]
The game apparatus 20 will describe a case where the player executes a game that moves a detection target (for example, a part of the player) so as to draw a trajectory according to the music. The detection target is used by the player to cause the game apparatus 20 to detect a trajectory drawn by the player, and is, for example, a part of the player. In other words, the game device 20 detects a locus drawn by the player by detecting a change in the position of the detection target. The player relies on the display content of the game screen displayed on the game device 20 and aims to draw a predetermined trajectory using hands and feet according to the music.

図7は、ゲーム画面の一例を示す図である。図7に示すように、ゲーム画面30には、キャラクタ32と、音符34a,34b(以降、これらをまとめて単に音符34という。)と、軌跡画像36a,36b(以降、これらをまとめて軌跡画像36という。)と、スポットライト38と、が含まれる。ゲーム画面30のうち、スポットライト38によって照らされている所定領域38aは、他の領域よりも明度が高く設定されていてもよい。   FIG. 7 is a diagram illustrating an example of the game screen. As shown in FIG. 7, the game screen 30 includes a character 32, musical notes 34a and 34b (hereinafter collectively referred to simply as notes 34), and trajectory images 36a and 36b (hereinafter collectively referred to as trajectory images). 36) and a spotlight 38. In the game screen 30, the predetermined area 38a illuminated by the spotlight 38 may be set to have a higher brightness than the other areas.

キャラクタ32は、プレイヤと同じような動作を行うように表示制御される。例えば、プレイヤが右手を上げると、キャラクタ32は、プレイヤから見て右側の手を上げる。他の部位についても同様に、プレイヤが部位を動かした場合、キャラクタ32も、この部位に対応する部位を動かすように動作する。   The display of the character 32 is controlled so as to perform the same action as the player. For example, when the player raises the right hand, the character 32 raises the right hand as viewed from the player. Similarly, when the player moves the part, the character 32 also operates to move the part corresponding to this part.

音符34は、例えば、スポットライト38から発生し、プレイヤが所定の軌跡を描くべき時間が近づくにつれて、徐々に軌跡画像36に近づくように移動する。例えば、音符34が軌跡画像36と重なった時に、音符34と軌跡画像36とが重なっている位置にキャラクタ32の部位が位置するように、プレイヤの部位が軌跡を描くと、プレイヤは高い評価を得ることができる。   The musical note 34 is generated from, for example, the spotlight 38 and moves so as to gradually approach the trajectory image 36 as the time for the player to draw a predetermined trajectory approaches. For example, when the part of the player draws a locus so that the part of the character 32 is located at the position where the note 34 and the locus image 36 overlap when the note 34 overlaps the locus image 36, the player is highly evaluated. Obtainable.

プレイヤの部位(検出対象)が描くべき軌跡は、軌跡画像36によって案内される。図7の画面例の場合、軌跡画像36a,36bが示す2つの基準軌跡によって、プレイヤが描くべき軌跡が案内される。基準軌跡の形状は、予め定められた形状であればよく、例えば、基準軌跡の形状は、図7のように円弧状であってもよい。   The locus to be drawn by the player's part (detection target) is guided by the locus image 36. In the case of the screen example in FIG. 7, the trajectory to be drawn by the player is guided by the two reference trajectories indicated by the trajectory images 36 a and 36 b. The shape of the reference locus may be a predetermined shape. For example, the shape of the reference locus may be an arc as shown in FIG.

このように、プレイヤは、スポットライト38から落ちてくる音符34を、キャラクタ32が軌跡画像36の位置で受け止めるように、部位を動かして軌跡を描く。本実施形態においては、図7に示すように、複数の音符34が列になって軌跡画像36に近づくので、プレイヤは、キャラクタ32が軌跡画像36が示す基準軌跡をなぞるように、部位を動かしてゲームをプレイする。   In this way, the player draws a trajectory by moving the part so that the character 32 receives the note 34 falling from the spotlight 38 at the position of the trajectory image 36. In the present embodiment, as shown in FIG. 7, since a plurality of musical notes 34 are arranged in a row and approach the trajectory image 36, the player moves the part so that the character 32 traces the reference trajectory indicated by the trajectory image 36. Play the game.

本実施形態のゲームにおいては、プレイヤは、音符34と軌跡画像36との位置関係を頼りに軌跡を描くことができるので、プレイヤは、いつ、どのような軌跡を描くべきかを容易に把握することができる構成になっている。以降、この技術について詳細に説明する。   In the game of the present embodiment, the player can draw a locus on the basis of the positional relationship between the musical note 34 and the locus image 36, so the player can easily grasp when and what kind of locus should be drawn. It can be configured. Hereinafter, this technique will be described in detail.

まず、位置検出装置1とゲーム装置20との構成について説明する。   First, the configuration of the position detection device 1 and the game device 20 will be described.

[4.位置検出装置の構成]
図8は、位置検出装置1のハードウェア構成を示す図である。図8に示すように、位置検出装置1は、制御部10、記憶部11、撮影部12、深度測定部13、音声入力部14、通信インタフェース部15から構成される。位置検出装置1の各構成要素は、バス16によってデータ送受信可能に接続される。
[4. Configuration of position detection device]
FIG. 8 is a diagram illustrating a hardware configuration of the position detection device 1. As illustrated in FIG. 8, the position detection device 1 includes a control unit 10, a storage unit 11, a photographing unit 12, a depth measurement unit 13, a voice input unit 14, and a communication interface unit 15. Each component of the position detection apparatus 1 is connected by a bus 16 so that data can be transmitted and received.

制御部10は、記憶部11に記憶されるオペレーティングシステム、各種プログラムに基づいて位置検出装置1の各部を制御する。   The control unit 10 controls each unit of the position detection device 1 based on an operating system and various programs stored in the storage unit 11.

記憶部11は、オペレーティングシステムや撮影部12、深度測定部13を動作させるためのプログラム、各種パラメータを記憶する。また、記憶部11は、撮影画像及び深度画像に基づいてプレイヤ位置情報を生成するためのプログラムを記憶する。   The storage unit 11 stores an operating system, a shooting unit 12, a program for operating the depth measurement unit 13, and various parameters. The storage unit 11 also stores a program for generating player position information based on the captured image and the depth image.

撮影部12は、CCDカメラ2等から構成される。撮影部12は、例えば、プレイヤの撮影画像を生成する。深度測定部13は、赤外線センサ3等から構成される。深度測定部13は、例えば、赤外線センサ3により得られる飛行時間に基づいて深度画像を生成する。制御部10は、先述のように、所定時間毎(例えば、1/60秒毎)に、撮影部12により生成される撮影画像と、深度測定部13により生成される深度画像と、に基づいて、プレイヤ位置情報を生成する。   The photographing unit 12 includes a CCD camera 2 and the like. For example, the photographing unit 12 generates a photographed image of the player. The depth measurement unit 13 includes the infrared sensor 3 and the like. For example, the depth measurement unit 13 generates a depth image based on the flight time obtained by the infrared sensor 3. As described above, the control unit 10 is based on the captured image generated by the imaging unit 12 and the depth image generated by the depth measurement unit 13 every predetermined time (for example, every 1/60 seconds). Then, player position information is generated.

音声入力部14は、マイク4等から構成される。通信インタフェース部15は、ゲーム装置20に対してプレイヤ位置情報等の各種データを送信するためのインタフェースである。   The voice input unit 14 includes a microphone 4 and the like. The communication interface unit 15 is an interface for transmitting various data such as player position information to the game apparatus 20.

[5.ゲーム装置の構成]
図9は、ゲーム装置20のハードウェア構成を示す図である。図9に示すように、ゲーム装置20は、制御部21、主記憶部22、補助記憶部23、光ディスク再生部24、通信インタフェース部25、操作部26、表示部27、及び音声出力部28を含む。ゲーム装置20の各部はバス29によって接続されている。
[5. Configuration of game device]
FIG. 9 is a diagram illustrating a hardware configuration of the game apparatus 20. As shown in FIG. 9, the game apparatus 20 includes a control unit 21, a main storage unit 22, an auxiliary storage unit 23, an optical disc playback unit 24, a communication interface unit 25, an operation unit 26, a display unit 27, and an audio output unit 28. Including. Each part of the game apparatus 20 is connected by a bus 29.

制御部21は、例えばCPU、GPU(Graphics Processing Unit)、及びSPU(Sound Processing Unit)等を含む。制御部21は、オペレーティングシステムやその他のプログラムに従って各種処理を実行する。   The control unit 21 includes, for example, a CPU, a GPU (Graphics Processing Unit), an SPU (Sound Processing Unit), and the like. The control unit 21 executes various processes according to the operating system and other programs.

主記憶部22は、例えば、RAM(Random Access Memory)を含む。補助記憶部23は、例えば、ハードディスク装置(情報記億媒体)を含む。主記憶部22は、補助記憶部23又は光ディスク(情報記憶媒体)から読み出されたプログラムやデータを記憶する。また、主記憶部22は、処理の過程で必要なデータを記憶するワークメモリとしても用いられる。また例えば、主記憶部22は、位置検出装置1から受信されるプレイヤ位置情報を、受信時間と対応付けて一時的に記憶する。   The main storage unit 22 includes, for example, a RAM (Random Access Memory). The auxiliary storage unit 23 includes, for example, a hard disk device (information storage medium). The main storage unit 22 stores programs and data read from the auxiliary storage unit 23 or the optical disc (information storage medium). The main storage unit 22 is also used as a work memory that stores data necessary in the course of processing. Further, for example, the main storage unit 22 temporarily stores the player position information received from the position detection device 1 in association with the reception time.

光ディスク再生部24は、光ディスクに記憶されたプログラムやデータを読み取る。光ディスクには、例えば、ゲームプログラムが記憶されている。   The optical disc playback unit 24 reads programs and data stored on the optical disc. For example, a game program is stored on the optical disc.

通信インタフェース部25は、ゲーム装置20を通信ネットワークに通信接続するためのインタフェースである。ゲーム装置20は、通信インタフェース部25を介してプレイヤ位置情報を、位置検出装置1から取得する。   The communication interface unit 25 is an interface for connecting the game apparatus 20 to a communication network. The game device 20 acquires player position information from the position detection device 1 via the communication interface unit 25.

操作部26は、プレイヤが操作を行うためのものである。操作部26は、例えばゲームコントローラ、タッチパネル、マウス、又はキーボード等を含む。表示部27は、例えば、家庭用テレビ受像機又は液晶表示パネル等である。音声出力部28は、例えば、スピーカ又はヘッドホン等を含む。   The operation unit 26 is for a player to perform an operation. The operation unit 26 includes, for example, a game controller, a touch panel, a mouse, or a keyboard. The display unit 27 is, for example, a home television receiver or a liquid crystal display panel. The audio output unit 28 includes, for example, a speaker or headphones.

本実施形態においては、ゲームの実行に際して必要なプログラムやデータは、光ディスクを介してゲーム装置20に供給される場合を説明する。なお、これらのプログラムやデータは、他の情報記憶媒体(例えば、メモリカード)を介してゲーム装置20に供給されるようにしてもよい。または、プログラムやデータは、通信ネットワークを介して遠隔地からゲーム装置20に供給されるようにしてもよい。   In the present embodiment, a case will be described in which a program and data necessary for executing a game are supplied to the game apparatus 20 via an optical disc. Note that these programs and data may be supplied to the game apparatus 20 via another information storage medium (for example, a memory card). Alternatively, the program and data may be supplied to the game apparatus 20 from a remote location via a communication network.

[6.ゲーム装置で実現される機能]
図10は、ゲーム装置20において実現される機能を示す機能ブロック図である。図10に示すように、ゲーム装置20では、ゲームデータ記憶部40、位置情報取得部42、案内部44、処理実行部46が実現される。これらの機能は、制御部21が、光ディスクから読み出されたプログラムに従って動作することにより、実現される。
[6. Functions realized with game devices]
FIG. 10 is a functional block diagram showing functions implemented in the game apparatus 20. As shown in FIG. 10, in the game apparatus 20, a game data storage unit 40, a position information acquisition unit 42, a guide unit 44, and a process execution unit 46 are realized. These functions are realized by the control unit 21 operating according to a program read from the optical disc.

[6−1.ゲームデータ記憶部]
ゲームデータ記憶部40は、主記憶部22及び補助記憶部23を主として実現される。ゲームデータ記憶部40は、ゲームを実行するために必要な情報を記憶する。例えば、ゲームデータ記憶部40には、以下のようなデータが格納される。
(1)楽曲データ(一般のポピュラー音楽等を所定のデータ形式で保存したデータ)
(2)基準データ
(3)プレイヤ位置情報を時系列的に格納したデータ
(4)ゲーム状況データ(実行中のゲームの状況(得点や楽曲の経過時間等)を示すデータ)
[6-1. Game data storage unit]
The game data storage unit 40 is realized mainly with the main storage unit 22 and the auxiliary storage unit 23. The game data storage unit 40 stores information necessary for executing the game. For example, the game data storage unit 40 stores the following data.
(1) Music data (data storing general popular music etc. in a predetermined data format)
(2) Reference data (3) Data storing player position information in time series (4) Game status data (data indicating the status of the game being executed (scores, elapsed time of music, etc.))

なお、上記のデータのうち、楽曲データ及び基準データは、予めゲーム制作者によって用意されたデータである。プレイヤ位置情報は、位置検出装置1から取得されるデータであり、ゲーム状況データは、ゲームプログラムによって生成及び更新されるデータである。また、制御部21は、ゲームデータ記憶部40に格納された各種データを取得する手段として機能する。   Of the above data, the music data and the reference data are data prepared in advance by the game creator. The player position information is data acquired from the position detection device 1, and the game situation data is data generated and updated by a game program. Further, the control unit 21 functions as a means for acquiring various data stored in the game data storage unit 40.

基準データは、検出対象(例えば、プレイヤの部位)があるべき位置と、当該位置に検出対象があるべき基準時点と、を対応付けてなるデータである。本実施形態においては、基準データは、プレイヤに描かせるべき所定軌跡上の複数の基準位置と、プレイヤの部位が基準位置にあるべき基準時点に関する情報と、を対応付けてなるデータである場合を説明する。即ち、基準データは、プレイヤに、いつ、どのような軌跡を描かせるべきか、を定義するデータである。基準データは、例えば、楽曲のテンポを考慮して定められている。   The reference data is data obtained by associating a position where the detection target (for example, a part of the player) should exist with a reference time point where the detection target should exist at the position. In the present embodiment, the reference data is a case in which a plurality of reference positions on a predetermined locus to be drawn by the player are associated with information on a reference time point at which the player's part should be at the reference position. explain. That is, the reference data is data that defines when and what kind of locus should be drawn by the player. The reference data is determined in consideration of the tempo of the music, for example.

基準データには、例えば、プレイヤの部位があるべき3次元座標が基準位置として格納される。基準位置は、例えば、プレイヤに描かせるべき所定軌跡上の3次元座標である。基準時点は、別の言い方をすれば、例えば、処理実行部46がプレイヤが描いた軌跡を評価すべき時点であり、楽曲の再生期間内の時点に定められる。   In the reference data, for example, the three-dimensional coordinates where the player's part should be are stored as the reference position. The reference position is, for example, a three-dimensional coordinate on a predetermined locus to be drawn by the player. In other words, the reference time point is, for example, a time point at which the processing execution unit 46 should evaluate the trajectory drawn by the player, and is set to a time point within the music reproduction period.

図11は、基準データの一例を示す図である。図11に示すt軸は、時間軸である。t軸は、楽曲の再生が開始されてからの経過時間を示している。例えば、基準データにおいては、プレイヤの部位が、プレイヤが描くべき軌跡上の複数の基準位置にあるべき基準時点が、所定小節(例えば、1/8小節)の単位で表されている。例えば、1/8小節の各時点において、基準位置を示す3次元座標が格納される。即ち、基準データに基準位置が格納されている時点は、基準時点であり、基準データに基準位置が格納されていない時点は、基準時点ではない。   FIG. 11 is a diagram illustrating an example of the reference data. The t axis shown in FIG. 11 is a time axis. The t-axis indicates the elapsed time from the start of music playback. For example, in the reference data, the reference time points at which the player's part should be at a plurality of reference positions on the locus to be drawn by the player are expressed in units of a predetermined measure (for example, 1/8 measure). For example, three-dimensional coordinates indicating the reference position are stored at each time point of 1/8 bar. That is, the time point at which the reference position is stored in the reference data is the reference time point, and the time point at which the reference position is not stored in the reference data is not the reference time point.

本実施形態においては、基準位置及び基準時点が対応付けられた複数のデータ(図11の場合は2つ。以降、これらを基準データA及び基準データBという。)が基準データに含まれる場合を説明する。即ち、基準位置及び基準時点が対応付けられたデータが、プレイヤが描くべき軌跡毎にグループ分けされている。   In the present embodiment, the reference data includes a plurality of pieces of data in which the reference position and the reference time point are associated (two in the case of FIG. 11, hereinafter referred to as reference data A and reference data B). explain. That is, data in which the reference position and the reference time point are associated is grouped for each trajectory to be drawn by the player.

図12は、基準位置が示す3次元座標を説明するための図である。図12に示すように、プレイヤが描くべき軌跡A上の複数の基準位置A〜Aが、基準データAに定義される。プレイヤは、例えば、右下腕P6を使って軌跡Aをなぞるようにして、ゲームをプレイする。一方、プレイヤが描くべき軌跡B上の複数の基準位置B〜Bが、基準データBに定義される。プレイヤは、例えば、左下腕P5を使って軌跡Bをなぞるようにして、ゲームをプレイする。 FIG. 12 is a diagram for explaining the three-dimensional coordinates indicated by the reference position. As shown in FIG. 12, a plurality of reference positions A 1 to A 5 on a locus A 0 to be drawn by the player are defined in the reference data A. The player, for example, so as to trace the trajectory A 0 using the lower right arm P6, to play the game. On the other hand, a plurality of reference positions B 1 to B 5 on the locus B 0 to be drawn by the player are defined in the reference data B. The player, for example, so as to trace the trajectory B 0 using the lower left arm P5, to play the game.

[6−2.位置情報取得部]
位置情報取得部42は、制御部21を主として実現される。位置情報取得部42は、検出対象(例えば、プレイヤの部位)の位置に関する位置情報を取得する。本実施形態においては、位置情報取得部42は、プレイヤの複数の部位の位置に関するプレイヤ位置情報を取得する場合を説明する。位置情報取得部42は、例えば、位置検出装置1からプレイヤ位置情報を取得する。プレイヤ位置情報は、例えば、取得時間と対応づけられてゲームデータ記憶部40に記憶される。
[6-2. Location information acquisition unit]
The position information acquisition unit 42 is realized mainly by the control unit 21. The position information acquisition unit 42 acquires position information related to the position of the detection target (for example, the player's part). In this embodiment, the position information acquisition part 42 demonstrates the case where the player position information regarding the position of a several site | part of a player is acquired. The position information acquisition unit 42 acquires player position information from the position detection device 1, for example. The player position information is stored in the game data storage unit 40 in association with the acquisition time, for example.

[6−3.案内部]
案内部44は、制御部21を主として実現される。案内部44は、プレイヤが検出対象(例えば、プレイヤの部位)を動かすことによって描くべき軌跡と、軌跡を描くようにプレイヤが検出対象を動かすべき時点(期間)をプレイヤに案内する。
[6-3. Guide section]
The guide unit 44 is realized mainly by the control unit 21. The guide unit 44 guides the player of a trajectory to be drawn by moving the detection target (for example, a part of the player) and a time point (period) at which the player should move the detection target so as to draw the trajectory.

また、案内部44は、目標位置に対応する位置に検出対象があるべき基準時点に関する情報(例えば、基準データ)を記憶する手段(例えば、ゲームデータ記憶部40)から基準時点に関する情報を取得する。例えば、案内部44、ゲームデータ記憶部40から基準データを取得する。案内部44は、表示部27にゲーム画面30を表示させる。案内部44は、ゲーム画面30の表示内容に基づいて、プレイヤに基準位置と基準時点とを案内することによって、プレイヤが部位を動かすことによって描くべき軌跡と、軌跡を描くようにプレイヤが部位を動かすべき時点と、をプレイヤに案内する。   In addition, the guide unit 44 acquires information on the reference time from means (for example, the game data storage unit 40) that stores information (for example, reference data) on the reference time that should be detected at a position corresponding to the target position. . For example, the reference data is acquired from the guide unit 44 and the game data storage unit 40. The guide unit 44 displays the game screen 30 on the display unit 27. The guide unit 44 guides the player to the reference position and the reference time point based on the display content of the game screen 30, so that the player can draw the locus and the locus to be drawn when the player moves the portion. The player is informed of when to move.

案内部44は、基準軌跡を示す軌跡画像36と、基準軌跡上の複数の目標位置の各々に向けて移動する複数の案内画像(例えば、音符34)と、を含むゲーム画面30を表示手段(例えば、表示部27)に表示させる。   The guide unit 44 displays a game screen 30 including a trajectory image 36 indicating a reference trajectory and a plurality of guide images (for example, musical notes 34) moving toward each of a plurality of target positions on the reference trajectory. For example, it is displayed on the display unit 27).

目標位置は、ゲーム画面30において基準位置をプレイヤに案内するために、ゲーム画面30内に設定される位置である。即ち、目標位置は、基準データが示す基準位置に基づいて設定され、目標位置と基準位置とは、一定の関係を保つ。別の言い方をすれば、目標位置は、基準時点及び基準位置を案内するための音符34の移動先の位置であり、例えば、軌跡画像36の表示位置に対応する位置が設定される。   The target position is a position set in the game screen 30 in order to guide the reference position on the game screen 30 to the player. That is, the target position is set based on the reference position indicated by the reference data, and the target position and the reference position maintain a certain relationship. In other words, the target position is the reference time point and the position to which the musical note 34 is moved to guide the reference position. For example, a position corresponding to the display position of the trajectory image 36 is set.

案内部44は、複数の案内画像(例えば、音符34)の各々を、当該案内画像が移動すべき目標位置とは異なる位置から、当該案内画像が移動すべき目標位置に向けて移動させる。案内部44は、複数の案内画像(例えば、音符34)の各々を、当該目標位置に対応する位置(例えば、基準位置)に検出対象(例えば、プレイヤの部位)があるべき基準時点が近づくにつれて、当該案内画像が当該目標位置に近づくようにして、移動させる。   The guide unit 44 moves each of the plurality of guide images (for example, the musical note 34) from a position different from the target position to which the guide image should move toward the target position to which the guide image should move. The guide unit 44 moves each of the plurality of guide images (for example, the musical note 34) toward a position (for example, a reference position) corresponding to the target position as a reference time point at which the detection target (for example, a player's part) should be close. The guide image is moved so as to approach the target position.

目標位置とは異なる位置(以降、初期位置という。)とは、音符34の移動元の位置であり、ゲーム画面30内に定められる音符34の発生位置(出現位置)である。本実施形態においては、初期位置は、スポットライト38内の位置である場合を説明する。   A position different from the target position (hereinafter referred to as an initial position) is a position from which the note 34 is moved, and is a generation position (appearance position) of the note 34 defined in the game screen 30. In the present embodiment, a case where the initial position is a position in the spotlight 38 will be described.

案内部44は、ゲーム画面30において、音符34の現在の表示位置とゲーム画面30内の目標位置との間の距離が、現時点から基準時点が到来するまでの時間に対応する距離となるように制御することによって、プレイヤに基準時点及び基準位置を案内する。即ち、ゲーム画面30においては、現時点が基準時点に近くなるほど、音符34の現在の表示位置と目標位置との間隔が狭くなる。   In the game screen 30, the guide unit 44 makes the distance between the current display position of the note 34 and the target position in the game screen 30 a distance corresponding to the time from the current time until the reference time point arrives. By controlling, the player is guided to the reference time point and the reference position. That is, on the game screen 30, the closer the current time point is to the reference time point, the narrower the interval between the current display position of the note 34 and the target position.

以降、案内部44が基準時点及び基準位置を案内するためのゲーム画面30の表示制御方法について説明する。ここでは、ゲームが開始されるとゲーム空間がゲームデータ記憶部40に設定され、このゲーム空間を所与の視点から見た様子がゲーム画面30として表示される場合を説明する。   Hereinafter, a display control method of the game screen 30 for the guide unit 44 to guide the reference time point and the reference position will be described. Here, a case will be described in which a game space is set in the game data storage unit 40 when the game is started, and a state in which the game space is viewed from a given viewpoint is displayed as the game screen 30.

図13は、ゲーム空間を示す図である。図13に示すように、ゲーム空間60には、キャラクタ32を示すキャラクタオブジェクト62と、音符34を示す音符オブジェクト64a,64b(以降、これらをまとめて音符オブジェクト64という。)と、プレイヤが描くべき軌跡を案内するための基準軌跡オブジェクト66a,66b(以降、これらをまとめて基準軌跡オブジェクト66という。)と、スポットライト38を示すスポットライトオブジェクト68と、仮想カメラ70(視点)と、が配置される。   FIG. 13 shows a game space. As shown in FIG. 13, in the game space 60, the player should draw a character object 62 indicating the character 32, note objects 64a and 64b indicating the note 34 (hereinafter collectively referred to as a note object 64). Reference trajectory objects 66a and 66b (hereinafter collectively referred to as reference trajectory object 66) for guiding the trajectory, a spotlight object 68 indicating the spotlight 38, and a virtual camera 70 (viewpoint) are arranged. The

各オブジェクトの位置を示す情報は、例えば、ゲーム状況データに格納される。ゲーム画面30には、例えば、仮想カメラ70からゲーム空間60を見た様子を示す画像が表示される。例えば、仮想カメラ70の位置及び視線方向に基づいて定まる視野内のオブジェクトが、ゲーム画面30に表示される。   Information indicating the position of each object is stored in, for example, game situation data. On the game screen 30, for example, an image showing a state where the game space 60 is viewed from the virtual camera 70 is displayed. For example, an object in the field of view determined based on the position and line-of-sight direction of the virtual camera 70 is displayed on the game screen 30.

キャラクタオブジェクト62は、例えば、プレイヤ位置情報に基づいてゲーム空間60に配置される。例えば、プレイヤ位置情報が示すプレイヤの各部位の3次元座標に基づいて、キャラクタ32の各部位を示す3次元座標が生成される。図13に示すように、例えば、プレイヤ位置情報に基づいて、キャラクタ32の頭Q1、肩Q2、左上腕Q3、右上腕Q4、左下腕Q5、右下腕Q6、背中Q7、左ももQ8、右ももQ9、左すねQ10、右すねQ11を示す11個の3次元座標が生成される。例えば、キャラクタ32の各部位を示す3次元座標に基づいて、キャラクタオブジェクト62が生成される。   The character object 62 is arranged in the game space 60 based on the player position information, for example. For example, three-dimensional coordinates indicating each part of the character 32 are generated based on the three-dimensional coordinates of each part of the player indicated by the player position information. As shown in FIG. 13, for example, based on the player position information, the character Q's head Q1, shoulder Q2, left upper arm Q3, upper right arm Q4, left lower arm Q5, right lower arm Q6, back Q7, left thigh Q8, Eleven three-dimensional coordinates indicating the right thigh Q9, the left shin Q10, and the right shin Q11 are generated. For example, the character object 62 is generated based on the three-dimensional coordinates indicating each part of the character 32.

図14は、キャラクタオブジェクト62の生成方法を説明するための図である。図14に示すように、本実施形態においては、キャラクタ32が、プレイヤの姿勢を左右反転させた姿勢をとるように、キャラクタオブジェクト62が生成される場合を説明する。即ち、キャラクタ32が、プレイヤの動き(ダンス)を左右反転させた動き(ダンス)をするように、キャラクタオブジェクト62が生成される。   FIG. 14 is a diagram for explaining a method for generating the character object 62. As shown in FIG. 14, in the present embodiment, a case will be described in which the character object 62 is generated so that the character 32 takes a posture that is a horizontally reversed posture of the player. In other words, the character object 62 is generated so that the character 32 moves (dance) obtained by horizontally inverting the player's movement (dance).

例えば、キャラクタ32の各部位(頭Q1〜右すねQ11)の3次元座標は、プレイヤの各部位(頭P1〜右すねP11)の3次元座標を基準平面(例えば、背中P7を通るYp−Zp平面に平行な平面)で反転させた座標となる。プレイヤ位置情報が示すプレイヤの各部位の3次元座標が変化した場合、キャラクタ32の各部位を示す3次元座標も変化する。   For example, the three-dimensional coordinates of each part (head Q1 to right shin Q11) of the character 32 are obtained by using the three-dimensional coordinates of each part (head P1 to right shin P11) of the player as a reference plane (for example, Yp-Zp passing through the back P7). The coordinates are reversed on a plane parallel to the plane. When the three-dimensional coordinates of each part of the player indicated by the player position information change, the three-dimensional coordinates indicating each part of the character 32 also change.

上記のように特定されるキャラクタ32の各部位を示す3次元座標に基づいて、キャラクタオブジェクト62のポリゴンの頂点座標が特定されることによって、キャラクタオブジェクト62が、ゲーム空間60に配置される。   The character object 62 is arranged in the game space 60 by specifying the vertex coordinates of the polygon of the character object 62 based on the three-dimensional coordinates indicating each part of the character 32 specified as described above.

また、軌跡Aと基準軌跡オブジェクト66aが示す基準軌跡との位置関係、及び、基準Bと基準軌跡オブジェクト66bが示す基準軌跡との位置関係は、図14に示すように、基準平面で左右反転した位置関係となっている。即ち、基準軌跡オブジェクト66は、プレイヤが描くべき軌跡に対応するオブジェクトであり、例えば、基準位置に基づいて生成される。 The positional relationship between the reference trajectory indicated by the trajectory A 0 and the reference locus object 66a, and the positional relationship between the reference trajectory indicating a reference B 0 and the reference locus object 66b, as shown in FIG. 14, left and right in the reference plane The positional relationship is reversed. That is, the reference trajectory object 66 is an object corresponding to the trajectory to be drawn by the player, and is generated based on the reference position, for example.

音符オブジェクト64は、案内部44が基準時点及び基準位置の案内を開始すべき案内開始時点が訪れると、ゲーム空間60に設定される。ゲーム空間60に設定される音符オブジェクト64は、基準時点及び基準位置をプレイヤに案内すべき案内期間において、ゲーム空間60を移動する。案内期間は、基準時点に基づいて設定される期間であり、例えば、基準時点の所定時間(例えば、1小節)前から基準時点までの間の期間である。即ち、案内開始時点は、案内期間の開始時点となる。   The musical note object 64 is set in the game space 60 when a guidance start point at which the guide unit 44 should start guiding the reference point and the reference position comes. The musical note object 64 set in the game space 60 moves in the game space 60 during a guidance period in which the reference time point and the reference position are to be guided to the player. The guidance period is a period set based on the reference time, and is, for example, a period from a predetermined time (for example, one bar) before the reference time to the reference time. That is, the guidance start time is the start time of the guidance period.

案内開始時点において生成された音符オブジェクト64は、基準軌跡オブジェクト66に向かって移動する。   The musical note object 64 generated at the guidance start time moves toward the reference trajectory object 66.

図15は、音符オブジェクト64が移動する様子を説明するための図である。ここでは、音符オブジェクト64が、基準軌跡オブジェクト66aに向かって移動する場合を説明する。   FIG. 15 is a diagram for explaining how the note object 64 moves. Here, a case where the note object 64 moves toward the reference trajectory object 66a will be described.

図15に示すように、例えば、基準軌跡オブジェクト66内に5つの目標位置G〜Gが設定される。目標位置G〜Gは、基準軌跡オブジェクト66が示す基準軌跡G上に配置し、基準データに格納される基準位置に基づいて設定される。例えば、目標位置G〜Gは、それぞれ、基準位置A〜Aを基準平面で反転させた位置となる。即ち、基準軌跡Gは、プレイヤが描くべき軌跡Aを基準平面で反転させた軌跡となる。 As shown in FIG. 15, for example, five target positions G 1 to G 5 are set in the reference trajectory object 66. The target positions G 1 to G 5 are set on the reference locus G 0 indicated by the reference locus object 66 and set based on the reference position stored in the reference data. For example, the target positions G 1 to G 5 are positions obtained by inverting the reference positions A 1 to A 5 on the reference plane, respectively. That is, the reference trajectory G 0 is a trajectory obtained by inverting the trajectory A 0 to be drawn by the player on the reference plane.

ゲーム空間60においては、音符オブジェクト64は、例えば、基準軌跡オブジェクト66内の目標位置G〜Gのうちの何れかに向かって移動する。したがって、ゲーム画面30においては、音符オブジェクト64に対応する音符34が、軌跡画像36内の目標位置に向かって移動するように、表示制御がなされる。 In the game space 60, the musical note object 64 moves toward any one of the target positions G 1 to G 5 in the reference locus object 66, for example. Therefore, on the game screen 30, display control is performed so that the note 34 corresponding to the note object 64 moves toward the target position in the trajectory image 36.

なお、「音符オブジェクト64の目標位置」とは、ゲーム空間60に設定される位置(例えば、目標位置G〜Gの何れか)のことであって、「音符34の目標位置」とは、ゲーム画面30に設定される位置(軌跡画像36内の目標位置)のことである。 The “target position of the note object 64” is a position set in the game space 60 (for example, any one of the target positions G 1 to G 5 ), and the “target position of the note 34” is The position set on the game screen 30 (the target position in the trajectory image 36).

音符オブジェクト64の位置は、再生中の楽曲の経過時間と、基準データと、に基づいて決定される。例えば、音符オブジェクト64の位置は、楽曲の経過時間及び基準時点の時間差と、音符オブジェクト64の発生位置(例えば、スポットライトオブジェクト68の代表点)及び目標位置の距離と、に基づいて決定される。具体的には、音符オブジェクト64の位置は、音符オブジェクト64の現在位置と目標位置との間の距離が、基準時点が到来するまでの残り時間に対応する距離となるような位置に設定される。   The position of the note object 64 is determined based on the elapsed time of the music being played and the reference data. For example, the position of the note object 64 is determined based on the time difference between the elapsed time of the music and the reference time, the generation position of the note object 64 (for example, the representative point of the spotlight object 68), and the distance of the target position. . Specifically, the position of the note object 64 is set to a position where the distance between the current position of the note object 64 and the target position is a distance corresponding to the remaining time until the reference time point arrives. .

以降、音符オブジェクト64aが、スポットライトオブジェクト68内の代表点Pから、基準軌跡オブジェクト66a内の目標位置Gに向かって移動する場合を説明する。例えば、案内開始時点が訪れると、音符オブジェクト64aが生成されて代表点Pに配置される。そして、楽曲の時間経過に伴って、音符オブジェクト64aが目標位置Gに向かって移動する。即ち、現時点が基準時間が近づくほど、音符オブジェクト64aが目標位置Gに近づくように移動する。 Thereafter, the note object 64a is, from the representative point P 0 in the spot light object 68, the case of moving toward the target position G 1 in the reference locus object 66a. For example, the guidance start point visited, the note object 64a is arranged to be generated in the representative point P 0. Then, over time of the music, notes object 64a is moved toward the target position G 1. That is, as the current approaches the reference time, the note object 64a is moved so as to approach the target position G 1.

例えば、基準時点の1小節前の時点(案内開始時点)が訪れると、代表点Pに音符オブジェクト64aが配置される。基準時点の(8−k)/8(kは、1〜7の何れかの整数)小節前の時点における音符オブジェクト64aの位置座標Pは、例えば、代表点Pと目標位置Gとを結ぶ線分をk:(8−k)で内分する点の位置となる。このように音符オブジェクト64の表示位置が決定されることによって、音符オブジェクト64aの移動が制御される。基準時点が訪れると、音符オブジェクト64aは、目標位置Gに到達する。 For example, if one bar before the time point of the reference point (guidance start point) visits, note object 64a is placed on the representative point P 0. (8-k) / 8 of the reference time point (k is any integer of 1-7) coordinates P k note object 64a in the bars before the time, for example, the representative point P 0 and the target position G 1 This is the position of the point that internally divides the line segment connecting k by (8−k). Thus, by determining the display position of the note object 64, the movement of the note object 64a is controlled. When the reference point visited, the note object 64a reaches the target position G 1.

なお、音符オブジェクト64の目標位置は、基準位置に基づいて定まる位置であればよく、上記の例のように、音符オブジェクト64の目標位置は、基準位置を基準平面で反転させた位置であってもよいし、基準位置を基準平面で反転させた位置との距離が所定距離以内となる位置であってもよい。   The target position of the note object 64 may be a position determined based on the reference position, and the target position of the note object 64 is a position obtained by inverting the reference position on the reference plane as in the above example. Alternatively, it may be a position where a distance from a position obtained by inverting the reference position on the reference plane is within a predetermined distance.

また、本実施形態においては、音符オブジェクト64が、目標位置に向かって直進する場合を説明するが、音符オブジェクト64が示す音符34が、ゲーム画面30において、初期位置から目標位置に向かって移動すればよく、音符オブジェクト64の移動方法は、上記の例に限られない。例えば、音符オブジェクト64が、左右に揺れるようにして目標位置に向かって移動するようにしてもよい。   In the present embodiment, a case where the note object 64 goes straight toward the target position will be described. However, the note 34 indicated by the note object 64 is moved from the initial position toward the target position on the game screen 30. The movement method of the note object 64 is not limited to the above example. For example, the musical note object 64 may be moved toward the target position so as to swing from side to side.

また、ゲーム画面30においては、スポットライトオブジェクト68に対応する領域(例えば、スポットライトオブジェクト68からキャラクタオブジェクト62に向かって放射状に伸びる領域)の明度を、他の領域の明度と異ならしめるようにしてもよい。   On the game screen 30, the brightness of an area corresponding to the spotlight object 68 (for example, an area extending radially from the spotlight object 68 toward the character object 62) is made different from the brightness of other areas. Also good.

本実施形態においては、図7に示すように、ゲーム画面30には、他の領域よりも明度が高く設定された所定領域38aが表示される場合を説明する。また、音符34の初期位置は、当該所定領域38aの端部に対応する領域に含まれるようにしてもよい。この場合、音符34は、明度が高い所定領域38aの端から発生して、所定領域38a内に含まれる目標位置に向かって移動する。即ち、案内部44は、案内画像(例えば、音符34)を目標位置に向けて所定領域38a内で移動させる。   In the present embodiment, as shown in FIG. 7, a case will be described in which a predetermined area 38 a set with a higher brightness than other areas is displayed on the game screen 30. Further, the initial position of the note 34 may be included in an area corresponding to the end of the predetermined area 38a. In this case, the musical note 34 is generated from the end of the predetermined area 38a having high brightness and moves toward the target position included in the predetermined area 38a. That is, the guide unit 44 moves the guide image (for example, the musical note 34) toward the target position within the predetermined area 38a.

また、ゲーム画面30においては、音符34aと軌跡画像36aの色と、音符34bと軌跡画像36bの色と、を異ならせるようにしてもよい。このように音符34と軌跡画像36の色を決定することによって、プレイヤは、音符34が、どの軌跡画像36に向かっているか、を把握しやすくなる。   On the game screen 30, the colors of the musical note 34a and the trajectory image 36a may be different from the colors of the musical note 34b and the trajectory image 36b. By determining the colors of the note 34 and the trajectory image 36 in this manner, the player can easily understand which trajectory image 36 the note 34 is facing.

[6−5.処理実行部]
処理実行部46は、制御部21を主として実現される。処理実行部46は、位置情報に基づいてゲーム処理を実行する。例えば、処理実行部46は、位置情報が示すプレイヤの部位の位置に基づいて、キャラクタ32を表示制御する。また例えば、処理実行部46は、位置情報と、基準データと、に基づいて検出対象(例えば、プレイヤの部位)の動きを評価する。
[6-5. Processing execution unit]
The process execution unit 46 is realized mainly by the control unit 21. The process execution unit 46 executes a game process based on the position information. For example, the process execution unit 46 controls the display of the character 32 based on the position of the part of the player indicated by the position information. Further, for example, the process execution unit 46 evaluates the movement of the detection target (for example, the player's part) based on the position information and the reference data.

例えば、処理実行部46は、基準時点に基づいて設定される評価対象時点におけるプレイヤ位置情報が示すプレイヤの部位の位置と、基準データが示す基準位置と、の位置関係(例えば、位置ずれ量。即ち、距離)に基づいてプレイヤの部位の動きを評価する。   For example, the process execution unit 46 has a positional relationship between the position of the player indicated by the player position information at the evaluation target time set based on the reference time and the reference position indicated by the reference data (for example, a positional deviation amount). That is, the movement of the player's part is evaluated based on the distance.

評価対象時点は、基準時点そのものであってもよいし、基準時点の第1時間前から基準時点の第2時間後までの期間の何れかの時点であってもよい。この第1時間と第2時間の長さは、同じであってもよいし異なっていてもよい。例えば、位置検出装置1がプレイヤ位置情報を生成する処理に時間がかかる場合が考えられるので、処理実行部46がプレイヤの動作を正確に評価するために、評価対象時点は、基準時点の所定時間後であってもよい。   The evaluation target time point may be the reference time point itself, or may be any time point in the period from the first time before the reference time point to the second time after the reference time point. The lengths of the first time and the second time may be the same or different. For example, since the position detection device 1 may take a long time to generate the player position information, in order for the process execution unit 46 to accurately evaluate the operation of the player, the evaluation target time point is a predetermined time from the reference time point. It may be later.

処理実行部46は、例えば、評価対象時点におけるプレイヤの部位の位置(又は、キャラクタ32の部位の位置)と、基準位置と、の位置ずれ量が所定範囲内であるか否かに基づいてプレイヤの操作を評価する。例えば、処理実行部46は、プレイヤの部位の位置と、基準位置と、の位置ずれ量が所定範囲内である場合に、該位置ずれ量が所定範囲外である場合よりも、プレイヤに高い評価を与える。   For example, the processing execution unit 46 determines whether or not the position shift amount between the position of the player's part (or the position of the part of the character 32) and the reference position at the evaluation target time point is within a predetermined range. Evaluate the operation. For example, when the positional deviation amount between the position of the player's part and the reference position is within a predetermined range, the process execution unit 46 gives a higher evaluation to the player than when the positional deviation amount is outside the predetermined range. give.

[7.ゲーム装置において実行される処理]
図16は、ゲーム装置20において実行される処理の一例を示すフロー図である。図16の処理は、ゲームが開始された場合に、制御部21が、光ディスクから読み出されたプログラムに従って動作することにより実行される。
[7. Processing executed in game device]
FIG. 16 is a flowchart showing an example of processing executed in the game apparatus 20. The process of FIG. 16 is executed by the control unit 21 operating according to a program read from the optical disc when the game is started.

まず、図16に示すように、制御部21は、主記憶部22にゲーム空間60を生成し、ゲーム画面30を表示部27に表示させる(S101)。制御部21は、位置検出装置1から取得したプレイヤ位置情報に基づいて、キャラクタオブジェクト62をゲーム空間60に配置する(S102)。制御部21は、楽曲データに基づいて楽曲を再生する(S103)。   First, as shown in FIG. 16, the control unit 21 generates a game space 60 in the main storage unit 22 and displays the game screen 30 on the display unit 27 (S101). The control unit 21 arranges the character object 62 in the game space 60 based on the player position information acquired from the position detection device 1 (S102). The control unit 21 reproduces the music based on the music data (S103).

制御部21は、基準データを参照し、現時点が案内期間内であるか否かを判定する(S104)。現時点が案内期間内でないと判定された場合(S104;N)、処理はS111に移行する。   The control unit 21 refers to the reference data and determines whether or not the current time is within the guidance period (S104). If it is determined that the current time is not within the guidance period (S104; N), the process proceeds to S111.

現時点が案内期間内であると判定された場合(S104;Y)、現時点が案内開始時点であるか否かを判定する(S105)。現時点が案内開始時点であると判定された場合(S105;Y)、制御部21は、新たに音符オブジェクト64を生成して、ゲーム空間60に配置する(S106)。S106においては、例えば、スポットライトオブジェクト68の代表点の位置に、音符オブジェクト64が配置される。即ち、音符34が、ゲーム画面30内の初期位置に表示される。   When it is determined that the current time is within the guidance period (S104; Y), it is determined whether or not the current time is the guidance start time (S105). When it is determined that the current time is the guidance start time (S105; Y), the control unit 21 newly generates a note object 64 and places it in the game space 60 (S106). In S106, for example, the note object 64 is arranged at the position of the representative point of the spotlight object 68. That is, the musical note 34 is displayed at the initial position in the game screen 30.

一方、現時点が案内開始時点でないと判定された場合(S105;N)、制御部21は、楽曲の現在の経過時間と基準時点との時間差に基づいて、音符オブジェクト64を移動させる(S107)。S107においては、音符オブジェクト64の位置が、音符オブジェクト64の現在位置と目標位置との間の距離が、基準時点が到来するまでの残り時間に対応する距離となるような位置に設定される。   On the other hand, when it is determined that the current time is not the guidance start time (S105; N), the control unit 21 moves the note object 64 based on the time difference between the current elapsed time of the music and the reference time (S107). In S107, the position of the note object 64 is set to a position where the distance between the current position of the note object 64 and the target position is a distance corresponding to the remaining time until the reference time point arrives.

制御部21は、現時点が評価対象時点であるか否かを判定する(S108)。現時点が評価対象時点であると判定された場合(S108;Y)、制御部21は、プレイヤ位置情報が示すプレイヤの部位の位置と、基準位置と、の位置関係に基づいてプレイヤの部位の動きを評価する(S109)。制御部21は、S109における評価結果に基づいてゲーム処理を行う(S110)。例えば、プレイヤが高い評価を得た場合には、得点が増加したり、エフェクト処理が実行されたりする。   The control unit 21 determines whether or not the current time is the evaluation target time (S108). When it is determined that the current time is the evaluation target time (S108; Y), the control unit 21 moves the player's part based on the positional relationship between the position of the player's part indicated by the player position information and the reference position. Is evaluated (S109). The control unit 21 performs a game process based on the evaluation result in S109 (S110). For example, when the player gets a high evaluation, the score increases or effect processing is executed.

現時点が評価対象時点でないと判定された場合(S108;N)、制御部21は、終了条件を満たすか否かを判定する(S111)。終了条件は、本処理を終了するための予め定められた条件であればよい。例えば、終了条件は、楽曲が終了するか否かを示す条件であったり、所定のゲームオーバー条件であってもよい。   When it is determined that the current time is not the evaluation target time (S108; N), the control unit 21 determines whether or not the end condition is satisfied (S111). The end condition may be a predetermined condition for ending this process. For example, the end condition may be a condition indicating whether or not the music ends, or a predetermined game over condition.

終了条件を満たすと判定された場合(S111;Y)、処理は終了する。終了条件を満たさないと判定された場合(S111;N)、処理は、S102に戻る。即ち、位置検出装置1から取得したプレイヤ位置情報に基づいてキャラクタ32の姿勢が変更され、楽曲の再生が継続される。   If it is determined that the end condition is satisfied (S111; Y), the process ends. When it is determined that the end condition is not satisfied (S111; N), the process returns to S102. That is, the posture of the character 32 is changed based on the player position information acquired from the position detection device 1, and the reproduction of the music is continued.

以上に説明したゲーム装置20は、音符34を軌跡画像36に向けて移動させることによって、基準位置及び基準時間をプレイヤに案内する。プレイヤは、キャラクタ32が、スポットライト38から落ちてくる音符34を軌跡画像36の位置で受け止めるように、各部位を動かして所定の軌跡を描くことを目指す。プレイヤは、いつどのような軌跡を描くべきかをゲーム画面30の表示内容に基づいて容易に把握することができる。   The game device 20 described above guides the reference position and the reference time to the player by moving the musical note 34 toward the trajectory image 36. The player aims to draw a predetermined locus by moving each part so that the character 32 receives the note 34 falling from the spotlight 38 at the position of the locus image 36. The player can easily grasp when and what kind of trajectory should be drawn based on the display content of the game screen 30.

なお、上記実施形態1においては、ゲーム処理の一例として、プレイヤの動きを評価するための評価処理が実行される場合を説明したが、ゲーム処理は、プレイヤ位置情報に基づいて実行されるものであって、かつ、ゲームに関する処理であればよい。他にも例えば、処理実行部46は、プレイヤ位置情報が示すプレイヤの部位の位置に基づいて、キャラクタ32の姿勢を制御するゲーム処理を実行するようにしてもよい。   In the first embodiment, the case where the evaluation process for evaluating the movement of the player is executed is described as an example of the game process. However, the game process is executed based on the player position information. And what is necessary is just the process regarding a game. In addition, for example, the process execution unit 46 may execute a game process for controlling the posture of the character 32 based on the position of the part of the player indicated by the player position information.

[8.実施形態2]
次に、本発明に係るゲーム装置の実施形態2について説明する。実施形態2においては、プレイヤが描くべき軌跡と、プレイヤの部位のうちの何れかの部位と、が関連付けられる。プレイヤは、プレイヤが描くべき軌跡に関連付けられた部位を使って、この軌跡を描かなければ、プレイヤの部位の動きが評価されないように制限される。
[8. Embodiment 2]
Next, a second embodiment of the game device according to the present invention will be described. In the second embodiment, the locus to be drawn by the player is associated with any one of the player's parts. The player is limited so that the movement of the player's part is not evaluated unless the locus is drawn using the part associated with the locus to be drawn by the player.

例えば、軌跡Aは、プレイヤの右下腕P6と関連付けられ、軌跡Bは、プレイヤの左下腕P5と関連付けられる。この場合、プレイヤは、軌跡Aを、右下腕P6以外の部位でなぞるように軌跡を描いても、プレイヤは高い評価を得ることができないように制限される。同様に、プレイヤは、軌跡Bを、左下腕P5以外の部位でなぞるように操作しても、プレイヤは高い評価を得ることができないように制限される。 For example, the trajectory A 0 is associated with the right lower arm P6 of the player, the trajectory B 0 are associated with the lower left arm P5 of the player. In this case, the player, the trajectory A 0, even if the locus so as to trace at a site other than the right lower arm P6, the player is restricted not possible to obtain a high evaluation. Similarly, the player, the trajectory B 0, be manipulated to trace at a site other than the lower left arm P5, the player is restricted not possible to obtain a high evaluation.

なお、実施形態2のゲーム装置20において実現される機能ブロック図は、実施形態1と同様(図10)であるので、図示を省略する。   Note that the functional block diagram realized in the game apparatus 20 of the second embodiment is the same as that of the first embodiment (FIG. 10), and thus illustration is omitted.

実施形態2の処理実行部46は、プレイヤの複数の部位の各々について、基準時点に基づいて設定される評価対象時点において取得される位置情報が示す当該部位の位置と、目標位置に対応する位置と、の位置ずれに基づいて、プレイヤの動きを評価する評価手段を含む。例えば、処理実行部46の評価手段は、評価対象時点におけるプレイヤ位置情報が示すプレイヤの複数の部位の3次元座標と、目標位置に対応する基準位置(例えば、評価対象時点に対応する基準時点における基準位置)の3次元座標と、の位置ずれ量(距離)に関する情報を算出する。   The process execution unit 46 according to the second embodiment, for each of the plurality of parts of the player, the position of the part indicated by the position information acquired at the evaluation target time set based on the reference time and the position corresponding to the target position And evaluation means for evaluating the movement of the player based on the positional deviation. For example, the evaluation unit of the processing execution unit 46 may include the three-dimensional coordinates of the plurality of parts of the player indicated by the player position information at the evaluation target time point and the reference position corresponding to the target position (for example, Information on the positional deviation amount (distance) between the three-dimensional coordinates of the (reference position) is calculated.

また、処理実行部46の評価手段は、上記算出される位置ずれが基準範囲であるか否かに基づいて、プレイヤの動きを評価する。例えば、処理実行部46の評価手段は、プレイヤのいずれかの部位の位置と、基準位置と、の位置ずれ量(距離)が基準範囲内である場合には、この位置ずれ量が基準範囲外である場合よりも高い評価をプレイヤに与える。   Further, the evaluation means of the process execution unit 46 evaluates the movement of the player based on whether or not the calculated positional deviation is within the reference range. For example, the evaluation means of the processing execution unit 46 determines that if the positional deviation amount (distance) between the position of any part of the player and the reference position is within the reference range, this positional deviation amount is out of the reference range. The player is given a higher evaluation than in the case of

また、処理実行部46は、プレイヤの複数の部位のうちのいずれかと、目標位置に対応する位置(例えば、基準位置)と、の位置ずれが所定範囲である場合、当該部位を識別する識別情報を記憶手段(例えば、ゲームデータ記憶部40)に記憶させる手段を含む。本実施形態においては、処理実行部46が、位置ずれが所定範囲であるプレイヤの部位を、プレイヤが描くべき軌跡と関連付けてゲームデータ記憶部40に記憶させる場合を説明する。   In addition, when the positional deviation between any one of the plurality of parts of the player and the position corresponding to the target position (for example, the reference position) is within a predetermined range, the process execution unit 46 identifies the part. Is stored in a storage means (for example, the game data storage unit 40). In the present embodiment, a case will be described in which the process execution unit 46 stores a part of a player whose positional deviation is within a predetermined range in the game data storage unit 40 in association with a locus to be drawn by the player.

図17は、プレイヤが描くべき軌跡とプレイヤの部位との関連付けを示す図である。図17に示すように、プレイヤが描くべき軌跡を識別する情報と、プレイヤの部位を識別する情報と、が対応付けられる。この対応付けを示すデータは、例えば、ゲームデータ記憶部40に記憶される。   FIG. 17 is a diagram illustrating the association between the trajectory to be drawn by the player and the part of the player. As shown in FIG. 17, information for identifying a locus to be drawn by the player is associated with information for identifying a part of the player. Data indicating this association is stored in the game data storage unit 40, for example.

また、処理実行部46の評価手段は、識別情報が記憶手段(例えば、ゲームデータ記憶部40)に記憶されている場合、識別情報が示すプレイヤの部位以外の部位の位置と、目標位置に対応する位置と、の位置ずれに基づいてプレイヤの動きを評価することを制限(抑制)する。例えば、識別情報が示すプレイヤの部位と、この識別情報に関連付けられた軌跡上の基準位置と、に基づいてのみ、プレイヤの動きが評価される。   In addition, when the identification information is stored in the storage unit (for example, the game data storage unit 40), the evaluation unit of the process execution unit 46 corresponds to the position of the part other than the part of the player indicated by the identification information and the target position. And restricting (suppressing) the evaluation of the movement of the player based on the positional deviation between the position and the position to be played. For example, the movement of the player is evaluated only based on the part of the player indicated by the identification information and the reference position on the trajectory associated with the identification information.

処理実行部46の評価手段は、識別情報が示すプレイヤの部位の位置と、目標位置に対応する位置と、の位置ずれに基づいてプレイヤの部位の動きの評価をする、別の言い方をすれば、処理実行部46の評価手段は、プレイヤの部位と、プレイヤが描くべき軌跡と、が関連付けられている場合、当該軌跡に関連付けられた部位の位置と、当該軌跡上の基準位置と、に基づいてプレイヤが描いた軌跡を評価する。   In other words, the evaluation means of the process execution unit 46 evaluates the movement of the player's part based on the positional deviation between the position of the player's part indicated by the identification information and the position corresponding to the target position. The evaluation unit of the process execution unit 46, when the part of the player is associated with the locus to be drawn by the player, is based on the position of the part associated with the locus and the reference position on the locus. To evaluate the trajectory drawn by the player.

図18及び図19は、実施形態2のゲーム装置20において実行される処理の一例を示すフロー図である。図18及び図19の処理は、ゲームが開始された場合に、制御部21が、光ディスクから読み出されたプログラムに従って動作することにより実行される。   18 and 19 are flowcharts showing an example of processing executed in the game device 20 of the second embodiment. The processes in FIGS. 18 and 19 are executed by the control unit 21 operating according to a program read from the optical disc when the game is started.

図18に示すように、S201〜S208は、それぞれ、S101〜S108と同様であるので、説明を省略する。   As shown in FIG. 18, S201 to S208 are the same as S101 to S108, respectively, and thus the description thereof is omitted.

現時点が評価対象時点であると判定された場合(S208;Y)、制御部21は、評価処理を実行する。   When it is determined that the current time is the evaluation target time (S208; Y), the control unit 21 executes an evaluation process.

図19に移り、制御部21は、評価対象時点に対応する軌跡と関連付けられたプレイヤの部位を識別する識別情報が記憶されているか否かを判定する(S301)。評価対象時点に対応する軌跡とは、評価対象時点に対応する基準時点において、プレイヤが描くべき軌跡である。即ち、評価対象時点に対応する軌跡とは、この基準時点における基準位置に対応する軌跡のことである。   Moving to FIG. 19, the control unit 21 determines whether or not the identification information for identifying the part of the player associated with the trajectory corresponding to the evaluation target time point is stored (S301). The trajectory corresponding to the evaluation target time point is a trajectory to be drawn by the player at the reference time point corresponding to the evaluation target time point. That is, the trajectory corresponding to the evaluation time point is a trajectory corresponding to the reference position at the reference time point.

識別情報が記憶されていると判定された場合(S301;Y)、制御部21は、識別情報が示すプレイヤの部位の位置と、基準位置と、の位置ずれに基づいてプレイヤの動きを評価する(S302)。即ち、基準時点においてプレイヤが描くべき軌跡に関連付けられた部位の位置と、この軌跡上の基準位置と、の位置ずれに基づいてプレイヤの動きが評価されるので、この部位以外の部位の位置と、この軌跡上の基準位置と、の位置ずれに基づいてプレイヤの動きが評価されないように評価処理が制限される。   When it is determined that the identification information is stored (S301; Y), the control unit 21 evaluates the movement of the player based on the positional deviation between the position of the player's part indicated by the identification information and the reference position. (S302). That is, since the movement of the player is evaluated based on the positional deviation between the position of the part associated with the locus to be drawn by the player at the reference time point and the reference position on the locus, the position of the part other than this part The evaluation process is limited so that the movement of the player is not evaluated based on the positional deviation from the reference position on the trajectory.

識別情報が記憶されていると判定されない場合(S301;N)、制御部21は、基準位置との位置ずれが所定範囲内となった部位があるか否かを判定する(S303)。S303においては、評価対象時点に対応する基準位置と、プレイヤ位置情報が示す複数の部位と、位置ずれ量(距離)が所定範囲内となる部位があるか否かが判定される。   When it is not determined that the identification information is stored (S301; N), the control unit 21 determines whether or not there is a portion whose positional deviation from the reference position is within a predetermined range (S303). In S303, it is determined whether or not there is a reference position corresponding to the evaluation target time point, a plurality of parts indicated by the player position information, and a part whose positional deviation amount (distance) is within a predetermined range.

位置ずれが所定範囲となった部位があると判定された場合(S303;Y)、制御部21は、この部位を識別する識別情報と、基準位置に対応する軌跡と、を関連付けて記憶させる(S304)。例えば、プレイヤの右下腕P6と基準位置Aとの位置ずれ量が所定範囲内である場合、右下腕P6と軌跡Aとが関連付けられる。 When it is determined that there is a part where the positional deviation is within the predetermined range (S303; Y), the control unit 21 stores the identification information for identifying this part in association with the locus corresponding to the reference position ( S304). For example, if the positional deviation amount between the right lower arm P6 and the reference position A 1 of the player is within a predetermined range, and the lower right arm P6 and trajectory A 0 is associated.

制御部21は、プレイヤの動きに対して高い評価を行う(S305)。即ち、S303において、プレイヤの部位と、基準位置と、の位置ずれ量が所定範囲内であると判定されているので、この位置ずれ量が所定範囲外である場合よりも高い評価をプレイヤに与える。   The control unit 21 highly evaluates the player's movement (S305). That is, in S303, since it is determined that the positional deviation amount between the player's part and the reference position is within the predetermined range, the player is given higher evaluation than when the positional deviation amount is outside the predetermined range. .

一方、位置ずれ量が所定範囲内となった部位があると判定されない場合(S303;N)、制御部21は、プレイヤの動きに対して低い評価を行う(S306)。この場合、プレイヤがすべき軌跡とプレイヤの部位との関連付けは行われない。   On the other hand, when it is not determined that there is a part where the positional deviation amount is within the predetermined range (S303; N), the control unit 21 performs a low evaluation on the movement of the player (S306). In this case, the association between the trajectory to be made by the player and the part of the player is not performed.

S307は、S110と同様である。また、S210は、S111と同様である。   S307 is the same as S110. S210 is the same as S111.

実施形態2のゲーム装置20によれば、プレイヤが描くべき軌跡と、プレイヤの部位と、を関連付けることができる。例えば、1つの軌跡を、プレイヤが多数の部位を用いてなぞるように操作が行われた場合、プレイヤはダンスを踊っていることを実感しづらくなる。この点、実施形態2のゲーム装置20によれば、1つの軌跡を、この軌跡に関連付けられた部位を用いてなぞるように動作が行われるので、プレイヤにダンスを踊らせるような軌跡を描かせることができるようになる。   According to the game device 20 of the second embodiment, the trajectory to be drawn by the player can be associated with the player's part. For example, when an operation is performed so that the player traces one locus using a large number of parts, it is difficult for the player to feel that the player is dancing. In this regard, according to the game device 20 of the second embodiment, an operation is performed so as to trace one trajectory using a portion associated with the trajectory, so that a trajectory that causes the player to dance is drawn. Will be able to.

なお、実施形態2においては、プレイヤが描くべき軌跡とプレイヤの部位とが関連付けられて記憶される場合を説明したが、プレイヤの部位を識別する識別情報が記憶されるようにすればよく、必ずしも、識別情報は、プレイヤが描くべき軌跡と関連付けられて記憶されなくてもよい。例えば、ゲームデータ記憶部40に識別情報が記憶されていない場合、この識別情報が示す部位以外の部位の位置と、基準位置と、に基づいた評価が行われないように制限されるようにしてもよい。   In the second embodiment, the case where the trajectory to be drawn by the player and the part of the player are stored in association with each other has been described. However, the identification information for identifying the part of the player may be stored. The identification information may not be stored in association with the locus to be drawn by the player. For example, when the identification information is not stored in the game data storage unit 40, the evaluation is not performed based on the position of the part other than the part indicated by the identification information and the reference position. Also good.

また、実施形態2においては、プレイヤの部位と関連付けられた軌跡に対応する軌跡画像36に色彩を施すようにしてもよい。この場合、キャラクタ32の部位のうち、軌跡に関連付けられた部位には、軌跡に施された色彩と同じ色彩が施されるようにしてもよい。このようにすることによって、プレイヤは、どの部位で軌跡を描くべきかを容易に把握することができる。   In the second embodiment, the trajectory image 36 corresponding to the trajectory associated with the part of the player may be colored. In this case, the portion of the character 32 that is associated with the locus may be given the same color as the color applied to the locus. By doing so, the player can easily grasp at which part the locus should be drawn.

なお、本発明は、以上説明した実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で適宜変更可能である。   The present invention is not limited to the embodiment described above, and can be appropriately changed without departing from the spirit of the present invention.

(1)例えば、実施形態においては、検出対象がプレイヤの部位である場合を説明したが、検出対象となるものは、これに限られない。例えば、ゲーム装置20において、タッチパネル上でタッチペンやプレイヤの指を基準軌跡を描くようにスライドさせるゲームが実行される場合、検出対象は、タッチペンやプレイヤの指であってもよい。   (1) For example, in the embodiment, the case where the detection target is a part of the player has been described, but the detection target is not limited thereto. For example, when the game device 20 executes a game in which a touch pen or a player's finger is slid on the touch panel so as to draw a reference locus, the detection target may be the touch pen or the player's finger.

この場合、位置情報取得部42は、表示部27の表示画面(ゲーム画面30)上の接触位置に関する情報を取得する。例えば、位置情報取得部42は、表示部27の表示画面に重畳して設けられるタッチパネルを主として実現される。ゲーム画面30に表示された軌跡画像36に近づいてくる音符34を、プレイヤが軌跡画像36上をタッチペンや指でなぞるようにして軌跡を描くようにしてもよい。   In this case, the position information acquisition unit 42 acquires information on the contact position on the display screen (game screen 30) of the display unit 27. For example, the position information acquisition unit 42 is mainly realized by a touch panel provided to be superimposed on the display screen of the display unit 27. A musical note 34 approaching the trajectory image 36 displayed on the game screen 30 may be drawn so that the player traces the trajectory image 36 with a touch pen or a finger.

他にも例えば、検出対象は、ゲームコントローラに備えられた発光部であってもよい。この場合、ゲーム装置20は、CCDカメラ等を含み、発光部を撮影する。ゲーム装置20は、撮影された画像における発光部の位置及び大きさに基づいて、検出対象の位置変化に関する情報を取得するようにしてもよい。プレイヤは、プレイヤが描くべき軌跡を、ゲームコントローラの発光部を用いてなぞるように、検出対象を動かすことによって、ゲームをプレイするようにしてもよい。   In addition, for example, the detection target may be a light emitting unit provided in the game controller. In this case, the game apparatus 20 includes a CCD camera or the like and photographs the light emitting unit. The game apparatus 20 may acquire information related to the position change of the detection target based on the position and size of the light emitting unit in the captured image. The player may play the game by moving the detection target so that the trajectory to be drawn by the player is traced using the light emitting unit of the game controller.

(2)また、ゲーム画面30において音符34が発生する位置を示す初期位置が、スポットライト38である場合を説明したが、初期位置は、予め定められたゲーム画面30内の位置であればよい。他にも例えば、初期位置は、ゲーム画面30の端部領域であってもよい。音符34が、ゲーム画面30の端部から目標位置に向かって移動することによって、プレイヤに基準位置及び基準時点が案内されるようにしてもよい。   (2) Although the case where the initial position indicating the position where the note 34 is generated on the game screen 30 is the spotlight 38 has been described, the initial position may be a predetermined position within the game screen 30. . In addition, for example, the initial position may be an end area of the game screen 30. The musical note 34 may move from the end of the game screen 30 toward the target position, so that the player is guided to the reference position and the reference time point.

(3)また、ゲーム空間60にオブジェクトが配置されることによってゲーム画面30が表示される場合を説明したが、ゲーム画面30の表示方法は、これに限られない。基準位置及び基準時点をプレイヤに案内するためのゲーム画面30が表示されるようにすればよい。例えば、背景画像にキャラクタ32の画像等を重畳させるようにしてゲーム画面30が表示されるようにしてもよい。   (3) Moreover, although the case where the game screen 30 was displayed by arrange | positioning an object in the game space 60 was demonstrated, the display method of the game screen 30 is not restricted to this. The game screen 30 for guiding the reference position and the reference time point to the player may be displayed. For example, the game screen 30 may be displayed such that the image of the character 32 or the like is superimposed on the background image.

(4)また例えば、上記では、撮影画像と深度情報(深度画像)とに基づいてプレイヤ位置情報を生成する手段が位置検出装置1に含まれる例を挙げて説明したが、プレイヤ位置情報を生成する手段は、ゲーム装置20に含まれていてもよい。例えば、ゲーム装置20は、位置検出装置1から撮影画像と深度画像とを受信し、これらに基づいてプレイヤ位置情報を生成するようにしてもよい。   (4) For example, in the above description, the example in which the position detection device 1 includes means for generating the player position information based on the captured image and the depth information (depth image) has been described. The means for performing may be included in the game apparatus 20. For example, the game device 20 may receive a captured image and a depth image from the position detection device 1 and generate player position information based on them.

(5)また、ゲーム装置20において実行されるゲームは、実施形態のゲームに限られない。ゲーム装置20は、プレイヤが検出対象を用いて軌跡を描くゲームを実行するようにすればよい。他にも例えば、プレイヤの部位が、体操を行うように所定の軌跡を描くゲームが実行されるようにしてもよい。   (5) Moreover, the game performed in the game device 20 is not restricted to the game of embodiment. The game apparatus 20 may execute a game in which the player draws a locus using the detection target. In addition, for example, a game in which a part of the player draws a predetermined trajectory so as to perform gymnastics may be executed.

1 位置検出装置、2 CCDカメラ、3 赤外線センサ、4 マイク、10 制御部、11 記憶部、12 撮影部、13 深度測定部、14 音声入力部、15 通信インタフェース部、16,29 バス、20 ゲーム装置、21 制御部、22 主記憶部、23 補助記憶部、24 光ディスク再生部、25 通信インタフェース部、26 操作部、27 表示部、28 音声出力部、30 ゲーム画面、32 キャラクタ、34,34a,34b 音符、36,36a,36b 軌跡画像、38 スポットライト、38a 所定領域、40 ゲームデータ記憶部、42 位置情報取得部、44 案内部、46 処理実行部、60 ゲーム空間、62 キャラクタオブジェクト、64,64a,64b 音符オブジェクト、66,66a,66b 基準軌跡オブジェクト、68 スポットライトオブジェクト、70 仮想カメラ。   DESCRIPTION OF SYMBOLS 1 Position detection apparatus, 2 CCD camera, 3 Infrared sensor, 4 Microphone, 10 Control part, 11 Memory | storage part, 12 Imaging | photography part, 13 Depth measurement part, 14 Voice input part, 15 Communication interface part, 16, 29 Bus | bath Device, 21 Control section, 22 Main storage section, 23 Auxiliary storage section, 24 Optical disc playback section, 25 Communication interface section, 26 Operation section, 27 Display section, 28 Audio output section, 30 Game screen, 32 Characters, 34, 34a, 34b Musical note, 36, 36a, 36b Trajectory image, 38 Spotlight, 38a Predetermined area, 40 Game data storage unit, 42 Position information acquisition unit, 44 Guide unit, 46 Process execution unit, 60 Game space, 62 Character object, 64, 64a, 64b Note object, 66, 66a, 66b Reference trajectory Object, 68 Spotlight object, 70 virtual camera.

Claims (6)

プレイヤが、楽曲に合わせて軌跡を描くように検出対象を動かすゲームを実行するゲーム装置であって、
前記検出対象の位置に関する位置情報を取得する位置情報取得手段と、
前記プレイヤが前記検出対象を動かすことによって描くべき軌跡と、前記軌跡を描くように前記プレイヤが前記検出対象を動かすべき時点を前記プレイヤに案内する案内手段と、
前記位置情報に基づいてゲーム処理を実行する処理実行手段と、
を含み、
前記案内手段は、
基準軌跡を示す軌跡画像と、前記基準軌跡上の複数の目標位置の各々に向けて移動する複数の案内画像と、を含むゲーム画面を表示手段に表示させる手段と、
前記目標位置に対応する位置に前記検出対象があるべき基準時点に関する情報を記憶する手段から前記基準時点に関する情報を取得する手段と、
前記複数の案内画像の各々を、当該案内画像が移動すべき目標位置とは異なる位置から、当該案内画像が移動すべき目標位置に向けて、当該目標位置に対応する位置に前記検出対象があるべき前記基準時点が近づくにつれて、当該案内画像が当該目標位置に近づくようにして移動させる手段と、
を含むことを特徴とするゲーム装置。
A game device for executing a game in which a player moves a detection target so as to draw a trajectory according to music,
Position information acquisition means for acquiring position information relating to the position of the detection target;
A trajectory to be drawn by moving the detection target by the player, and guidance means for guiding the player at a time when the player should move the detection target to draw the trajectory;
Processing execution means for executing game processing based on the position information;
Including
The guiding means includes
Means for displaying on a display means a game screen including a trajectory image indicating a reference trajectory and a plurality of guide images moving toward each of a plurality of target positions on the reference trajectory;
Means for acquiring information relating to the reference time point from means for storing information relating to a reference time point where the detection target should be at a position corresponding to the target position;
Each of the plurality of guide images is located at a position corresponding to the target position from a position different from the target position to which the guide image should move toward the target position to which the guide image should move. Means for moving the guide image so as to approach the target position as the reference time point should approach;
A game apparatus comprising:
前記検出対象は前記プレイヤの部位であり、
前記ゲーム装置は、前記プレイヤが、前記楽曲に合わせて軌跡を描くように前記プレイヤの部位を動かすゲームを実行する、
ことを特徴とする請求項1に記載のゲーム装置。
The detection target is a part of the player,
The game device executes a game in which the player moves a part of the player so as to draw a trajectory according to the music.
The game device according to claim 1.
前記位置情報取得手段は、前記プレイヤの複数の部位の位置に関する位置情報を取得し、
前記処理実行手段は、
前記プレイヤの複数の部位の各々について、前記基準時点に基づいて設定される評価対象時点において取得される位置情報が示す当該部位の位置と、前記目標位置に対応する位置と、の位置ずれに基づいて、前記プレイヤの動きを評価する評価手段と、
前記プレイヤの複数の部位のうちのいずれかと、前記目標位置に対応する前記位置と、の位置ずれが所定範囲である場合、当該部位を識別する識別情報を記憶手段に記憶させる手段と、
を更に含み、
前記評価手段は、前記識別情報が前記記憶手段に記憶されている場合、前記識別情報が示す前記プレイヤの部位以外の部位の位置と、前記目標位置に対応する位置と、の位置ずれに基づいて前記プレイヤの動きを評価することを制限し、前記識別情報が示す前記プレイヤの部位の位置と、前記目標位置に対応する位置と、の位置ずれに基づいて前記プレイヤの動きを評価する、
ことを特徴とする請求項2に記載のゲーム装置。
The position information acquisition means acquires position information regarding the positions of the plurality of parts of the player,
The process execution means includes
For each of the plurality of parts of the player, based on a positional deviation between the position of the part indicated by the position information acquired at the evaluation target time set based on the reference time and the position corresponding to the target position. Evaluation means for evaluating the movement of the player,
Means for causing the storage means to store identification information for identifying the part when a positional deviation between any of the plurality of parts of the player and the position corresponding to the target position is within a predetermined range;
Further including
When the identification information is stored in the storage means, the evaluation means is based on a positional shift between a position of a part other than the part of the player indicated by the identification information and a position corresponding to the target position. Limiting the evaluation of the movement of the player, and evaluating the movement of the player based on a positional shift between the position of the part of the player indicated by the identification information and a position corresponding to the target position;
The game device according to claim 2.
前記表示手段に表示される前記ゲーム画面は、他の領域よりも明度が高く設定された所定領域を含み、
前記目標位置は、前記所定領域内に含まれ、
前記案内手段は、前記案内画像を前記目標位置に向けて前記所定領域内で移動させることを特徴とする請求項1〜3の何れか一項に記載のゲーム装置。
The game screen displayed on the display means includes a predetermined area set with higher brightness than other areas,
The target position is included in the predetermined area,
The game apparatus according to claim 1, wherein the guide unit moves the guide image within the predetermined area toward the target position.
プレイヤが、楽曲に合わせて軌跡を描くように検出対象を動かすゲームを実行するゲーム装置の制御方法であって、
前記検出対象の位置に関する位置情報を取得する位置情報取得ステップと、
前記プレイヤが前記検出対象を動かすことによって描くべき軌跡と、前記軌跡を描くように前記プレイヤが前記検出対象を動かすべき時点を前記プレイヤに案内する案内ステップと、
前記位置情報に基づいてゲーム処理を実行する処理実行ステップと、
を含み、
前記案内ステップは、
基準軌跡を示す軌跡画像と、前記基準軌跡上の複数の目標位置の各々に向けて移動する複数の案内画像と、を含むゲーム画面を表示手段に表示させるステップと、
前記目標位置に対応する位置に前記検出対象があるべき基準時点に関する情報を記憶する手段から前記基準時点に関する情報を取得するステップと、
前記複数の案内画像の各々を、当該案内画像が移動すべき目標位置とは異なる位置から、当該案内画像が移動すべき目標位置に向けて、当該目標位置に対応する位置に前記検出対象があるべき前記基準時点が近づくにつれて、当該案内画像が当該目標位置に近づくようにして移動させるステップと、
を含むことを特徴とするゲーム装置の制御方法。
A control method of a game device for executing a game in which a player moves a detection target so as to draw a trajectory in accordance with music,
A position information acquisition step of acquiring position information related to the position of the detection target;
A trajectory to be drawn by moving the detection target by the player, and a guidance step for guiding the player at a time when the player should move the detection target to draw the trajectory;
A process execution step of executing a game process based on the position information;
Including
The guiding step includes
Displaying a game screen including a trajectory image indicating a reference trajectory and a plurality of guide images moving toward each of a plurality of target positions on the reference trajectory on display means;
Obtaining information on the reference time from means for storing information on the reference time at which the detection target should be at a position corresponding to the target position;
Each of the plurality of guide images is located at a position corresponding to the target position from a position different from the target position to which the guide image should move toward the target position to which the guide image should move. Moving the guide image closer to the target position as the reference time approaches
A method for controlling a game device, comprising:
プレイヤが、楽曲に合わせて軌跡を描くように検出対象を動かすゲームを実行するゲーム装置としてコンピュータを機能させるためのプログラムであって、
前記検出対象の位置に関する位置情報を取得する位置情報取得手段、
前記プレイヤが前記検出対象を動かすことによって描くべき軌跡と、前記軌跡を描くように前記プレイヤが前記検出対象を動かすべき時点を前記プレイヤに案内する案内手段、
前記位置情報に基づいてゲーム処理を実行する処理実行手段、
を含み、
前記案内手段は、
基準軌跡を示す軌跡画像と、前記基準軌跡上の複数の目標位置の各々に向けて移動する複数の案内画像と、を含むゲーム画面を表示手段に表示させる手段、
前記目標位置に対応する位置に前記検出対象があるべき基準時点に関する情報を記憶する手段から前記基準時点に関する情報を取得する手段、
前記複数の案内画像の各々を、当該案内画像が移動すべき目標位置とは異なる位置から、当該案内画像が移動すべき目標位置に向けて、当該目標位置に対応する位置に前記検出対象があるべき前記基準時点が近づくにつれて、当該案内画像が当該目標位置に近づくようにして移動させる手段、
を含むことを特徴とするゲーム装置として前記コンピュータを機能させるためのプログラム。
A program for causing a computer to function as a game device for executing a game in which a player moves a detection target so as to draw a trajectory in accordance with music,
Position information acquisition means for acquiring position information relating to the position of the detection target;
Guidance means for guiding the player to move the detection target, and to guide the player when the player should move the detection target so as to draw the locus;
A process execution means for executing a game process based on the position information;
Including
The guiding means includes
Means for displaying a game screen including a trajectory image indicating a reference trajectory and a plurality of guide images moving toward each of a plurality of target positions on the reference trajectory on a display means;
Means for acquiring information relating to the reference time point from means for storing information relating to a reference time point where the detection target should be at a position corresponding to the target position;
Each of the plurality of guide images is located at a position corresponding to the target position from a position different from the target position to which the guide image should move toward the target position to which the guide image should move. Means for moving the guide image so as to approach the target position as the reference time point should approach;
A program for causing the computer to function as a game device.
JP2011061703A 2011-03-18 2011-03-18 Game device, control method for game device, and program Pending JP2012196286A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011061703A JP2012196286A (en) 2011-03-18 2011-03-18 Game device, control method for game device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011061703A JP2012196286A (en) 2011-03-18 2011-03-18 Game device, control method for game device, and program

Publications (1)

Publication Number Publication Date
JP2012196286A true JP2012196286A (en) 2012-10-18

Family

ID=47179160

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011061703A Pending JP2012196286A (en) 2011-03-18 2011-03-18 Game device, control method for game device, and program

Country Status (1)

Country Link
JP (1) JP2012196286A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018524654A (en) * 2015-06-10 2018-08-30 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited Activity detection method and device, and identity authentication method and device
JP2019164744A (en) * 2018-03-20 2019-09-26 カシオ計算機株式会社 Movement locus detection program, movement locus detection method, and information terminal
CN112121437A (en) * 2020-09-21 2020-12-25 腾讯科技(深圳)有限公司 Movement control method, device, medium and electronic equipment for target object
KR20230052297A (en) 2020-12-08 2023-04-19 가부시키가이샤 코나미 데지타루 엔타테인멘토 Game program, game processing method and game device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3866474B2 (en) * 2000-02-18 2007-01-10 株式会社バンダイナムコゲームス GAME DEVICE AND INFORMATION STORAGE MEDIUM
JP2008200295A (en) * 2007-02-20 2008-09-04 Namco Bandai Games Inc Game device, program and information storage medium
JP2009261803A (en) * 2008-04-28 2009-11-12 Konami Digital Entertainment Co Ltd Game device, game device control method and program
JP2010082386A (en) * 2008-10-02 2010-04-15 Konami Digital Entertainment Co Ltd Game device, game device control method, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3866474B2 (en) * 2000-02-18 2007-01-10 株式会社バンダイナムコゲームス GAME DEVICE AND INFORMATION STORAGE MEDIUM
JP2008200295A (en) * 2007-02-20 2008-09-04 Namco Bandai Games Inc Game device, program and information storage medium
JP2009261803A (en) * 2008-04-28 2009-11-12 Konami Digital Entertainment Co Ltd Game device, game device control method and program
JP2010082386A (en) * 2008-10-02 2010-04-15 Konami Digital Entertainment Co Ltd Game device, game device control method, and program

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018524654A (en) * 2015-06-10 2018-08-30 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited Activity detection method and device, and identity authentication method and device
JP2019164744A (en) * 2018-03-20 2019-09-26 カシオ計算機株式会社 Movement locus detection program, movement locus detection method, and information terminal
JP7095525B2 (en) 2018-03-20 2022-07-05 カシオ計算機株式会社 Mobile devices, exercise support methods and programs
JP2022118047A (en) * 2018-03-20 2022-08-12 カシオ計算機株式会社 Mobile terminal, exercise support method and program
JP7416130B2 (en) 2018-03-20 2024-01-17 カシオ計算機株式会社 Mobile terminals, exercise support methods and programs
CN112121437A (en) * 2020-09-21 2020-12-25 腾讯科技(深圳)有限公司 Movement control method, device, medium and electronic equipment for target object
KR20230052297A (en) 2020-12-08 2023-04-19 가부시키가이샤 코나미 데지타루 엔타테인멘토 Game program, game processing method and game device

Similar Documents

Publication Publication Date Title
JP5256269B2 (en) Data generation apparatus, data generation apparatus control method, and program
JP5081964B2 (en) GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM
JP5238900B2 (en) GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM
JP5039808B2 (en) GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM
US10755486B2 (en) Occlusion using pre-generated 3D models for augmented reality
US20110305398A1 (en) Image generation system, shape recognition method, and information storage medium
JP2011258159A (en) Program, information storage medium and image generation system
US9724613B2 (en) Game device, control method of game device, program, and information storage medium
JP2011258158A (en) Program, information storage medium and image generation system
JP5425940B2 (en) GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM
JP2012196286A (en) Game device, control method for game device, and program
JP5373744B2 (en) GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM
JP5925828B2 (en) GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM
JP5746644B2 (en) GAME DEVICE AND PROGRAM
JP5715583B2 (en) GAME DEVICE AND PROGRAM
JP2022090964A (en) Game program, game processing method, and game device
JP5213913B2 (en) Program and image generation system
JP2012040209A (en) Game device, method of controlling game device, and program
JP6167408B2 (en) GAME DEVICE AND PROGRAM
JP5788930B2 (en) GAME DEVICE AND PROGRAM
JP2017217212A (en) Game terminal device and program

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130903

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140107