JP2015100481A - Game machine, and control method and computer program used therefor - Google Patents
Game machine, and control method and computer program used therefor Download PDFInfo
- Publication number
- JP2015100481A JP2015100481A JP2013242198A JP2013242198A JP2015100481A JP 2015100481 A JP2015100481 A JP 2015100481A JP 2013242198 A JP2013242198 A JP 2013242198A JP 2013242198 A JP2013242198 A JP 2013242198A JP 2015100481 A JP2015100481 A JP 2015100481A
- Authority
- JP
- Japan
- Prior art keywords
- virtual
- dimensional
- game machine
- user
- dimensional objects
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 64
- 238000004590 computer program Methods 0.000 title claims description 12
- 230000009471 action Effects 0.000 claims description 30
- 230000006870 function Effects 0.000 claims description 22
- 239000003550 marker Substances 0.000 claims description 7
- 230000008859 change Effects 0.000 abstract description 5
- 230000036544 posture Effects 0.000 abstract 2
- 238000012545 processing Methods 0.000 description 65
- 238000010276 construction Methods 0.000 description 39
- 230000008569 process Effects 0.000 description 31
- 238000011156 evaluation Methods 0.000 description 30
- 230000000694 effects Effects 0.000 description 13
- 238000004364 calculation method Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 10
- 230000004048 modification Effects 0.000 description 9
- 238000012986 modification Methods 0.000 description 9
- 230000000007 visual effect Effects 0.000 description 8
- 238000003384 imaging method Methods 0.000 description 4
- 230000002093 peripheral effect Effects 0.000 description 4
- 238000010079 rubber tapping Methods 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 238000012854 evaluation process Methods 0.000 description 3
- 238000005452 bending Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000000593 degrading effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
Abstract
Description
本発明は、ユーザが行なうべき複数の所作のそれぞれに対応する複数の指示標識をゲーム画面中で所定方向に移動させることにより、ユーザに各所作を案内するゲーム機等に関する。 The present invention relates to a game machine or the like that guides each operation to the user by moving a plurality of instruction signs corresponding to each of the plurality of operations to be performed by the user in a predetermined direction on the game screen.
音楽の演奏中の所定時期に所定の所作をユーザに要求する音楽ゲームが周知である。このような音楽ゲームの一つとして、ユーザが行なうべき複数の所作のそれぞれに対応する複数の指示標識を所定の経路に沿って表示させるとともに、各指示標識が対応する時期に所定の基準標識と一致するように各指示標識を基準標識に向かって移動させることにより、ユーザに各所作を案内する音楽ゲームが知られている(例えば、特許文献1参照)。 Music games that require a user to perform a predetermined action at a predetermined time during music performance are well known. As one of such music games, a plurality of instruction signs corresponding to each of a plurality of actions to be performed by the user are displayed along a predetermined route, and a predetermined reference sign is displayed at a time corresponding to each instruction sign. There is known a music game in which each instruction sign is moved toward a reference sign so as to coincide with each other, thereby guiding a user to each work (see, for example, Patent Document 1).
ゲーム機の分野では、いわゆる3次元コンピュータグラフィックスの技術を利用してゲーム画面を描くことがしばし行なわれている。しかしながら、上述した音楽ゲームに例示されるように、ユーザが所作を行なうべき時期を指示標識により案内するタイミングゲーム等において、複数の3次元オブジェクトが適宜の時間間隔を保ちながら移動する様子を観察した画像を3次元コンピュータグラフィックス技術に従って生成することにより指示標識を描画した場合、3次元オブジェクトをどのような方向に観察するかに応じて指示標識の見え方が変化する。そのような性質に起因して指示標識が意図しない見え方で表示される可能性がある。例えば、3次元オブジェクトの間隔が狭い場合には、ゲーム画面の周縁部、一例として上下方向の端部あるいは左右方向の端部等において3次元オブジェクト同士の重なりが大きくなり、隣接する3次元オブジェクトのうち、背後の3次元オブジェクトの大半が手前側の3次元オブジェクトで隠される。その場合、背後の3次元オブジェクトに対応する指示標識をユーザが十分に判別できない可能性がある。あるいは、背後の3次元オブジェクトを敢えて手前側の3次元オブジェクトで隠すことにより、一部の指示標識に関するユーザの判別の難易度を高めようとしても、3次元オブジェクトを観察する方向が変われば、そのような見え方にならない可能性がある。 In the field of game machines, drawing game screens using so-called three-dimensional computer graphics technology is often performed. However, as exemplified by the above-described music game, in a timing game or the like in which a user guides the time when an action should be performed with an instruction sign, a plurality of three-dimensional objects are observed to move while maintaining appropriate time intervals. When an instruction sign is drawn by generating an image according to a three-dimensional computer graphics technique, the appearance of the instruction sign changes depending on in which direction the three-dimensional object is observed. Due to such a property, the indication sign may be displayed in an unintended manner. For example, when the interval between the three-dimensional objects is narrow, the overlap between the three-dimensional objects becomes large at the peripheral edge of the game screen, for example, the vertical edge or the horizontal edge. Of these, most of the three-dimensional objects behind are hidden by the front three-dimensional object. In that case, there is a possibility that the user cannot sufficiently determine the indicator sign corresponding to the three-dimensional object behind. Alternatively, if the direction of observing the three-dimensional object changes, even if it is intended to increase the difficulty of the user's discrimination regarding some indication signs by concealing the three-dimensional object behind it with the front three-dimensional object, It may not look like this.
そこで、本発明は、3次元オブジェクトの見え方の変化を考慮して指示標識の描画を適切に制御することが可能なゲーム機等を提供することを目的とする。 Accordingly, an object of the present invention is to provide a game machine or the like that can appropriately control the drawing of the instruction sign in consideration of the change in the appearance of the three-dimensional object.
本発明の一態様に係るゲーム機は、ゲーム中の互いに異なる時期にユーザが行うべき複数の所作のそれぞれを該ユーザに指示する指示標識に対応する複数の3次元オブジェクトが、各所作の行われるべき時期の時間間隔に従って並べられた状態で仮想3次元空間の所定の経路に沿って移動する様子を、前記仮想3次元空間内の所定の視点から観察した画像を生成してユーザに提示することにより、該ユーザに各所作を案内する案内手段を備えたゲーム機において、前記案内手段は、前記指示標識が、形状及び大きさの少なくとも一方が互いに異なる複数種類の3次元オブジェクトのいずれにより描画されるべきかを所定の条件に従って判別する判別手段と、各指示標識が前記複数種類の3次元オブジェクトから前記判別手段の判別結果に従って選択された一種類の3次元オブジェクトにより描画されるように前記仮想3次元空間内に配置されるべき3次元オブジェクトの選択を制御する選択制御手段とを備えているものである。 In the game machine according to one aspect of the present invention, a plurality of three-dimensional objects corresponding to instruction signs for instructing each of a plurality of actions to be performed by the user at different times during the game are performed. Generating an image observed from a predetermined viewpoint in the virtual three-dimensional space and presenting it to the user, the state of moving along a predetermined path in the virtual three-dimensional space in a state arranged according to the time intervals of powers Thus, in the game machine including the guide unit that guides the user to each operation, the guide unit is drawn by any of a plurality of types of three-dimensional objects having at least one of shape and size different from each other. A discriminating unit that discriminates according to a predetermined condition, and each indicator sign follows the discrimination result of the discriminating unit from the plurality of types of three-dimensional objects. In which and a selection control means for controlling the selection of the three-dimensional object to be placed in a virtual three-dimensional space as rendered by one type of three-dimensional object selected.
また、本発明の一態様に係るゲーム機の制御方法は、ゲーム中の互いに異なる時期にユーザが行うべき複数の所作のそれぞれを該ユーザに指示する指示標識に対応する複数の3次元オブジェクトが、各所作の行われるべき時期の時間間隔に従って並べられた状態で仮想3次元空間の所定の経路に沿って移動する様子を、前記仮想3次元空間内の所定の視点から観察した画像を生成してユーザに提示することにより、該ユーザに各所作を案内する手順を備えたゲーム機の制御方法であって、前記案内する手順には、前記指示標識が、形状及び大きさの少なくとも一方が互いに異なる複数種類の3次元オブジェクトのいずれにより描画されるべきかを所定の条件に従って判別する手順と、各指示標識が前記複数種類の3次元オブジェクトから前記判別する手順における判別結果に従って選択された一種類の3次元オブジェクトにより描画されるように前記仮想3次元空間内に配置されるべき3次元オブジェクトの選択を制御する手順と、がさらに含まれているものである。 Further, in the game machine control method according to one aspect of the present invention, a plurality of three-dimensional objects corresponding to instruction signs that indicate to the user each of a plurality of actions to be performed by the user at different times during the game include: An image obtained by observing the state of moving along a predetermined path in the virtual three-dimensional space in a state arranged according to the time interval of each operation to be performed from a predetermined viewpoint in the virtual three-dimensional space is generated. A game machine control method including a procedure for guiding a user to each operation by presenting to the user, wherein the instruction sign has at least one of a shape and a size different from each other. A procedure for determining which of a plurality of types of three-dimensional objects should be drawn according to a predetermined condition; And a procedure for controlling selection of a three-dimensional object to be arranged in the virtual three-dimensional space so as to be drawn by one type of three-dimensional object selected according to a determination result in another procedure. Is.
さらに、本発明の一形態に係るコンピュータプログラムは、ゲーム中の互いに異なる時期にユーザが行うべき複数の所作のそれぞれを該ユーザに指示する指示標識に対応する複数の3次元オブジェクトが、各所作の行われるべき時期の時間間隔に従って並べられた状態で仮想3次元空間の所定の経路に沿って移動する様子を、前記仮想3次元空間内の所定の視点から観察した画像を生成してユーザに提示することにより、該ユーザに各所作を案内する案内手段としてゲーム機のコンピュータを機能させるコンピュータプログラムであって、前記指示標識が、形状及び大きさの少なくとも一方が互いに異なる複数種類の3次元オブジェクトのいずれにより描画されるべきかを所定の条件に従って判別する判別手段、及び、各指示標識が前記複数種類の3次元オブジェクトから前記判別手段の判別結果に従って選択された一種類の3次元オブジェクトにより描画されるように前記仮想3次元空間内に配置されるべき3次元オブジェクトの選択を制御する選択制御手段、として前記案内手段がさらに機能するように構成されているものである。 Furthermore, the computer program according to an aspect of the present invention includes a plurality of three-dimensional objects corresponding to instruction signs that indicate to the user each of the plurality of actions to be performed by the user at different times during the game. An image observed from a predetermined viewpoint in the virtual three-dimensional space is generated and presented to the user as it moves along a predetermined path in the virtual three-dimensional space in a state arranged according to the time interval of time to be performed. By doing so, a computer program for causing the computer of the game machine to function as a guide means for guiding each operation to the user, wherein the indication sign includes a plurality of types of three-dimensional objects having at least one of shape and size different from each other. A discriminating means for discriminating which should be drawn according to a predetermined condition; and Selection control means for controlling selection of a three-dimensional object to be arranged in the virtual three-dimensional space so as to be drawn by one kind of three-dimensional object selected according to the discrimination result of the discrimination means from a kind of three-dimensional object The guide means is further configured to function.
(第1の形態)
以下、本発明に係るゲーム機の一形態について説明する。図1は、本発明の一形態に係るゲーム機1の要部の機能ブロック図である。ゲーム機1は、一例として、音楽ゲームを提供する業務用のゲーム機として構成されている。つまり、ゲーム機1は、所定の対価の消費と引き替えに所定の範囲の音楽ゲームのプレイを提供する。図1に示すように、ゲーム機1には、コンピュータとしての制御ユニット2及び外部記憶装置3が設けられている。また、制御ユニット2には、入力装置4、表示装置としてのモニタ5、音声出力装置としてのスピーカ6、及び撮影手段としてのカメラ7が接続されている。
(First form)
Hereinafter, an embodiment of the game machine according to the present invention will be described. FIG. 1 is a functional block diagram of a main part of a
カメラ7は、入力装置4及びそれを使用するユーザを撮影可能なように配置されている。ゲームのプレイヤとしてのユーザは、モニタ5を見ながら入力装置4を使用する。つまり、入力装置4は、ユーザとモニタ5との間に配置される。したがって、カメラ7は、入力装置4及びユーザの方向を向くようにモニタ5側に配置される。また、入力装置として、例えば、音楽ゲーム内で使用される楽器を模したものが使用されてよい。このような入力装置として、例えば、ドラムセットを模したドラム型コントローラが使用されてもよい。ドラム型コントローラは、一例として、4つのドラムを含んでいる。4つのドラムは、例えば、ユーザの所作、ここではユーザが叩く操作を検出する検出部として利用される。そして、叩く操作のような入力装置4に対する操作の結果は、制御ユニット2に出力される。なお、ゲーム機1には、その他にも押釦スイッチ、十字キーといった業務用のゲーム機が備える各種の入力装置及び出力装置が設けられているが、それらの図示は省略した。ここでは、ゲーム中にユーザが行なうべき所作の一例としてユーザの叩く操作を挙げて説明するが、ユーザの所作はそのような叩く操作に限らず、ゲーム機の入力装置によって検出されるべきユーザの各種の行為を含む。ユーザの所作は、ユーザがゲーム機に対して物理的に接触することにより検出されるべき行為に限らず、ユーザがゲーム機に対して非接触で検出される行為であってもよい。例えば、カメラ7により検出されるべき行為も所作の一例である。
The
制御ユニット2は、制御主体としてのゲーム制御部11と、そのゲーム制御部11からの出力に従って動作する表示制御部12及び音声出力制御部14と、を備えている。ゲーム制御部11は、マイクロプロセッサと、そのマイクロプロセッサの動作に必要な内部記憶装置(一例としてROM及びRAM)等の各種の周辺装置とを組み合わせたユニットとして構成されている。表示制御部12は、ゲーム制御部11から与えられる描画データに応じた画像をフレームバッファに描画し、その描画した画像に対応する映像信号をモニタ5に出力することにより、モニタ5上に所定の画像を表示させる。音声出力制御部14は、ゲーム制御部11から与えられる音声再生データに応じた音声再生信号を生成してスピーカ6に出力することにより、スピーカ6から所定の楽曲(効果音等を含む)を再生させる。
The
外部記憶装置3は、制御ユニット2に接続されている。外部記憶装置3には、例えば、ハードディスク等の磁気記憶媒体、DVDROM、CDROM等の光学式記憶媒体、あるいはEEPROM等の不揮発性半導体メモリ装置といった、電源の供給がなくても記憶を保持可能な記憶媒体が使用される。
The
外部記憶装置3には、ゲームプログラム21及びゲームデータ22が記憶されている。
ゲームプログラム21は、ゲーム機1が所定の手順に従って音楽ゲームを実行するために必要なコンピュータプログラムである。ゲームプログラム21は、シーケンス制御モジュール23及び評価モジュール24を含んでいる。ゲーム機1が起動されると、ゲーム制御部11はその内部記憶装置に記憶されたオペレーションプログラムを実行することにより、ゲーム機1として動作するために必要な各種の処理を実行する。続いて、ゲーム制御部11は、外部記憶装置3からゲームプログラム21を読み込んでこれを実行することにより、ゲームプログラム21に従って音楽ゲームを実行するための環境を設定する。
A
The
ゲーム制御部11がゲームプログラム21のシーケンス制御モジュール23を実行することにより、ゲーム制御部11にはシーケンス処理部15が生成される。また、ゲーム制御部11がゲームプログラム21の評価モジュール24を実行することにより、ゲーム制御部11には操作評価部16が生成される。シーケンス処理部15は、ユーザが選択した音楽(楽曲)の再生に合わせてユーザに操作時期を指示するための処理、あるいはユーザの操作に応じて効果音等の演出を発生させるための処理といった音楽ゲーム処理を実行する。操作評価部16は、ユーザの操作を評価するための処理を実行する。シーケンス処理部15及び操作評価部16は、コンピュータハードウェアとコンピュータプログラムとの組み合わせによって実現される論理的装置である。なお、ゲームプログラム21には、上述したモジュール23、24の他にも音楽ゲームを実行するために必要な各種のプログラムモジュールが含まれ、ゲーム制御部11にはそれらのモジュールに対応した論理装置が生成される。しかし、それらの図示は省略した。
When the game control unit 11 executes the
ゲームデータ22には、ゲームプログラム21が実行される際に参照されるべき各種のデータが含まれている。例えば、ゲームデータ22には、楽曲データ25、効果音データ26及び画像データ27が含まれている。楽曲データ25は、ゲームの対象となる楽曲をスピーカ6から再生出力させるために必要なデータである。図1では、一種類の楽曲データ25が示されているが、実際には、ユーザが複数の楽曲からプレイする楽曲を選択可能である。ゲームデータ22には、それらの複数の楽曲データ25がそれぞれの曲を識別するための情報を付して記録されている。効果音データ26は、ユーザの操作に応答してスピーカ6から出力させるべき複数種類の効果音を、効果音毎にユニークなコードと対応付けて記録したデータである。効果音は、楽器その他の様々な種類の音声を含む。効果音データは、各種類に対して、音程を変えて所定のオクターブ数だけ用意されていてもよい。画像データ27は、ゲーム画面内の背景画像、各種のオブジェクト、アイコン等をモニタ5に表示させるためのデータである。
The
ゲームデータ22には、さらにシーケンスデータ28が含まれている。シーケンスデータ28は、ユーザに対して指示すべき各操作の内容、それらの操作が行なわれるべきゲーム中の時期等を定義したデータである。一曲の楽曲データ25に対して、最低一個のシーケンスデータ28が用意される。シーケンスデータ28は、本発明の指示データの一例に相当するが、その詳細は後述する。
The
次に、ゲーム機1が提供する音楽ゲームの概要を説明する。図2は、音楽ゲームに使用されるゲーム画面の一例を模式的に示した図である。図2に示すように、案内画面としてのゲーム画面30は、撮影画像としての現実空間画像31及びAR画像32を含んでいる。現実空間画像31には、カメラ7が撮影した画像が表示される。つまり、現実空間画像31には、カメラ7によって撮影された入力装置4及びユーザの画像が表示される。より具体的には、現実空間画像31には、4つのドラム画像DI及びユーザ画像PIが含まれる。
Next, an outline of a music game provided by the
4つのドラム画像DIは、入力装置4に対応する画像である。具体的には、4つのドラム画像DIは、入力装置4として機能するドラム型コントローラの4つのドラムにそれぞれ対応する画像である。一方、ユーザ画像PIは、ユーザに対応する画像である。ユーザは、カメラ7側から見た場合、入力装置4よりも遠方に位置している。したがって、ユーザ画像PIは、ドラム画像DIよりも奥側に表示される。
The four drum images DI are images corresponding to the
一方、AR画像32は、基準標識としての4つの基準位置画像RI、及び指示標識としてのオブジェクト画像OIを含んでいる。基準位置画像RI及びオブジェクト画像OIは、ゲーム空間の奥行きを表現可能なように、幅、奥行き、及び高さ(厚さ)を有する立体的な画像として表示される。4つの基準位置画像RIは、4つのドラム画像DIにそれぞれ対応する。従って、各基準位置画像RIは、各ドラム画像DIに対応する位置に配置される。また、各基準位置画像RIは、各ドラムの上面部分、つまりユーザによって叩く操作が実行されるべき部分の形に対応する形状を有している。そして、基準位置画像RIは、現実空間及び仮想空間を融合することにより、現実空間を拡張した拡張空間のオブジェクトとして機能する。つまり、各基準位置画像RIは、拡張空間における仮想的なドラムとして機能する。
On the other hand, the
各基準位置画像RIからは、所定の経路としての仮想レーンが上方に向かって延びている。ただし、仮想レーンは、ゲーム画面30中には表示されない。仮想レーンは、仮想空間において鉛直方向に直線状に延びている。つまり、仮想レーンは、仮想空間において、上方から基準位置画像GIまで真っ直ぐに延びている。仮想レーンには、ゲーム中に再生される楽曲の適宜な時期にオブジェクト画像OIが配置される。オブジェクト画像OIは、仮想レーンの上側に出現する。そして、オブジェクト画像OIは、楽曲の進行に伴って各基準位置画像RIとの間の距離を減少させつつ仮想レーンに沿って各基準位置画像RIまで移動する。つまり、各基準位置画像RIは、オブジェクト画像OIの到達位置としても機能する。
From each reference position image RI, a virtual lane as a predetermined route extends upward. However, the virtual lane is not displayed on the
オブジェクト画像OIは、拡張空間に仮想的に配置されたオブジェクトの画像である。また、オブジェクト画像OIは、基準位置画像RIと同様の形状を有している。具体的には、オブジェクト画像OIは、ドラム画像DIの上面部に対応する形状を有している。そして、オブジェクト画像OIは、仮想レーンに沿って鉛直方向に真っ直ぐ移動する。しかしながら、仮想レーンの上部では、オブジェクトが斜め下方から観察されるため、オブジェクト画像OIは、その裏面OIoが見え、表面OIsは見えないような状態でゲーム画面30に表示される。
The object image OI is an image of an object virtually arranged in the expansion space. The object image OI has the same shape as the reference position image RI. Specifically, the object image OI has a shape corresponding to the upper surface portion of the drum image DI. The object image OI moves straight along the virtual lane in the vertical direction. However, since the object is observed obliquely from below in the upper part of the virtual lane, the object image OI is displayed on the
オブジェクト画像OIの表示位置がゲーム画面30の上下方向の中心に近付くに従って、オブジェクト画像OIは徐々に薄く表示されるようになり、ゲーム画面30の上下方向の中心では、オブジェクト画像OIはその側面(外周面)のみが見えるような状態で表示される。このとき、オブジェクト画像OIの厚さHの方向とオブジェクト画像OIの移動方向TDとは一致する。そして、オブジェクト画像OIの厚さ方向と移動方向TDとが一致した後、オブジェクト画像OIは、その表面OIsを向けるようにしてゲーム画面30上に表示される。これは仮想空間においてオブジェクトが斜め上方から観察されるようになるためである。
As the display position of the object image OI approaches the center of the
このように、オブジェクト画像OIは、仮想空間において仮想レーン上を上から下に真っ直ぐに移動するオブジェクトの画像に相当するため、そのオブジェクトが観察される方向が変化することに起因して、上から下への移動に伴って徐々に形態が変化するように表示される。オブジェクト画像OIがゲーム画面30の上部に位置する間は、オブジェクト画像OIの下降に伴ってオブジェクト画像OIの表示上の奥行きDは徐々に減少し、ゲーム画面30の上下方向の中心付近でその奥行きDはオブジェクト画像OIの高さ(厚さ)Hと一致する。その後、オブジェクト画像OIの下降に伴ってオブジェクト画像OIの表示上の奥行きDは徐々に増加する。そして、オブジェクト画像OIは、基準位置画像RIの形状と一致するような向きで基準位置画像RIに到達する。
Thus, the object image OI corresponds to an image of an object that moves straight from the top to the bottom on the virtual lane in the virtual space. Therefore, the object image OI is changed from the top because the direction in which the object is observed changes. It is displayed so that the form gradually changes as it moves downward. While the object image OI is positioned at the upper part of the
オブジェクト画像OIの基準位置画像RIへの到達に合わせて、つまりオブジェクト画像OIの位置及び基準位置画像RIの位置の一致に合わせて、ユーザには所定の操作が要求される。具体的には、入力装置4としてのドラムを叩く操作が要求される。つまり、オブジェクト画像OIと基準位置画像RIとが一致した時期に、そのオブジェクト画像OIが到達した基準位置画像RIに対応するドラムを叩く操作がユーザに要求される。さらに、オブジェクト画像OIが基準位置画像RIに到達した時刻とユーザが適切な操作を実行した時刻との間のずれ時間が検出される。そして、そのずれ時間が小さいほどユーザの操作が高く評価される。また、叩く操作が実行されたドラムに対応する効果音がスピーカ6から再生される。
The user is required to perform a predetermined operation in accordance with the arrival of the object image OI to the reference position image RI, that is, in accordance with the coincidence of the position of the object image OI and the position of the reference position image RI. Specifically, an operation of hitting a drum as the
図2の例では、上面部が概略円形の4つのドラム画像DIが表示されている。左二つのドラム画像DIに対応する基準位置画像RIから延びる仮想レーン上には、複数のオブジェクト画像OIが表示されている。そして、各オブジェクト画像OIは、向きを変えつつ基準位置画像RIに向かって移動している。具体的には、上方の各オブジェクト画像OIは、裏面OIoを向けるように表示されている。それから基準位置画像RIに向かうに従って、オブジェクト画像OIの移動方向TDの大きさが小さくなるように向きが変化している。また、移動方向TDの大きさの変化に伴って、オブジェクト画像OIの向こう側に位置するユーザ画像PIの表示範囲が広がっている。移動方向TDと厚さ方向が一致した状態、つまり移動方向TDの大きさが最小の最小状態SPにおいては、オブジェクト画像OIは薄くなり、限りなく直線に近い状態となる。 In the example of FIG. 2, four drum images DI whose upper surface portion is approximately circular are displayed. A plurality of object images OI are displayed on a virtual lane extending from the reference position image RI corresponding to the left two drum images DI. Each object image OI moves toward the reference position image RI while changing its direction. Specifically, each upper object image OI is displayed so that the back surface OIo faces. Then, the direction changes so that the magnitude of the moving direction TD of the object image OI becomes smaller toward the reference position image RI. Further, as the size of the moving direction TD changes, the display range of the user image PI located on the other side of the object image OI is expanded. In the state where the movement direction TD and the thickness direction coincide with each other, that is, in the minimum state SP in which the movement direction TD is the smallest, the object image OI becomes thin and becomes as close to a straight line as possible.
また、オブジェクト画像OIは、ユーザ画像PIの上に位置するように表示されている。したがって、最小状態SPでは、オブジェクト画像OIの表示は、ユーザ画像PIの表示をほとんど遮っていない。結果として、最小状態SPを含む前後の位置では、仮想レーン上においてもユーザ画像PIが主として表示されている。このように裏面OIo、厚みH等の表示を含む立体的なオブジェクト画像OIを利用してユーザにドラムを叩くべき時期が案内される。一方で、立体的なオブジェクト画像OIの向きを変えることにより、ユーザ画像PI等の背景画像の表示も確保されている。 The object image OI is displayed so as to be positioned on the user image PI. Therefore, in the minimum state SP, the display of the object image OI hardly blocks the display of the user image PI. As a result, the user image PI is mainly displayed on the virtual lane at positions before and after the minimum state SP. In this way, the user is instructed when to strike the drum using the three-dimensional object image OI including the display of the back surface OIo, the thickness H, and the like. On the other hand, by changing the direction of the three-dimensional object image OI, display of a background image such as the user image PI is also ensured.
次に、AR画像32の描画について説明する。上述のようにAR画像32は、拡張空間を演出するためにゲーム画面30に立体的画像として表示される。このようなAR画像32は、いわゆる3次元コンピュータグラフィックス技術の処理手順に従って基準位置画像RI及びオブジェクト画像OIを描画することにより生成される。図3は、メモリ上に論理的に生成される仮想3次元空間GWの一例を示す図である。仮想3次元空間GWは、カメラ7の撮影空間を仮想的に3次元モデルとして表現したものである。
Next, drawing of the
仮想3次元空間GWには、AR画像32に対応する各種オブジェクトが配置される。例えば、このようなオブジェクトの一つとして、仮想3次元空間GWには、4つの基準位置画像RIにそれぞれ対応する基準オブジェクトとしての4つの仮想ドラムKDが配置される。また、各仮想ドラムKDには、各仮想ドラムKDに向かって延びる仮想レーンKLが設定される。さらに、仮想3次元空間GWには、仮想カメラKCが設定される。
Various objects corresponding to the
仮想3次元空間GWにおける仮想ドラムKD等の各種オブジェクトの位置及び仮想カメラKCの位置は、X−Y−Z軸の3軸直交座標系(ワールド座標)に従って3次元座標で定義される。また、仮想カメラKCの撮影範囲は、視角、視点の位置及び、撮影方向に基づいて設定される。さらに、仮想カメラKCには、撮影方向の仮想カメラKCから一定の距離離れた位置に撮影範囲内の空間を投影するための視野面が設定される。 The positions of various objects such as the virtual drum KD and the position of the virtual camera KC in the virtual three-dimensional space GW are defined by three-dimensional coordinates according to a three-axis orthogonal coordinate system (world coordinates) of the XYZ axes. The shooting range of the virtual camera KC is set based on the viewing angle, the viewpoint position, and the shooting direction. Furthermore, the virtual camera KC is set with a field plane for projecting a space within the shooting range at a position away from the virtual camera KC in the shooting direction by a certain distance.
図3の例では、仮想カメラKCは、現実空間のカメラ7に対応する位置に設定されている。つまり、カメラ7の撮影範囲に含まれる入力装置4のドラムの位置に仮想ドラムKDが配置されるように、仮想カメラKCの撮影範囲SRは設定される。より具体的には、仮想カメラKCは、仮想3次元空間GWを仮想ドラムKDの上面(ユーザによって叩かれるべき面)と概ね平行な方向から撮影するように配置されている。また、仮想カメラKCは、仮想3次元空間GWの中央付近に配置されている。そして、4つの仮想ドラムKD及び仮想レーンKLを含むように、仮想カメラKCの撮影範囲SRが設定されている。さらに、仮想カメラKCから一定の距離離れた位置には、視野面SHが設定されている。視野面SHには、撮影範囲SR内の仮想ドラムKD等のオブジェクトが投影される。
In the example of FIG. 3, the virtual camera KC is set at a position corresponding to the
図4を参照して、仮想レーンKLについてさらに説明する。図4は、仮想レーンKLを横から見た場合の模式図である。図4に示すように、仮想レーンKLは、仮想ドラムKDの上面と直交する方向に真っ直ぐに延びている。仮想ドラムKDがその上面を仮想3次元空間GWにおける水平方向と平行に設置されているとすれば、仮想レーンKLは仮想3次元空間GWにおける鉛直方向に沿って直線的に設けられることになる。なお、図4の例の撮影方向SDは、視野面SHの中央を通過するように延びる方向である。つまり、仮想カメラKCの視点と視野面SHの中心点とを結ぶ直線の方向を仮想カメラKCの視野の中心線として定義したとき、撮影方向はその視野の中心線の方向と一致する。言い換えれば、視野の中心線は、仮想カメラKCのレンズ軸線の方向に相当する。なお、仮想カメラKCの視点は仮想カメラKCの結像面の中心であるが、図4では便宜的に仮想カメラKCのレンズ中心点を視点として図示している。仮想カメラKCの撮影方向SDと仮想ドラムKDの向きとの関係は一例であり、その関係は適宜変更されてよい。例えば、仮想カメラKCの撮影方向SDに対して仮想ドラムKDの上面が手前側に幾らか傾くように、仮想ドラムKDが配置されてもよい。また、図4の仮想ドラムKDの方向と仮想レーンKLの方向との関係も一例であり、その関係は適宜変更されてよい。例えば、仮想ドラムKDの上面に対して仮想レーンKLが幾らか傾けられていてもよい。 With reference to FIG. 4, the virtual lane KL will be further described. FIG. 4 is a schematic diagram when the virtual lane KL is viewed from the side. As shown in FIG. 4, the virtual lane KL extends straight in a direction orthogonal to the upper surface of the virtual drum KD. If the upper surface of the virtual drum KD is installed parallel to the horizontal direction in the virtual three-dimensional space GW, the virtual lane KL is linearly provided along the vertical direction in the virtual three-dimensional space GW. Note that the shooting direction SD in the example of FIG. 4 is a direction extending so as to pass through the center of the field surface SH. That is, when the direction of a straight line connecting the viewpoint of the virtual camera KC and the center point of the field of view SH is defined as the center line of the field of view of the virtual camera KC, the shooting direction coincides with the direction of the center line of the field of view. In other words, the center line of the visual field corresponds to the direction of the lens axis of the virtual camera KC. Note that the viewpoint of the virtual camera KC is the center of the image plane of the virtual camera KC, but in FIG. 4, the lens center point of the virtual camera KC is illustrated as the viewpoint for convenience. The relationship between the shooting direction SD of the virtual camera KC and the direction of the virtual drum KD is an example, and the relationship may be changed as appropriate. For example, the virtual drum KD may be arranged such that the upper surface of the virtual drum KD is somewhat inclined toward the front side with respect to the shooting direction SD of the virtual camera KC. The relationship between the direction of the virtual drum KD and the direction of the virtual lane KL in FIG. 4 is also an example, and the relationship may be changed as appropriate. For example, the virtual lane KL may be somewhat inclined with respect to the upper surface of the virtual drum KD.
また、仮想3次元空間GWには、AR画像32に対応する各種のオブジェクトの一つとして、オブジェクト画像OIに対応する指示オブジェクトとしての仮想オブジェクトKOも配置される。仮想オブジェクトKOは、ユーザが行なうべき操作を指示する指示標識に対応して仮想3次元空間GWに配置される3次元オブジェクトである。仮想オブジェクトKOはその表面KOsと裏面KOoとが互いに平行で、厚さが薄い円盤状の構成を有している。なお、仮想オブジェクトKOとしては、形状が互いに相違する複数種類の仮想オブジェクトが存在するが、図4では円盤状の一種類の仮想オブジェクトKOのみを示している。以下では、図5に例示したように、仮想オブジェクトKOをその種類毎に枝番1、2…を付してKO1、KO2…などと表記する。ただし、複数種類の仮想オブジェクトKO1、KO2…を総称するときには仮想オブジェクトKOと表記する。仮想オブジェクトKOの種類については後に詳述し、以下では図4を参照して仮想オブジェクトKOが円盤状である場合を例として説明を続ける。
In the virtual three-dimensional space GW, a virtual object KO as an instruction object corresponding to the object image OI is also arranged as one of various objects corresponding to the
仮想オブジェクトKOは、オブジェクト画像OIによって指示すべき操作に対応した仮想レーンKL上に一定の向きで配置される。すなわち、各仮想オブジェクトKOは、その表面(上面))KOs及び裏面(下面)KOoの法線方向が仮想レーンKLの延びる方向、ここでは仮想ドラムKDの上面と直交する方向、と一致するように配置される。それにより、仮想オブジェクトKOは、表面KOsを進行方向の反対側(上側)に、裏面KOoを進行方向の側(下側)にそれぞれ向けつつ、その中心を仮想レーンKLが貫くように配置される。仮想オブジェクトKOは、仮想ドラムKDの上面をゲーム中の現在時刻と仮定し、仮想レーンKLの上方を将来の時刻としたときに、オブジェクト画像OIにて指示すべき操作の時期に対応した仮想レーンKL上の位置に配置される。そして、仮想オブジェクトKOは、ゲームの時間の進行に伴って仮想レーンKL上を上から下に漸次移動する。したがって、各仮想レーンKL上における仮想オブジェクトKOの間隔は、オブジェクト画像OIによって指示されるべき操作の時期の時間間隔に対応する。 The virtual object KO is arranged in a certain direction on the virtual lane KL corresponding to the operation to be instructed by the object image OI. That is, each virtual object KO has a normal direction of its front surface (upper surface)) KOs and rear surface (lower surface) KOo so as to coincide with a direction in which the virtual lane KL extends, in this case, a direction orthogonal to the upper surface of the virtual drum KD. Be placed. Thereby, the virtual object KO is arranged so that the virtual lane KL penetrates the center while the front surface KOs is directed to the opposite side (upper side) of the traveling direction and the back surface KOo is directed to the side of the traveling direction (lower side). . The virtual object KO assumes that the upper surface of the virtual drum KD is the current time during the game, and the virtual lane corresponding to the operation time to be indicated in the object image OI when the upper portion of the virtual lane KL is set as the future time. It is arranged at a position on KL. Then, the virtual object KO moves gradually from top to bottom on the virtual lane KL as the game time progresses. Therefore, the interval between the virtual objects KO on each virtual lane KL corresponds to the time interval of the operation time to be instructed by the object image OI.
仮想オブジェクトKOが配置される向きは、仮想レーンKLに対して一定である。一方、仮想カメラKCの視点から仮想オブジェクトKOが観察される方向は、仮想レーンKL上の仮想オブジェクトKOの位置の変化に伴って変化する。結果として、仮想オブジェクトKOは、仮想レーンKLに沿った移動とともに仮想カメラKCからは徐々に向きを変えるように観察される。つまり、仮想カメラKCの視野の中心線(図4の線SD)と、仮想カメラKCの視点と仮想オブジェクトKOの中心点とを結ぶ線Lxとがなす角度θを利用して仮想オブジェクトKOが観察される方向(方位と表現されてもよい。)を表現するとき、仮想カメラKCから見た仮想オブジェクトKOの向きはその観察方向θに応じて変化する。ただし、仮想オブジェクトKOの見え方の変化は、仮想レーンKLが直線状に延ばされている場合に限って生じるものではなく、仮想レーンKLの少なくとも一部に湾曲部が存在している場合でも発生する。すなわち、仮想カメラKCから見たときの仮想オブジェクトKOの向きは、仮想レーンKLが仮想カメラKCの視野を横切る方向に延びている限り、仮想オブジェクトKOの観察方向θに応じて絶えず変化し、仮想レーンKLが直線状であるか、あるいはその少なくとも一部に湾曲部を有しているかを問わない。なお、以下では、撮影方向SDを示す線に対して時計方向を観察方向θの正方向として定義するものとする。 The direction in which the virtual object KO is arranged is constant with respect to the virtual lane KL. On the other hand, the direction in which the virtual object KO is observed from the viewpoint of the virtual camera KC changes as the position of the virtual object KO on the virtual lane KL changes. As a result, the virtual object KO is observed to gradually change its direction from the virtual camera KC as it moves along the virtual lane KL. That is, the virtual object KO is observed using the angle θ formed by the center line of the visual field of the virtual camera KC (line SD in FIG. 4) and the line Lx connecting the viewpoint of the virtual camera KC and the central point of the virtual object KO. When the direction (which may be expressed as an azimuth) is expressed, the direction of the virtual object KO viewed from the virtual camera KC changes according to the observation direction θ. However, the change in the appearance of the virtual object KO does not occur only when the virtual lane KL is linearly extended, even when a curved portion exists in at least a part of the virtual lane KL. Occur. That is, the orientation of the virtual object KO when viewed from the virtual camera KC is continuously changed according to the observation direction θ of the virtual object KO as long as the virtual lane KL extends in the direction crossing the visual field of the virtual camera KC. It does not matter whether the lane KL is linear or has at least a curved portion. In the following, the clockwise direction is defined as the positive direction of the observation direction θ with respect to the line indicating the imaging direction SD.
図4に示すように、仮想カメラKCの撮影方向SDよりも上部に仮想オブジェクトKOが位置している場合、仮想カメラKCからは斜め上方に見上げるような向きで仮想オブジェクトKOが観察される。仮想オブジェクトKOが撮影方向SDと一致した時点で、仮想カメラKCからは仮想オブジェクトKOの側面(外周面)のみが見えるようになる。この時点では、仮想オブジェクトKOの奥行きDの方向と撮影方向SDとが一致する。このとき、仮想カメラKCから見て仮想オブジェクトKOは最も薄く観察され、その高さは仮想オブジェクトKOの厚さHと一致する。その後、仮想カメラKCからは斜め下方に見下ろすような向きで仮想オブジェクトKOが観察される。そして、仮想オブジェクトKOは、仮想ドラムKDの位置において、仮想オブジェクトKO裏面KOoが仮想ドラムKDの上面部と接触する。 As shown in FIG. 4, when the virtual object KO is positioned above the shooting direction SD of the virtual camera KC, the virtual object KO is observed from the virtual camera KC in a direction that looks up obliquely upward. When the virtual object KO coincides with the shooting direction SD, only the side surface (outer peripheral surface) of the virtual object KO can be seen from the virtual camera KC. At this time, the direction of the depth D of the virtual object KO matches the shooting direction SD. At this time, the virtual object KO is observed to be the thinnest when viewed from the virtual camera KC, and the height thereof matches the thickness H of the virtual object KO. Thereafter, the virtual object KO is observed from the virtual camera KC in such a direction as to look down obliquely downward. Then, in the virtual object KO, the virtual object KO back surface KOo is in contact with the upper surface portion of the virtual drum KD at the position of the virtual drum KD.
このように仮想オブジェクトKOは、仮想カメラKCから見た場合、まず裏面KOo側を仮想カメラKCに向けつつ移動し、仮想カメラKCの撮影方向SDを通過した後は表面KOs側を仮想カメラKCに向けつつ移動する。そのため、同一の仮想レーンKL上において複数の仮想オブジェクトKOが比較的狭い間隔で移動する場合、観察方向θが大きくなるほど隣接する仮想オブジェクトKO同士の重なり具合が大きくなり、仮想カメラKCの視点から見て奧側の仮想オブジェクトKOが手前側の仮想オブジェクトKOによって隠されて見えにくくなる。図4の例では、仮想レーンKLの上端領域RU及び下端領域RLで特にそのような傾向が顕著となる。そして、下端領域RLには仮想ドラムKDが位置し、そこには基準位置画像RI(図2参照)が表示されるため、ユーザにとっては仮想オブジェクトKOが仮想ドラムKDに達したか否かを判別することが困難となり、操作ミスを誘発するおそれがある。 In this way, when viewed from the virtual camera KC, the virtual object KO first moves while the rear surface KOo side is directed toward the virtual camera KC, and after passing through the shooting direction SD of the virtual camera KC, the front surface KOs side is moved to the virtual camera KC. Move while aiming. Therefore, when a plurality of virtual objects KO move at a relatively small interval on the same virtual lane KL, as the observation direction θ increases, the degree of overlap between adjacent virtual objects KO increases, and the viewpoint from the viewpoint of the virtual camera KC increases. The heel side virtual object KO is hidden by the near side virtual object KO and becomes difficult to see. In the example of FIG. 4, such a tendency is particularly remarkable in the upper end region RU and the lower end region RL of the virtual lane KL. Then, the virtual drum KD is located in the lower end region RL, and the reference position image RI (see FIG. 2) is displayed there. Therefore, for the user, it is determined whether or not the virtual object KO has reached the virtual drum KD. It is difficult to do so, and there is a risk of causing operational mistakes.
上記のような不都合を解消し、又は軽減するため、ゲーム機1では、仮想オブジェクトKOとして、互いに形状が異なる複数種類の仮想オブジェクトKOが用意され、それらの仮想オブジェクトKOが所定の条件に従って使い分けられる。図5はその一例を示している。図5の例は、ほぼ隙間がないほどに狭い間隔で配置されかつ下端領域RL(図4参照)に達した3つの仮想オブジェクトKOを仮想カメラKCの視点から観察した様子を示している。この例では、上側及び下側に円盤状の第1オブジェクトKO1が使用される一方、それらの第1オブジェクトKO1の間には第2オブジェクトKO2が使用されている。図6により詳しく示すように、第2オブジェクトKO2は、その外周の全周に亘って凹部Pr及び凸部Ppを交互に、かつ一定のピッチで形成した形状を有している。凹部Prの底を結ぶ円Cbの直径dbは第1オブジェクトKO1の直径drよりも小さく、かつ、凸部Ppの頂点を結ぶ円Caの直径daは第1オブジェクトKO1の直径drよりも大きい。凹部Prの内壁面(言い換えれば、凸部Ppの側壁面)は、第2オブジェクトKO2の内側に膨らむ弧を描くように湾曲する。したがって、図6に示す第2オブジェクトKO2においては、凹部Pr及び凸部Ppのそれぞれが第1オブジェクトKO1の周縁を内側及び外側にそれぞれ変形させた形状の変形部の一例として機能する。
In order to eliminate or reduce the above inconveniences, the
図5に戻って、第2オブジェクトKO2の形状が上記のように定められているため、第2オブジェクトKO2の背後に第1オブジェクトKO1が重なっていたとしても、凹部Prを介してその第1オブジェクトKO1の外周が見通せる。一方、第2オブジェクトKO2の手前に第1オブジェクトKO1が重なっていたとしても、その第1オブジェクトKO1の外周から第2オブジェクトKO2の凸部Ppが突出する。このように、第1オブジェクトKO1と第2オブジェクトKO2とを使い分けることにより、狭い間隔で仮想オブジェクトKOが重なる場合でも、背後の仮想オブジェクトKOの視認性を改善することができる。 Returning to FIG. 5, since the shape of the second object KO2 is determined as described above, even if the first object KO1 overlaps behind the second object KO2, the first object through the recess Pr. You can see the outer periphery of KO1. On the other hand, even if the first object KO1 overlaps before the second object KO2, the convex portion Pp of the second object KO2 protrudes from the outer periphery of the first object KO1. As described above, by using the first object KO1 and the second object KO2 properly, the visibility of the virtual object KO behind can be improved even when the virtual objects KO overlap each other at a narrow interval.
なお、図5及び図6に示した第2オブジェクトKO2の形状は一例であって、その形状は適宜に変更されてよい。例えば、第2オブジェクトKO2は図7〜図10に示すように変形されてもよい。図7に示す第2オブジェクトKO2は、凹部Prの内壁面を仮想オブジェクトKOの外側に向かって湾曲させた例である。図8に示す第2オブジェクトKO2は、凹部Prの内壁面をほぼ平面状に設定し、かつ凹部Prの底部に幾らかの丸みを付与した例である。図9に示す第2オブジェクトKO2は、図6の第2オブジェクトKO2に対して、凸部Ppの半径方向外側への突出量を大小交互に変化させた例である。すなわち、図9の例では、凸部Ppの頂点を結ぶ円として、直径da1の第1円Ca1と、直径da2(<da1)の第2円Ca2とが定義される。ただし、小さい方の直径da2は第1オブジェクトKO1の直径drよりも大きい。図9のような変形は、図7及び図8の変形例においても適用可能である。 The shape of the second object KO2 shown in FIGS. 5 and 6 is an example, and the shape may be changed as appropriate. For example, the second object KO2 may be deformed as shown in FIGS. The second object KO2 shown in FIG. 7 is an example in which the inner wall surface of the recess Pr is curved toward the outside of the virtual object KO. The second object KO2 shown in FIG. 8 is an example in which the inner wall surface of the recess Pr is set to be substantially flat and some roundness is given to the bottom of the recess Pr. The second object KO2 shown in FIG. 9 is an example in which the protruding amount of the convex portion Pp to the outer side in the radial direction is changed in magnitude alternately with respect to the second object KO2 of FIG. That is, in the example of FIG. 9, a first circle Ca1 having a diameter da1 and a second circle Ca2 having a diameter da2 (<da1) are defined as circles connecting the apexes of the protrusions Pp. However, the smaller diameter da2 is larger than the diameter dr of the first object KO1. The modification shown in FIG. 9 can be applied to the modification examples shown in FIGS.
図6〜図9の第2オブジェクトKO2では、変形部としての凹部Pr及び凸部Ppが外周の全周に亘って交互に形成されているが、それらの変形部Pr、Ppは、仮想カメラKCから観察できる範囲に限定して設けられてもよい。例えば、図10に示すように、仮想カメラKCからみて手前側に位置する半周の範囲に限って凹部Pr及び凸部Ppが設けられてもよい。このように凹部Pr等の変形部を設けた場合でも、図11に示すように第1オブジェクトKO1と重なり合った場合には、図5の例と同様に凹部Prを介して背後の第1オブジェクトKO1の外周を見通すことができ、かつ、手前側の第1オブジェクトKO1の外周から第2オブジェクトKO2の凸部Ppが突出して第2オブジェクトKO2を判別することができる。凹部Pr等の変形部を仮想オブジェクトKOの一部に限定して設ける場合、その範囲は仮想オブジェクトKOの半周に限る必要はない。例えば、全周に対して1/3、1/4といった範囲に限って凹部Pr等の変形部が設けられてもよい。さらに、図6〜図10に示した例は適宜組み合わせることも可能である。例えば、凹部Prの内壁面の形状に関して、図6〜図8に示した形状が適宜に組み合わされてもよい。図10の例において、凹部Prの内壁面の形状が図7又は図8の形状に設定されてもよいし、凸部Ppの突出量が図9の例に従って適宜変更されてもよい。さらに、図9の例においては、凸部Ppの突出量に代えて、又は加えて凹部Prの半径方向内側への後退量が適宜に変更されてもよい。 In the second object KO2 of FIGS. 6 to 9, the concave portions Pr and the convex portions Pp as the deforming portions are alternately formed over the entire outer periphery, but these deforming portions Pr and Pp are formed by the virtual camera KC. May be limited to the range that can be observed. For example, as shown in FIG. 10, the concave portion Pr and the convex portion Pp may be provided only in a range of a half circumference located on the near side when viewed from the virtual camera KC. Even when the deformed portion such as the concave portion Pr is provided as described above, when the first object KO1 overlaps with the first object KO1 as shown in FIG. 11, the first object KO1 behind the concave portion Pr as in the example of FIG. And the convex portion Pp of the second object KO2 protrudes from the outer periphery of the first object KO1 on the near side, and the second object KO2 can be determined. When the deformed portion such as the concave portion Pr is limited to a part of the virtual object KO, the range does not have to be limited to the half circumference of the virtual object KO. For example, a deformed portion such as the concave portion Pr may be provided only in the range of 1/3 and 1/4 with respect to the entire circumference. Furthermore, the examples shown in FIGS. 6 to 10 can be appropriately combined. For example, regarding the shape of the inner wall surface of the recess Pr, the shapes shown in FIGS. 6 to 8 may be appropriately combined. In the example of FIG. 10, the shape of the inner wall surface of the concave portion Pr may be set to the shape of FIG. 7 or FIG. 8, and the protruding amount of the convex portion Pp may be appropriately changed according to the example of FIG. Furthermore, in the example of FIG. 9, the retreat amount of the concave portion Pr toward the inside in the radial direction may be appropriately changed instead of or in addition to the protrusion amount of the convex portion Pp.
仮想ドラムKD及び仮想オブジェクトKOは、仮想カメラKCにより、所定の視点から所定の視野角で撮影される。そして、撮影結果に応じて、撮影した仮想3次元空間GWを視野面SHに投影した2次元画像が演算される。このような演算は、例えば、ゲーム制御部11が実行する。より具体的には、ゲーム制御部11は、仮想ドラムKDに対応する2次元画像としてドラム画像DIを取得するための演算を、仮想オブジェクトKOに対応する2次元画像としてオブジェクト画像OI取得するための演算を、それぞれ実行する。さらに、ゲーム制御部11は、演算結果に基づいて得られる2次元画像を描画するための描画データを生成する。そして、ゲーム制御部11は、視野面SHに投影された2次元画像がAR画像32としてゲーム画面30の現実空間画像31上に表示されるように、生成した描画データを表示制御部12に与える。これにより、カメラ7が撮影した現実空間画像31に仮想3次元空間GWの各種オブジェクトが配置された拡張空間が実現される。なお、仮想3次元空間GWにおける各種オブジェクトの配置、撮影方向等の仮想カメラKCの制御、あるいは、仮想カメラKCによる撮影といった一連の処理は、3Dコンピュータグラフィックス技術に基づくモデリング処理、レンダリング処理といった周知の処理によって実現されてよい。AR画像32の描画は所定のフレームレートで繰り返し実行される。描画の繰り返しに伴って仮想オブジェクトKOの位置は仮想レーンKLに沿って漸次下方に変化する。それにより、モニタ5には、複数の仮想オブジェクトKOが各仮想オブジェクトKOに対応する操作が行なわれるべき時期の時間間隔に従って並べられた状態で仮想レーンKL上を移動する様子を観察した動画が表示される。
The virtual drum KD and the virtual object KO are photographed at a predetermined viewing angle from a predetermined viewpoint by the virtual camera KC. Then, a two-dimensional image obtained by projecting the photographed virtual three-dimensional space GW on the visual field surface SH is calculated according to the photographing result. Such a calculation is executed by, for example, the game control unit 11. More specifically, the game control unit 11 obtains an object image OI as a two-dimensional image corresponding to the virtual object KO and an operation for acquiring the drum image DI as a two-dimensional image corresponding to the virtual drum KD. Each operation is executed. Furthermore, the game control part 11 produces | generates the drawing data for drawing the two-dimensional image obtained based on a calculation result. And the game control part 11 gives the produced | generated drawing data to the
次に、AR画像32を表示するためのゲーム制御部11の構成について説明する。ゲーム制御部11は、シーケンス処理部15を通じて、上述のAR画像32を表示するための処理を実行する。図12は、AR画像32を表示するためのシーケンス処理部15の機能ブロック図である。図12に示すように、シーケンス処理部15は、3次元空間構築部15a、画像演算部15b、及び描画データ生成部15cを含んでいる。
Next, the configuration of the game control unit 11 for displaying the
3次元空間構築部15aは、シーケンスデータ28に基づいて仮想3次元空間GWに仮想ドラムKD及び仮想オブジェクトKOといった各種のオブジェクトも配置することにより、仮想3次元空間GWを構築する。また、3次元空間構築部15aは、構築された仮想3次元空間GWにカメラ7の撮影範囲に対応する撮影範囲SRが設定されるように、仮想カメラKCを配置する。上述した複数種類の仮想オブジェクトKOを使い分けるため、3次元空間構築部15aには、さらなる論理的装置としてオブジェクトタイプ判別部15d及びオブジェクト選択配置部15eが設けられる。オブジェクトタイプ判別部15dは、シーケンスデータ28に基づいて、仮想3次元空間GWに配置すべき仮想オブジェクトKOとして、第1オブジェクトKO1又は第2オブジェクトKO2のいずれを使用すべきかを所定の条件に従って判別する。オブジェクト選択配置部15eは、オブジェクトタイプ判別部15dの判別結果に従って、仮想レーンKL上に第1オブジェクトKO1又はKO2を選択的に配置する。なお、3次元空間構築部15aの処理の詳細は後述する。
The three-dimensional
画像演算部15bは、仮想カメラKCを制御する。例えば、画像演算部15bは、仮想カメラKCを通じて3次元空間構築部15aが構築した仮想3次元空間GWを撮影する。そして、画像演算部15bは、撮影結果に応じて、撮影範囲SRの仮想3次元空間の各種オブジェクトに対応する2次元画像を実現するための座標変換の演算を実行する。描画データ生成部15cは、画像演算部15bの演算結果に基づいて、ドラム画像DI、仮想オブジェクトKOといった各種オブジェクトに対応する2次元画像を記述した描画データを生成する。そして、描画データ生成部15cは、生成した描画データを表示制御部12に与える。これにより、AR画像32がゲーム画面30上に表示される。
The
次に、図13を参照して、シーケンスデータ28の詳細を説明する。図13は、シーケンスデータ28の内容の一例を示す図である。シーケンスデータ28は、条件定義部28aと、操作シーケンス部28bとを備えている。条件定義部28aには、音楽のテンポ、ビート、トラック等を指定する情報、楽曲毎に異なるゲームの実行条件を指定する情報といった、ゲームを実行するための各種の条件を指定する情報が記述される。
Next, the details of the
一方、操作シーケンス部28bには、適切な操作をすべき時期が楽曲中の時刻と対応付けて記述される。すなわち、図13にその一部を示したように、操作シーケンス部28bは、楽曲中において操作が行われるべき基準時期(操作時期)と、入力装置4の4つのドラムのいずれかを指定する情報と、オブジェクト画像OIを描画するために使用されるべき仮想オブジェクトKOの種類を指定する情報とを対応付けた複数のレコードの集合として構成されている。操作時期は、楽曲中の小節部分、拍数及び拍中の時刻をそれぞれ指定する値をカンマで区切って記述されている。拍中の時刻は、一拍の先頭からの経過時間であり、一拍の時間長をn個の単位時間に等分して先頭からの単位数で表現される。例えば、楽曲の一小節目の四拍目で、かつその拍の先頭から12/100だけ経過した時刻を操作時期として指定する場合には、“01,4,012”と記述される。
On the other hand, in the
入力装置4のドラムを指定する情報は、ドラムの番号を指定するように記述される。
各ドラムに対応する情報によって指定される。例えば、入力装置4の4つのドラムの番号を左から順に第1ドラム、第2ドラム…と順に定義したとき、ドラムの番号を指定する情報は“drum 1”、“drum 2”といったように記述される。図13の例では、一小節目の四拍目の開始時点(000)で“drum 1”に対応する第1ドラムが操作対象として指定されている。この場合、ユーザには、一小節目の四拍目の開始時点(000)で左端の第1ドラムを叩く操作が要求される。つまり、左端の第1ドラムに対応するドラム画像DIにオブジェクト画像Oiが到達した時刻に、その第1ドラムの上面部を叩く操作がユーザに要求される。このようにシーケンスデータ28には、操作を実行すべきドラム及び操作時期が互いに関連付けられて記述されている。
The information specifying the drum of the
It is specified by information corresponding to each drum. For example, when the four drum numbers of the
さらに、仮想オブジェクトKOの種類を指定する情報(以下、オブジェクト指定情報と呼ぶ。)は、第1オブジェクトKO1を指定する場合に“obj 1”、第2オブジェクトKO2を指定する場合に“obj 2”と記述される。いずれの仮想オブジェクトKOを指定するかは、適宜の基準に従って決定されてよいが、一例として、同一の仮想レーンKL上に配置されるべき仮想オブジェクトKOの時間間隔を考慮してオブジェクト指定情報が定められる。例えば、仮想オブジェクトKO同士の重なりが問題とならない場合には第1オブジェクトKO1が指定される。一方、図13のA部に例示されているように、同一のドラム、ここでは第1ドラム(drum 1)への操作を指定する3つのレコードが短時間(一例として、拍中の時間間隔で5/100)で連続しているような連続操作部がシーケンスデータ28に含まれている場合、その連続操作部Aの中間に位置するレコードについては第2オブジェクトKO2を指定する“obj 2”が、その前後のレコードについては第1オブジェクトKO1を指定する“obj 1”がそれぞれ記述されている。これらのオブジェクト指定情報に従って仮想オブジェクトKOの種類を使い分けることにより、図5に示したように仮想オブジェクトKOが重なり合う場合において、第2オブジェクトKO2を適切に配置して連続操作部Aに対応するオブジェクト画像OIの視認性を改善することができる。なお、図13の連続操作部Aはあくまで一例である。例えば、第2オブジェクトKO2が指定されるレコードと、その前又は後に存在するレコードとのそれぞれで指定されている操作時期の時間間隔は、仮想オブジェクトKO同士の重なり合いの程度、つまり仮想オブジェクトKO同士の時間間隔と、それらの仮想オブジェクトKOの視点からの観察方向θとに応じて適宜に設定されてよい。
Further, information specifying the type of the virtual object KO (hereinafter referred to as object specifying information) is “
ゲーム機1において、ゲーム制御部11のシーケンス処理部15は、上述したシーケンスデータ28で指定された操作時期に仮想オブジェクトKOが仮想ドラムKDに到達するように仮想3次元空間GW内の仮想オブジェクトKOの位置を制御する。さらに、シーケンス処理部15は、その仮想3次元空間GW内の仮想オブジェクトKO及び仮想ドラムKDに応じて、オブジェクト画像OIが基準位置画像RIに到達するようにゲーム画面30をモニタ5に表示させる。一方、ゲーム制御部11の操作評価部16は、シーケンスデータ28を参照して、ユーザの操作結果を評価するための操作評価処理を実行する。なお、ゲーム制御部11は、その他にも音楽ゲームを実現するために必要な各種の周知な処理を実行するが、それらの詳細な説明は省略する。
In the
次に、ゲーム画面30を表示させるためにシーケンス処理部15が実行するシーケンス処理の手順を説明する。図14は、シーケンス処理ルーチンのフローチャートの一例を示す図である。図14のルーチンは、ゲーム画面30の描画に関して定められたフレームレートに従って繰り返し実行される。図14のシーケンス処理ルーチンが開始されると、ゲーム制御部11のシーケンス処理部15は、まずステップS1にて楽曲上の現在時刻を取得する。現在時刻は、一例として楽曲の再生開始時点を基準としてゲーム制御部11の内部クロックにて計時される。続くステップS2において、シーケンス処理部15は、シーケンスデータ28から、仮想3次元空間GWの撮影範囲SRに配置すべき時間長(表示範囲)のデータを取得する。表示範囲は、一例として現在時刻から楽曲の二小節相当の時間長に設定される。
Next, the sequence processing procedure executed by the
次のステップS3において、シーケンス処理部15は、各仮想レーンKLに配置すべき全ての仮想オブジェクトKOの仮想3次元空間GW内における座標を演算する。その演算は、一例として、次のようにして実行される。まず、シーケンス処理部15は、シーケンスデータ28のドラムの指定に基づいて、仮想オブジェクトKOを配置すべき仮想レーンKLを判別する。具体的には、シーケンスデータ28で指定されたドラムの番号に対応する仮想レーンKLを特定することにより実現される。つまり、その特定された仮想レーンKLが仮想オブジェクトKOを配置すべき仮想レーンKLとして判別される。また、仮想オブジェクトKO毎に、各操作時期と現在時刻との時間差に応じて、仮想ドラムKDからの時間軸方向(つまり、仮想オブジェクトKOの移動方向)における仮想レーンKL上の位置を判別する。これにより、シーケンスデータ28で指定されたドラムに対応する仮想レーンKL上に仮想ドラムKDから時間軸に沿って各仮想オブジェクトKOを配置するための座標を取得することができる。
In the next step S3, the
続くステップS4において、シーケンス処理部15は、仮想3次元空間GWに各種のオブジェクトを配置する。この際、仮想ドラムKDが指定された位置に配置され、かつ仮想オブジェクトKOがステップS3で演算された座標に配置される。ただし、仮想オブジェクトKOの配置に際しては、シーケンスデータ28にて指定されたオブジェクト指定情報に従って各座標に配置すべき仮想オブジェクトKOの種類が判別され、その判別結果に従って第1オブジェクトKO1又は第2オブジェクトKO2が選択されて仮想レーンKLに配置される。この処理は後に詳しく説明する。
In subsequent step S4, the
オブジェクトの配置が完了すると、次のステップS5にて、シーケンス処理部15は、仮想3次元空間GWに配置された仮想オブジェクトKO及び仮想ドラムKDを所定の視点から所定の撮影方向SDに所定の視野角で観察した様子が視野面SHに投影されるように、各種オブジェクトの3次元座標(ワールド座標)を視野面SH上における2次元座標に変換する演算を実行する。続くステップS6にて、シーケンス処理部15は、ステップS5の演算結果に従って視野面SH上の2次元画像を記述した描画データを生成する。このようにして、シーケンス処理部15は、描画データを生成する。続くステップS6において、シーケンス処理部15は、表示制御部12に、ステップS5で生成した画像データを出力する。これにより、現実空間画像31にAR画像32が配置されたゲーム画面30がモニタ5に表示される。また、ゲーム画面30上のオブジェクト画像OIは、シーケンスデータ28で指定された操作時期に基準位置画像RIに到達するように向きを変えながら仮想レーン上を移動する。なお、図14の処理において、ステップS1〜ステップS4の処理はシーケンス処理部15の3次元空間構築部15aが担当し、ステップS5の処理は画像演算部15bが担当し、ステップS6及びS7の処理は描画データ生成部15cが担当する。
When the arrangement of the objects is completed, in the next step S5, the
図15は、図14のステップS4の実行時において、シーケンス処理部15の3次元空間構築部15aが仮想オブジェクトKOを配置するために実行する処理の手順を示している。図15の仮想オブジェクト配置処理において、3次元空間構築部15aは、まずステップS101にて、図14のステップS2で取得されたシーケンスデータ28から処理対象の一つのレコードを操作時期の早い方が優先されるようにして一つ選択する。続くステップS102において、3次元空間構築部15aは、処理対象のレコードに含まれるオブジェクト指定情報にて第1オブジェクトKO1が指定されているか否かを判別する。第1オブジェクトKO1が指定されている場合、3次元空間構築部15aはステップS103に進み、対象レコードに対応する仮想オブジェクトKOとして、第1オブジェクトKO1をそのレコードに対応する仮想オブジェクトKOが配置されるべき座標に配置する。その座標は図14のステップS3にて演算された座標である。一方、ステップS102にて第1オブジェクトKO1が指定されていない場合、3次元空間構築部15aはステップS104に進み、対象レコードに対応する仮想オブジェクトKOとして、第2オブジェクトKO2をそのレコードに対応する仮想オブジェクトKOが配置されるべき座標に配置する。ステップS103又はS104にて仮想オブジェクトKOを配置した後、3次元空間構築部15aはステップS105に進み、図14のステップS2で取得したシーケンスデータ28に含まれている全てのレコードがステップS101〜S104にて処理されたか否かを判別する。そして、3次元空間構築部15aは、未処理のレコードがあればステップS101に戻り、全てのレコードが処理されていれば図15の処理を終える。なお、図15の処理において、ステップS102の処理は3次元空間構築部15aのオブジェクトタイプ判別部15dが担当し、ステップS103及びS104の処理はオブジェクト選択配置部15eが担当する。
FIG. 15 shows a procedure of processing executed by the three-dimensional
図16は、ゲーム制御部11の操作評価部16が、ユーザの操作結果を評価するための操作評価処理ルーチンの手順を示している。図16のルーチンは所定の周期で繰り返し実行される。図16のルーチンが開始されると、操作評価部16は、まずステップS11で入力装置4の出力信号を参照して、各ドラムに対する操作の有無を判別する。そして、この判別結果が否定的結果の場合、つまり操作が実行されていない場合、操作評価部16は、以降の処理をスキップして、今回のルーチンを終了する。
FIG. 16 shows a procedure of an operation evaluation processing routine for the
一方、ステップS11の判別結果が肯定的結果の場合、つまり操作が実行されている場合、操作評価部16は、ステップS12に進む。ステップS12において、操作評価部16は、操作が実行されたドラム及び操作が実行された時期を判別する。続くステップS13において、操作評価部16は、操作がされたドラムに関して、シーケンスデータ28に記述された直近の操作時期、つまりはシーケンスデータ28上で時間的に最も接近した操作時期を特定し、その操作時期と操作出力信号が出力された時刻との間のずれ時間を取得する。
On the other hand, if the determination result in step S11 is a positive result, that is, if an operation is being performed, the
次のステップS14において、操作評価部16は、ずれ時間が評価範囲内か否かを判別することにより、ユーザの操作が適切か否か判断する。評価範囲は、比較対象の操作時期を中心として前後に所定の時間範囲で設定される。また、一例として、所定の時間範囲は、中心に近いほど評価の高い複数のレベルに分類される。この結果が否定的結果の場合、つまりずれ時間が評価範囲外の場合、操作評価部16は、以降の処理をスキップして、今回のルーチンを終了する。
In the next step S14, the
一方、ステップS14の判断結果が肯定的結果の場合、つまりずれ時間が評価範囲内の場合、操作評価部16は、ステップS15に進む。ステップS15において、操作評価部16は、ステップS13で取得したずれ時間が所定の時間範囲のうち複数のレベルのいずれに属するかを判別することにより、ユーザの操作結果に対する評価を決定する。その後、操作評価部16は、ステップS16に進み、ステップS16において、評価結果がモニタ5に表示されるように、表示制御部12への出力を制御する。ステップS16の処理を完了すると、操作評価部16は今回のルーチンを終了する。
On the other hand, if the determination result in step S14 is a positive result, that is, if the shift time is within the evaluation range, the
以上に説明したように、この形態によれば、指示標識として描画されるべき仮想オブジェクトKOとして、形状が互いに異なる第1オブジェクトKO1及び第2オブジェクトKO2を用意し、仮想3次元空間GWの同一経路、つまり同一の仮想レーンKL上で比較的狭い時間間隔で並べられる複数の仮想オブジェクトKOの一部として第1オブジェクトKO1を使用し、他の一部として第2オブジェクトKO2を使用するため、仮想オブジェクトKOの観察方向θが比較的大きい領域RU、RLにて仮想オブジェクトKO同士の重なりの程度が大きい場合でも、それらの仮想オブジェクトKOの視認性を適度に確保することができる。特に、仮想オブジェクトKOが仮想ドラムKDに到達する操作時期の近辺でそのような効果が発揮されることにより、同一のドラムに対する短時間での連続操作がユーザに要求される局面であっても、ユーザはその指示を容易かつ的確に判別できるようになる。 As described above, according to this embodiment, the first object KO1 and the second object KO2 having different shapes are prepared as the virtual object KO to be drawn as the instruction sign, and the same path in the virtual three-dimensional space GW is prepared. That is, since the first object KO1 is used as a part of a plurality of virtual objects KO arranged at a relatively narrow time interval on the same virtual lane KL, and the second object KO2 is used as another part, the virtual object Even when the overlapping degree of the virtual objects KO is large in the regions RU and RL where the observation direction θ of KO is relatively large, the visibility of the virtual objects KO can be appropriately ensured. In particular, even when the virtual object KO is in the vicinity of the operation time when it reaches the virtual drum KD, such an effect is exhibited. The user can easily and accurately determine the instruction.
上述した第1の形態においては、シーケンス処理部15が図14の処理を実行することにより、本発明の案内手段の一例として機能する。また、シーケンス処理部15の3次元空間構築部15aに設けられたオブジェクトタイプ判別部15dが図15のステップS102の処理を実行することにより、本発明の判別手段の一例として機能し、オブジェクト選択配置部15eが図15のステップS103又はS104の処理を実行することにより、本発明の選択制御手段の一例として機能する。また、シーケンスデータ28におけるオブジェクト指定情報は、本発明における描画判別情報の一例として機能する。
In the first embodiment described above, the
(第2の形態)
次に、本発明の第2の形態について説明する。なお、第2の形態は、上述した第1の形態における第1オブジェクトKO1及びKO2の使い分けに関する判別の手法を変更したものである。したがって、以下では、第1の形態との相違点を中心として説明し、共通点については第1の形態の説明をそのまま流用する。
(Second form)
Next, a second embodiment of the present invention will be described. Note that the second form is a modification of the method for determining the proper use of the first objects KO1 and KO2 in the first form described above. Therefore, in the following, the description will focus on the differences from the first embodiment, and the description of the first embodiment will be used as it is for the common points.
図17は、第2の形態で用いられるシーケンスデータ28を示している。図13との対比から明らかなように、本形態で用いられるべきシーケンスデータ28は、仮想オブジェクトKOの種類を指定する情報が省略されている。一方、シーケンス処理部15の3次元空間構築部15aは、図15の仮想オブジェクト配置処理に代えて図18の仮想オブジェクト配置処理を実行することにより、第1の形態と同様の仮想オブジェクトKOの使い分けを実現する。
FIG. 17 shows
図18の仮想オブジェクト配置処理において、3次元空間構築部15aは、まずステップS201にて、図14のステップS2で取得されたシーケンスデータ28から処理対象の一つのレコードを選択する。この処理は図15のステップS101と同じである。続くステップS202において、3次元空間構築部15aは、処理対象のレコードにて指定されているドラム番号と同一番号のレコードの中で、対象レコードにて指定された操作時期に対して時間的に先行しかつ操作時期が最も近いレコードを特定し、そのレコードにて指定されている操作時期と対象レコードにて指定されている操作時期との時間間隔を演算する。次のステップS203において、3次元空間構築部15aはステップS202で演算した時間間隔が所定の基準値未満か否かを判別する。この場合の基準値は、仮想オブジェクトKOの重なりの程度が許容範囲を超え、背後の仮想オブジェクトKOの視認が困難となると認められる時間間隔の目安として定められる。どの程度の重なりであれば許容範囲とするかはゲームの制作者の意図に従って適宜定めてよい。
In the virtual object arrangement process of FIG. 18, the three-dimensional
ステップS203で、基準値以上と判断した場合、3次元空間構築部15aはステップS204に進み、対象レコードに対応して配置されるべき仮想オブジェクトKOについての観察方向θを演算する。観察方向θは、仮想3次元空間GWにおいて予め定められている仮想カメラKCの視点の座標と、図14のステップS3で演算された仮想オブジェクトKOの座標とから求めることができる。また、上述したように観察方向θは、撮影方向SDから時計方向に向かう方向を正方向として定義される。なお、観察方向θは、対象レコードに対応する仮想オブジェクトKOに代えて、ステップS202で特定した時間的に先行するレコードに対応する仮想オブジェクトKOについて求められてもよい。
If it is determined in step S203 that the reference value is equal to or greater than the reference value, the three-dimensional
続くステップS205において、3次元空間構築部15aは、観察方向θが所定の基準値以上であるか否かを判別する。この場合の基準値は、図5の下端領域RLに対象レコードに基づく仮想オブジェクトKOが入っているか否かを識別する基準値として定められる。つまり、仮想オブジェクトKOが仮想ドラムKDに接近し、仮想オブジェクトKOの重なりによって背後の仮想オブジェクトKOによって示されるべき操作時期の判別が困難となり得る場合にステップS205が肯定されるよう基準値を設定すればよい。
In subsequent step S205, the three-dimensional
ステップS205にて観察方向θが基準値以上と判断された場合、3次元空間構築部15aはステップS206に進み、対象レコードに対応して配置されるべき仮想オブジェクトKOに対して仮想レーンKL上で一つ前に先行する仮想オブジェクトKOが第2オブジェクトKO2であるか否かを判別する。つまり、ステップS202で特定した先行レコードに対応する仮想オブジェクトKOとして既に第2オブジェクトKO2が指定されているか否かを、図18の処理履歴から判別する。ステップS206が否定判断された場合、3次元空間構築部15aはステップS207に進み、対象レコードに対応する仮想オブジェクトKOとして、第2オブジェクトKO2をそのレコードに対応する仮想オブジェクトKOが配置されるべき座標に配置する。その座標は図14のステップS3にて演算された座標である。一方、ステップS203にて時間間隔が基準値以上と判断された場合、ステップS205で観察方向θが基準値未満と判断された場合、又はステップS206で先行オブジェクトが第2オブジェクトKO2ではない、と判断された場合、3次元空間構築部15aはステップS208に進み、対象レコードに対応する仮想オブジェクトKOとして、第1オブジェクトKO1をそのレコードに対応する仮想オブジェクトKOが配置されるべき座標に配置する。
When it is determined in step S205 that the observation direction θ is greater than or equal to the reference value, the three-dimensional
ステップS207又はS208にて仮想オブジェクトKOを配置した後、3次元空間構築部15aはステップS209に進み、図14のステップS2で取得したシーケンスデータ28に含まれている全てのレコードがステップS201〜S208にて処理されたか否かを判別する。そして、3次元空間構築部15aは、未処理のレコードがあればステップS201に戻り、全てのレコードが処理されていれば図18の処理を終える。なお、図18の処理において、ステップS202〜S206の処理は3次元空間構築部15aのオブジェクトタイプ判別部15dが担当し、ステップS207及びS208の処理はオブジェクト選択配置部15eが担当する。
After arranging the virtual object KO in step S207 or S208, the three-dimensional
以上に説明したように、第2の形態においては、仮想3次元空間GWの同一経路、つまり同一の仮想レーンKL上で比較的狭い時間間隔で並べられる複数の仮想オブジェクトKOの群が仮想ドラムKDに近い下端領域RLに存在する場合、第1オブジェクトKO1を覆うように配置されるべき仮想オブジェクトKOとして第2オブジェクトKO2が使用される。そのため、仮想オブジェクトKOが仮想ドラムKDに到達する操作時期の近辺において、一部の仮想オブジェクトKOが他の仮想オブジェクトKOで隠されるような状況が生じても、それらの仮想オブジェクトKOの視認性を適度に確保することができる。したがって、同一のドラムに対する短時間での連続操作がユーザに要求される局面であっても、ユーザはその指示を容易かつ的確に判別できるようになる。 As described above, in the second embodiment, a group of a plurality of virtual objects KO arranged at a relatively narrow time interval on the same path of the virtual three-dimensional space GW, that is, the same virtual lane KL is a virtual drum KD. 2 is used as the virtual object KO to be arranged so as to cover the first object KO1. Therefore, even when a situation occurs in which some virtual objects KO are hidden by other virtual objects KO near the operation time when the virtual objects KO reach the virtual drum KD, the visibility of these virtual objects KO is improved. It can be secured moderately. Therefore, even in a situation where the user is required to continuously operate the same drum in a short time, the user can easily and accurately determine the instruction.
なお、第2の形態では、図18のステップS204及びS205を設けることにより、仮想オブジェクトKOが仮想ドラムKDに接近する所定範囲(下端領域RL)に限って第2オブジェクトKO2が利用されるものとしたが、それらのステップS204、S205は省略されてもよい。その場合、背後の第1オブジェクトKO1の大半を隠す可能性がある仮想オブジェクトKOに対しては、仮想レーンKLの全長において第2オブジェクトKO2が利用されるようになる。 In the second embodiment, by providing steps S204 and S205 in FIG. 18, the second object KO2 is used only within a predetermined range (lower end region RL) where the virtual object KO approaches the virtual drum KD. However, those steps S204 and S205 may be omitted. In this case, the second object KO2 is used over the entire length of the virtual lane KL for the virtual object KO that may hide most of the first object KO1 behind.
上述した第2の形態においては、シーケンス処理部15が図14の処理を実行することにより、本発明の案内手段の一例として機能する。また、シーケンス処理部15の3次元空間構築部15aに設けられたオブジェクトタイプ判別部15dが図18のステップS202〜S206の処理を実行することにより、本発明の判別手段の一例として機能し、オブジェクト選択配置部15eが図18のステップS207又はS208の処理を実行することにより、本発明の選択制御手段の一例として機能する。
In the second embodiment described above, the
(第3の形態)
次に、本発明の第3の形態について説明する。なお、第3の形態は、上述した第1の形態における第1オブジェクトKO1及びKO2の使い分けに関する判別の条件を変更したものである。したがって、以下では、第1の形態との相違点を中心として説明し、共通点については第1の形態の説明をそのまま流用する。
(Third form)
Next, a third embodiment of the present invention will be described. Note that the third form is obtained by changing the determination conditions regarding the proper use of the first objects KO1 and KO2 in the first form described above. Therefore, in the following, the description will focus on the differences from the first embodiment, and the description of the first embodiment will be used as it is for the common points.
図19は、第3の形態で用いられるシーケンスデータ28を示している。図13との対比から明らかなように、本形態で用いられるべきシーケンスデータ28は、仮想オブジェクトKOの種類を指定する情報に代えて、ユーザに要求する操作の種類を指定する情報(以下、操作種類情報と呼ぶ。)が各レコードにて指定されている。すなわち、本形態では、入力装置4として設けられるドラムが、これを叩く強さを検出する機能を備えていることを前提とし、ユーザに対してどのドラムをどの時期に叩くか、の指示に加えて、どの程度の強さで叩くべきかを操作の種類としてさらに指定するものとされている。以下では、簡単のために、ドラムを叩く操作の種類として、ドラムを通常の強さで叩く通常操作と、通常操作よりも強い力でドラムを叩く強操作とが存在するものとして説明を続ける。
FIG. 19 shows
図19に示すシーケンスデータ28の各レコードにおいては、操作種類情報として、ユーザに要求する操作が通常操作の場合には“act_typ 1”が、強操作の場合には“act_typ 2”がそれぞれ記述される。例えば、“01,4,000,drum 1”のレコードにて指定される操作は通常操作であり、“01,4,024,drum 2”のレコードにて指定される操作は強操作である。一方、シーケンス処理部15の3次元空間構築部15aは、図15の仮想オブジェクト配置処理に代えて図20の仮想オブジェクト配置処理を実行することにより、仮想オブジェクトKOの使い分けを実現する。
In each record of the
図20の仮想オブジェクト配置処理において、3次元空間構築部15aは、まずステップS301にて、図14のステップS2で取得されたシーケンスデータ28から処理対象の一つのレコードを操作時期の早い方が優先されるようにして一つ選択する。この処理は図15のステップS101と同様である。続くステップS302において、3次元空間構築部15aは、処理対象のレコードに対して通常操作が指定されているか否かを操作種類情報に従って判別する。通常操作が指定されている場合、3次元空間構築部15aはステップS303に進み、対象レコードに対応する仮想オブジェクトKOとして、第1オブジェクトKO1をそのレコードに対応する仮想オブジェクトKOが配置されるべき座標に配置する。その座標は図14のステップS3にて演算された座標である。一方、ステップS302にて通常操作が指定されていない場合(つまり、強操作が指定されている場合)、3次元空間構築部15aはステップS304に進み、対象レコードに対応する仮想オブジェクトKOとして、第2オブジェクトKO2をそのレコードに対応する仮想オブジェクトKOが配置されるべき座標に配置する。ステップS303又はS304にて仮想オブジェクトKOを配置した後、3次元空間構築部15aはステップS305に進み、図14のステップS2で取得したシーケンスデータ28に含まれている全てのレコードがステップS301〜S304にて処理されたか否かを判別する。そして、3次元空間構築部15aは、未処理のレコードがあればステップS301に戻り、全てのレコードが処理されていれば図15の処理を終える。なお、図20の処理において、ステップS302の処理は3次元空間構築部15aのオブジェクトタイプ判別部15dが担当し、ステップS303及びS304の処理はオブジェクト選択配置部15eが担当する。
In the virtual object placement process of FIG. 20, the three-dimensional
なお、第3の形態においては、ドラムを叩く強さが指定されるため、ゲーム制御部11の操作評価部16は、ユーザがドラムを叩いた強さを入力装置4から取得し、シーケンスデータ28に指定された強さと比較してユーザの操作を評価する必要がある。そのためには、例えば図16に示した操作評価処理において、操作の強弱とシーケンスデータ28にて指定された操作種類との一致度を考慮してステップS15で評価を決定すればよい。強さの一致度が高い場合には評価を高く、一致度が低い場合には評価を低くし、あるいは指示された操作がなされなかったものとして評価すればよい。また、強操作が適切に行なわれた場合には、通常操作が適切に行なわれた場合と比較して、ユーザが獲得するスコアが増加する、といったように、操作の適否の判別とその判別結果に対してユーザに与えられる評価値との対応関係を操作の種類に応じて変化させてもよい。
In the third embodiment, since the strength of hitting the drum is specified, the
以上に説明したように、第3の形態においては、シーケンスデータ28にて指定されている操作の種類(この場合は操作の強弱)に応じて、第1オブジェクトKO1と第2オブジェクトKO2とが使い分けられる。したがって、互いに異なる操作を指示する複数の仮想オブジェクトKOが同一の仮想レーンKL上に比較的狭い時間間隔で並べられ、かつ観察方向θが比較的大きい領域RU、RLにそれらの仮想オブジェクトKOが位置する状況でも、各仮想オブジェクトKOの視認性を適度に確保することができる。これにより、ユーザは指示される操作の種類を容易かつ的確に判別できるようになる。 As described above, in the third embodiment, the first object KO1 and the second object KO2 are selectively used according to the type of operation specified in the sequence data 28 (in this case, the strength of the operation). It is done. Therefore, a plurality of virtual objects KO instructing different operations are arranged on the same virtual lane KL at a relatively narrow time interval, and the virtual objects KO are positioned in the regions RU and RL where the observation direction θ is relatively large. Even in such a situation, the visibility of each virtual object KO can be appropriately secured. As a result, the user can easily and accurately determine the type of operation instructed.
上述した第3の形態においては、シーケンス処理部15が図14の処理を実行することにより、本発明の案内手段の一例として機能する。また、シーケンス処理部15の3次元空間構築部15aに設けられたオブジェクトタイプ判別部15dが図20のステップS302の処理を実行することにより、本発明の判別手段の一例として機能し、オブジェクト選択配置部15eが図20のステップS303又はS304の処理を実行することにより、本発明の選択制御手段の一例として機能する。また、シーケンスデータ28における操作種類情報は、本発明における描画判別情報の一例として機能する。
In the 3rd form mentioned above, when the
本発明は上述の形態に限定されず、適宜の形態にて実施することができる。以下、上記の形態に対する各種の変形例についてさらに説明する。第1の形態及び第3の形態では、シーケンスデータ28に記述された描画判別情報としてのオブジェクト指定情報、又は操作種類情報に基づいて第1オブジェクトKO1又は第2オブジェクトKO2のいずれを使用すべきかを一律に判別し、その一方、第2の形態ではシーケンスデータ28にそのような描画判別情報を含めることなく、シーケンスデータ28に基づいて算出される仮想オブジェクトKOの時間間隔、観察方向θに従って第1オブジェクトKO1又は第2オブジェクトKO2のいずれを使用すべきかを判別したが、これらの形態は適宜組み合わされてもよい。
This invention is not limited to the above-mentioned form, It can implement with a suitable form. Hereinafter, various modifications to the above embodiment will be further described. In the first form and the third form, which of the first object KO1 and the second object KO2 should be used based on the object designation information as the drawing discrimination information described in the
例えば、第1の形態に係る図15の処理、又は第3の形態に係る図20の処理において、図18のステップS204及びS205の処理を追加することにより、第2オブジェクトKO2が指定され、あるいは強操作が指定されたレコードであっても、その操作時期に対応する仮想オブジェクトKOが仮想レーンKL上の所定の領域(一例として下端領域RL)に達した場合に限って、第2オブジェクトKO2が選択されるものとしてもよい。あるいは、第1の形態におけるオブジェクト指定情報と、第3の形態における操作種類情報とをシーケンスデータ28の各レコードに含めるものとし、特定種類の操作(一例として強操作)を指示する仮想オブジェクトKOであって、かつその前又は後に続く仮想オブジェクトKOとの時間間隔から見て、第2オブジェクトKO2にて描画されるべきと判断されるレコードのみに第2オブジェクトKO2が指定されるようにオブジェクト指定情報が記述されてもよい。また、仮想オブジェクトKOの選択に関する判別に際しては、上述した情報以外のさらなる要素が考慮されてもよい。例えば、適切な操作が連続して所定回数以上なされていると評価されたことを条件として、第2オブジェクトKO2の使用が許可されるといった処理が追加されてもよい。
For example, in the process of FIG. 15 according to the first form or the process of FIG. 20 according to the third form, the second object KO2 is designated by adding the processes of steps S204 and S205 of FIG. Even in a record in which a strong operation is designated, only when the virtual object KO corresponding to the operation time reaches a predetermined area on the virtual lane KL (for example, the lower end area RL), the second object KO2 It may be selected. Alternatively, the object designation information in the first form and the operation type information in the third form shall be included in each record of the
上述した各形態では、仮想オブジェクトKOとして第1オブジェクトKO1及び第2オブジェクトKO2の2種類の3次元オブジェクトを例示したが、本発明はこれに限らず、形状又は大きさが互いに異なる3以上の種類の3次元オブジェクトが指示標識の描画のために適宜に使い分けられてもよい。例えば、3つ以上の仮想オブジェクトKOが狭い間隔で連続する場合に、それらの仮想オブジェクトKOとして3種類以上の3次元オブジェクトが使い分けられてもよい。さらに、複数種類の仮想オブジェクトKOは形状によって区別される例に限らず、形状に代えて、又は加えて大きさにより区別されてもよい。さらに、形状又は大きさによる区別に加えて、色、模様といった視覚による識別が可能な要素が仮想オブジェクトKOの種類の区別に利用されてもよい。 In each embodiment described above, two types of three-dimensional objects, ie, the first object KO1 and the second object KO2, are illustrated as the virtual object KO. These three-dimensional objects may be properly used for drawing the indicator signs. For example, when three or more virtual objects KO are continuous at a narrow interval, three or more types of three-dimensional objects may be selectively used as the virtual objects KO. Furthermore, the multiple types of virtual objects KO are not limited to the example distinguished by the shape, but may be distinguished by the size instead of or in addition to the shape. Furthermore, in addition to the distinction by shape or size, elements that can be visually discriminated such as colors and patterns may be used for distinguishing the types of virtual objects KO.
上記の形態では、第2オブジェクトKO2の変形部として第1オブジェクトKO1の外周よりも内側に後退する凹部Pr、及び第1オブジェクトKO1の外周よりも外側に突出する凸部Ppを交互に設けたが、本発明はそれに限らない。例えば、第2オブジェクトKO2の外径を第1オブジェクトKO1の外径と一致させ、凹部Prのみを第2オブジェクトKO2の外周に設けてもよい。反対に、第2オブジェクトKO2の最小径を第1オブジェクトKO1の外径と一致させ、凸部Ppのみを第2オブジェクトKO2の外周に設けてもよい。さらに、上記の形態では、第2オブジェクトKO2の凹部Prによって背後の第1オブジェクトKO1の一部を露出させることにより背後の仮想オブジェクトKOの視認性を高めるようにしたが、反対に、ユーザに対して意図的に見えにくく設定したい仮想オブジェクトKOを設ける場合には、視点からみてその仮想オブジェクトKOの手前に位置する仮想オブジェクトKOを拡大し、それにより背後の仮想オブジェクトKOの視認性を敢えて低下させるようにしてもよい。 In the above embodiment, as the deforming portion of the second object KO2, the concave portion Pr that retreats inward from the outer periphery of the first object KO1 and the convex portion Pp that protrudes outward from the outer periphery of the first object KO1 are provided alternately. The present invention is not limited to this. For example, the outer diameter of the second object KO2 may be matched with the outer diameter of the first object KO1, and only the concave portion Pr may be provided on the outer periphery of the second object KO2. On the contrary, the minimum diameter of the second object KO2 may be matched with the outer diameter of the first object KO1, and only the convex portion Pp may be provided on the outer periphery of the second object KO2. Furthermore, in the above embodiment, the visibility of the virtual object KO behind the first object KO1 is improved by exposing a part of the first object KO1 behind the concave portion Pr of the second object KO2. When a virtual object KO that is intended to be difficult to see is provided, the virtual object KO positioned in front of the virtual object KO is enlarged from the viewpoint, thereby degrading the visibility of the virtual object KO behind it. You may do it.
仮想3次元空間に設定されるべき所定の経路は、上述したように直線状であってもよいし、少なくとも一部に湾曲部を有する形状であってもよい。いずれの経路であっても、視点からの仮想オブジェクトKOの観察方向θが変化し、それにより仮想オブジェクトKO同士の重なり合いの程度が変化するため、本発明を適用して仮想オブジェクトKOの視認性の改善等を図ることができる。なあ、湾曲部を有する経路としては、単一の湾曲部を有する経路に限らず、例えば、複数の湾曲部を有する波状の経路、円形の経路等、各種の形状の経路が採用されてもよい。また、湾曲部は仮想カメラKCに対する奥行き方向に配置される形態にも限定されない。湾曲部は、例えば、仮想カメラKCに対して交差する方向に湾曲するように配置されてもよい。仮想オブジェクトKOの移動方向は下向きに限定されず、上向きであってもよい。さらに、経路は上下方向に延びる例に限らず、左右方向あるいは対角線方向に延ばされてもよい。 The predetermined path to be set in the virtual three-dimensional space may be linear as described above, or may have a shape having a curved portion at least partially. Regardless of the path, the observation direction θ of the virtual object KO from the viewpoint changes, thereby changing the degree of overlap between the virtual objects KO. Therefore, the visibility of the virtual object KO can be improved by applying the present invention. Improvements can be made. The path having the curved portion is not limited to the path having a single curved portion, and various shapes of paths such as a wavy path having a plurality of curved portions and a circular path may be employed. . Further, the bending portion is not limited to the form arranged in the depth direction with respect to the virtual camera KC. For example, the bending portion may be arranged to bend in a direction intersecting with the virtual camera KC. The moving direction of the virtual object KO is not limited to downward, and may be upward. Furthermore, the route is not limited to the example extending in the up-down direction, and may be extended in the left-right direction or the diagonal direction.
本発明において、指示標識の描画に用いられるべき3次元オブジェクトは、平板状の形状に限定されない。経路に沿った移動方向において相対的に薄く、かつ移動方向の前方及び後方のそれぞれに表面及び裏面が向けられた概略偏平な形状であれば、3次元オブジェクトの形状は適宜に変更されてよい。例えば、移動方向における厚さが中心部で大きく、外周に向かうほど徐々に減少する形状、移動方向における厚さが中心部で小さく、外周に向かうほど徐々に増加する形状等が適宜に採用されてよい。さらに、本発明で選択的に用いられるべき複数種類の3次元オブジェクトの群は、第1オブジェクトKO1のように外周が円形の3次元オブジェクトを含むことを必ずしも要しない。互いに異なる多角形状の複数種類の3次元オブジェクトが選択的に用いられてもよい。 In the present invention, the three-dimensional object to be used for drawing the indicator sign is not limited to a flat plate shape. The shape of the three-dimensional object may be changed as appropriate as long as it is relatively thin in the moving direction along the path and has a substantially flat shape with the front and back surfaces directed forward and backward in the moving direction, respectively. For example, a shape in which the thickness in the moving direction is large in the central part and gradually decreases toward the outer periphery, and a shape in which the thickness in the moving direction is small in the central part and gradually increases toward the outer periphery is appropriately adopted. Good. Further, the group of a plurality of types of three-dimensional objects to be selectively used in the present invention does not necessarily include a three-dimensional object having a circular outer periphery like the first object KO1. A plurality of types of three-dimensional objects having different polygonal shapes may be selectively used.
本発明は、現実空間画像31とAR画像32とを重ね合わせて表示する形態に限らない。例えば、ゲーム画面30の背景に、現実空間画像31に代えて、予め用意された背景画像が表示されてもよい。その他、ゲーム画面の構成は、指示標識としての複数の3次元オブジェクトが、各所作が行なわれる時期の時間間隔に従って並べられた状態で仮想3次元空間内の所定の経路上を移動する様子を所定の視点から観察した画像がユーザに提示される限り、ユーザに対して表示されるゲーム画面の構成は適宜変更されてよい。本発明は、指示標識を基準標識に向かって移動させることにより、操作が行なわれるべきゲーム中の時期をユーザに案内する形態に限定されない。例えば、基準標識が省略され、複数の指示標識が適宜の時間間隔を保ちながら所定の経路に沿って移動する様子がユーザに提示され、ユーザが指示標識の順序及び時間間隔に従って所定の所作を行なっているか否かを評価するように構成されたゲーム機でも本発明は適用可能である。すなわち、指示標識によって指示されるべき所作の「時期」は、楽曲の演奏開示時点といったゲーム上の所定の基準時からの経過時間として定義される例に限らず、一つ前の所作からの経過時間といった相対的な時期として定義されてもよい。
The present invention is not limited to a form in which the
本発明において、入力装置はドラム型のコントローラに限定されることなく適宜の選択が可能である。例えば、入力装置として、ギター型コントローラ等、各種楽器を模したコントローラが採用されてもよい。あるいは、単に方向指定や押しボタンによって形成される入力装置が採用されてもよい。 In the present invention, the input device is not limited to a drum-type controller and can be appropriately selected. For example, a controller imitating various musical instruments such as a guitar-type controller may be employed as the input device. Alternatively, an input device formed simply by direction designation or a push button may be employed.
本発明に係るゲーム機が提供するゲームは、上述した音楽ゲームに限定されず、適宜の変更が可能である。例えば、所定の時期に所定の位置に旗をあげる所作を要求する旗揚げゲーム等、各種のゲームがゲーム機1によって提供されてよい。さらに、本発明のゲーム機は、商業施設に設置される業務用ゲーム機、家庭用の据置型ゲーム機、携帯型のゲーム機、ネットワークを利用してゲームを提供するゲーム機といった適宜の形態で実現されてよい。サーバとクライアントといった複数のコンピュータを協働させることにより、論理的に構成されるゲーム機に対しても本発明は適用可能である。
The game provided by the game machine according to the present invention is not limited to the music game described above, and can be appropriately changed. For example, the
上述した実施の形態及び変形例のそれぞれから導き出される本発明の各種の態様を以下に記載する。なお、以下の説明では、本発明の各態様の理解を容易にするために添付図面の参照符号を括弧書にて付記するが、それにより本発明が図示の形態に限定されるものではない。 Various aspects of the present invention derived from each of the above-described embodiments and modifications will be described below. In the following description, in order to facilitate understanding of each aspect of the present invention, reference numerals in the accompanying drawings are added in parentheses, but the present invention is not limited to the illustrated embodiments.
本発明の一態様に係るゲーム機(1)は、ゲーム中の互いに異なる時期にユーザが行うべき複数の所作のそれぞれを該ユーザに指示する指示標識(OI)に対応する複数の3次元オブジェクト(KO)が、各所作の行われるべき時期の時間間隔に従って並べられた状態で仮想3次元空間(GW)の所定の経路(KL)に沿って移動する様子を、前記仮想3次元空間内の所定の視点から観察した画像(32)を生成してユーザに提示することにより、該ユーザに各所作を案内する案内手段(15、S1〜S7)を備えたゲーム機(1)において、前記案内手段は、前記指示標識が、形状及び大きさの少なくとも一方が互いに異なる複数種類の3次元オブジェクト(KO1、KO2)のいずれにより描画されるべきかを所定の条件に従って判別する判別手段(15d、S102;S202〜S206;S302)と、各指示標識が前記複数種類の3次元オブジェクトから前記判別手段の判別結果に従って選択された一種類の3次元オブジェクトにより描画されるように前記仮想3次元空間内に配置されるべき3次元オブジェクトの選択を制御する選択制御手段(15d、S103、S104;S207、S208;S303、S304)と、を備えたものである。 A game machine (1) according to one aspect of the present invention includes a plurality of three-dimensional objects (OI) corresponding to instruction signs (OI) that indicate a plurality of actions to be performed by a user at different times during the game. KO) moves along a predetermined path (KL) in the virtual three-dimensional space (GW) in a state arranged according to the time interval of the time when each operation is to be performed. In the game machine (1) provided with the guide means (15, S1 to S7) for guiding each work to the user by generating the image (32) observed from the viewpoint and presenting it to the user, the guide means Determines which of the plurality of types of three-dimensional objects (KO1, KO2) in which at least one of the shape and the size is different from each other according to a predetermined condition. The discriminating means (15d, S102; S202 to S206; S302), and the indicator signs are drawn by one type of three-dimensional object selected according to the discrimination result of the discriminating means from the plurality of types of three-dimensional objects. Selection control means (15d, S103, S104; S207, S208; S303, S304) for controlling selection of a three-dimensional object to be arranged in the virtual three-dimensional space.
また、本発明の一態様に係るゲーム機の制御方法は、ゲーム中の互いに異なる時期にユーザが行うべき複数の所作のそれぞれを該ユーザに指示する指示標識(OI)に対応する複数の3次元オブジェクト(KO)が、各所作の行われるべき時期の時間間隔に従って並べられた状態で仮想3次元空間(GW)の所定の経路(KL)に沿って移動する様子を、前記仮想3次元空間内の所定の視点から観察した画像(32)を生成してユーザに提示することにより、該ユーザに各所作を案内する手順(S1〜S7)を備えたゲーム機の制御方法であって、前記指示標識が、形状及び大きさの少なくとも一方が互いに異なる複数種類の3次元オブジェクト(KO1、KO2)のいずれにより描画されるべきかを所定の条件に従って判別する手順(S102;S202〜S206;S302)と、各指示標識が前記複数種類の3次元オブジェクトから前記判別する手順における判別結果に従って選択された一種類の3次元オブジェクトにより描画されるように前記仮想3次元空間内に配置されるべき3次元オブジェクトの選択を制御する手順(S103、S104;S207、S208;S303、S304)と、をさらに含んでいるものである。 In addition, the game machine control method according to one aspect of the present invention includes a plurality of three-dimensional corresponding to an instruction sign (OI) that instructs each of a plurality of actions to be performed by the user at different times during the game. A state in which the object (KO) moves along a predetermined path (KL) in the virtual three-dimensional space (GW) in a state where the objects (KO) are arranged according to the time interval of each operation should be shown in the virtual three-dimensional space. A method for controlling a game machine comprising a procedure (S1 to S7) for guiding each operation to the user by generating an image (32) observed from a predetermined viewpoint and presenting the image to the user. A procedure for discriminating according to a predetermined condition which of a plurality of types of three-dimensional objects (KO1, KO2) having at least one of shape and size different from each other (S1) 2; S202 to S206; S302) and the virtual three-dimensional space so that each indicator is drawn by one type of three-dimensional object selected according to the determination result in the determination procedure from the plurality of types of three-dimensional objects. And a procedure (S103, S104; S207, S208; S303, S304) for controlling the selection of the three-dimensional object to be arranged in the screen.
さらに、本発明の一態様に係るコンピュータプログラム(23)は、ゲーム中の互いに異なる時期にユーザが行うべき複数の所作のそれぞれを該ユーザに指示する指示標識(OI)に対応する複数の3次元オブジェクト(KO)が、各所作の行われるべき時期の時間間隔に従って並べられた状態で仮想3次元空間(GW)の所定の経路(KL)に沿って移動する様子を、前記仮想3次元空間内の所定の視点から観察した画像を生成してユーザに提示することにより、該ユーザに各所作を案内する案内手段(15、S1〜S7)としてゲーム機のコンピュータ(2)を機能させるコンピュータプログラムであって、前記指示標識が、形状及び大きさの少なくとも一方が互いに異なる複数種類の3次元オブジェクト(KO1、KO2)のいずれにより描画されるべきかを所定の条件に従って判別する判別手段(15d、S102;S202〜S206;S302)、及び各指示標識が前記複数種類の3次元オブジェクトから前記判別手段の判別結果に従って選択された一種類の3次元オブジェクトにより描画されるように前記仮想3次元空間内に配置されるべき3次元オブジェクトの選択を制御する選択制御手段(15d、S103、S104;S207、S208;S303、S304)、として前記案内手段がさらに機能するように構成されているものである。 Furthermore, the computer program (23) according to one aspect of the present invention includes a plurality of three-dimensional corresponding to an instruction mark (OI) that instructs each of a plurality of actions to be performed by the user at different times during the game. A state in which the object (KO) moves along a predetermined path (KL) in the virtual three-dimensional space (GW) in a state where the objects (KO) are arranged according to the time interval of each operation should be shown in the virtual three-dimensional space. A computer program that causes a computer (2) of a game machine to function as guide means (15, S1 to S7) that guides each user to an action by generating an image observed from a predetermined viewpoint and presenting the image to the user. And the indication sign is attached to any of a plurality of types of three-dimensional objects (KO1, KO2) having at least one of shape and size different from each other. Discriminating means (15d, S102; S202 to S206; S302) for discriminating whether or not to be drawn according to a predetermined condition, and each indicator is selected from the plurality of types of three-dimensional objects according to the discrimination result of the discriminating means Selection control means (15d, S103, S104; S207, S208; S303, S304) for controlling selection of a three-dimensional object to be arranged in the virtual three-dimensional space so as to be drawn by one type of three-dimensional object; As described above, the guiding means is further configured to function.
本発明の上記態様によれば、複数種類の3次元オブジェクトを所定の条件に従って適宜使い分けつつ各指示標識を描画することができる。複数種類の3次元オブジェクトのそれぞれは、形状又は大きさが互いに異なっているため、複数の3次元オブジェクトが許容限度を超えて重なり合った状態で観察されるといったように、3次元オブジェクトを観察した場合に特有の状態が生じる場合において、視点から見て手前側の3次元オブジェクトと、背後の3次元オブジェクトとで種類を異なるものとすることにより、それらの3次元オブジェクトを同一のものとした場合と比較して背後の3次元オブジェクトの視認性を適度に確保し、あるいは、背後の3次元オブジェクトの視認性を敢えて低下させることができる。これにより、3次元オブジェクトの見え方の変化を考慮して、指示標識の描画をゲーム制作者の意図に沿うように適切に制御することができる。 According to the above aspect of the present invention, each indication sign can be drawn while properly using a plurality of types of three-dimensional objects according to predetermined conditions. Each type of 3D object is different in shape or size, so when you observe a 3D object such that multiple 3D objects are observed in an overlapping state beyond the allowable limit When a state peculiar to the situation occurs, the type of the three-dimensional object on the near side and the three-dimensional object on the near side as viewed from the viewpoint are made different so that the three-dimensional objects are the same. In comparison, the visibility of the back three-dimensional object can be appropriately secured, or the visibility of the back three-dimensional object can be deliberately reduced. Thereby, it is possible to appropriately control the drawing of the instruction sign so as to follow the intention of the game creator in consideration of the change in the appearance of the three-dimensional object.
本発明の一態様においては、前記複数種類の3次元オブジェクトのうちいずれか一種類の3次元オブジェクト(KO1)を基準としたときに、他の少なくとも一種類の3次元オブジェクト(KO2)は、前記基準となる3次元オブジェクトの周縁の少なくとも一部を内側又は外側に変形させた変形部(Pr、Pp)が前記視点から観察できる位置に設けられた形状を有しているものとしてもよい。この場合、内側に変形させた変形部を有する3次元オブジェクトを、基準となる3次元オブジェクトの手前に配置すればその変形部を介して背後の3次元オブジェクトが見通せるようになり、背後の3次元オブジェクトの視認性が改善される。一方、外側に変形させた変形部を有する3次元オブジェクトを基準となる3次元オブジェクトの背後に配置すればその変形部の突出により背後の3次元オブジェクトの視認性が改善される。一方、内側に変形させた変形部を有する3次元オブジェクトを、基準となる3次元オブジェクトの背後に配置し、あるいは、外側に変形させた変形部を有する3次元オブジェクトを基準となる3次元オブジェクトの手前に配置すれば、背後の3次元オブジェクトがより見えにくくなり、その視認性を意図的に低下させることができる。 In one aspect of the present invention, when any one type of three-dimensional object (KO1) is used as a reference among the plurality of types of three-dimensional objects, the at least one other type of three-dimensional object (KO2) The deformed portion (Pr, Pp) obtained by deforming at least a part of the periphery of the reference three-dimensional object inward or outward may have a shape provided at a position where it can be observed from the viewpoint. In this case, if a 3D object having a deformed portion deformed inside is placed in front of the reference 3D object, the back 3D object can be seen through the deformed portion, and the 3D object behind The visibility of the object is improved. On the other hand, if a three-dimensional object having a deformed portion deformed outward is placed behind the reference three-dimensional object, the visibility of the three-dimensional object behind is improved by the protrusion of the deformed portion. On the other hand, a three-dimensional object having a deformed portion deformed inward is placed behind the reference three-dimensional object, or a three-dimensional object having a deformed portion deformed outward is used as a reference three-dimensional object. If it is arranged in front, the three-dimensional object behind becomes more difficult to see, and the visibility can be intentionally reduced.
本発明の一態様において、前記複数種類の3次元オブジェクトのそれぞれは、前記経路に沿った移動方向において相対的に薄く、かつ前記移動方向の前方及び後方のそれぞれに表面(KOs)及び裏面(KOo)が向けられた概略偏平な形状を有しているものとしてもよい。概略偏平な形状の3次元オブジェクトのそれぞれを比較的狭い間隔で配置してそれらを斜め方向から観察したときには、3次元オブジェクト同士の重なりが顕著となるため、本発明の作用効果をより確実かつ効果的に発揮させることができる。 In one aspect of the present invention, each of the plurality of types of three-dimensional objects is relatively thin in the movement direction along the path, and has a front surface (KOs) and a back surface (KOo) at the front and rear in the movement direction, respectively. ) May be a substantially flat shape. When the three-dimensional objects having a substantially flat shape are arranged at a relatively narrow interval and observed from an oblique direction, the three-dimensional objects overlap each other, so that the operational effect of the present invention is more sure and effective. Can be demonstrated.
本発明の一態様において、前記案内手段は、前記複数の所作のそれぞれが行われるべき時期を記述した指示データ(28)に基づいて各指示標識を描画するように構成され、前記判別手段は、前記指示データに基づいて、各指示標識が前記複数種類の3次元オブジェクトのいずれにより描画されるべきかを決定することにより、前記所定の条件に従った判別を実行するものとしてもよい。指示データには少なくとも各所作が行なわれるべき時期が記述されている。したがって、指示データに基づいて各3次元オブジェクトの時間間隔を特定すれば、その結果に従って複数種類の3次元オブジェクトを適切に使い分けることができる。 In one aspect of the present invention, the guide means is configured to draw each indication sign based on instruction data (28) describing a time when each of the plurality of actions should be performed, and the determination means includes: The determination according to the predetermined condition may be executed by determining which of the plurality of types of three-dimensional objects is to be used to draw each instruction marker based on the instruction data. The instruction data describes at least the time when each operation should be performed. Therefore, if the time interval of each three-dimensional object is specified based on the instruction data, a plurality of types of three-dimensional objects can be properly used according to the result.
上記の態様において、前記指示データには、各指示標識が、前記複数種類の3次元オブジェクトのいずれにより描画されるべきかを判別するための描画判別情報が前記時期を記述した情報とは区別された情報として含まれ、前記判別手段は、前記描画判別情報に基づいて、各指示標識が、前記複数種類の3次元オブジェクトのいずれにより描画されるべきかを判別するものとしてもよい。これによれば、指示データに含まれている描画判別情報を利用して容易かつ確実に3次元オブジェクトの種類を決定することができる。 In the above aspect, in the indication data, the drawing discrimination information for discriminating which of the plurality of types of three-dimensional objects is to be used for drawing each indication marker is distinguished from the information describing the time. The discriminating means may discriminate which of the plurality of types of three-dimensional objects should be used for drawing each indication marker based on the drawing discriminating information. According to this, the type of the three-dimensional object can be easily and reliably determined using the drawing determination information included in the instruction data.
さらに、前記描画判別情報として、各指示標識が、前記複数種類の3次元オブジェクトのいずれにより描画されるべきかを指定するオブジェクト指定情報(一例として図13のobj 1、obj 2)が前記指示データに含まれ、前記判別手段は、前記オブジェクト指定情報に従って各指示標識が前記複数種類の3次元オブジェクトのいずれにより描画されるべきかを判別するものとしてもよい。これによれば、各所作に対応する指示標識の描画において、どの種類の3次元オブジェクトが用いられるべきか、を予め指示データにて指定することができるので、判別手段における判別をより容易かつ確実に実現することができる。
Furthermore, as the drawing determination information, object designation information (for example,
一方、前記描画判別情報として、各指示標識にて指示されるべき所作の種類を指定する所作種類情報(一例として図19のact_typ 1、act_typ2)が前記指示データに含まれ、前記判別手段は、前記所作種類情報にて指定された所作の種類に従って各指示標識が前記複数種類の3次元オブジェクトのいずれにより描画されるべきかを判別するものとしてもよい。これによれば、所作の種類に応じて複数種類の3次元オブジェクトを使い分けることができるので、3次元オブジェクトが重なり合って観察される場合でもユーザに所作の種類を容易に判別させることができる。あるいは、特定種類の所作に対応する指示標識が意図的に見えにくくなるように指示標識の描画を制御することも可能である。
On the other hand, as the drawing determination information, operation type information (
本発明の一態様において、前記所定の条件は、前記経路上で互いに隣接する3次元オブジェクトのそれぞれに対応した所作が行われるべき時期の時間間隔と関連付けて設定されてもよい。これによれば、複数種類の3次元オブジェクトをそれらの経路上における間隔の広狭に応じて適切に使い分けることが可能となる。 In one aspect of the present invention, the predetermined condition may be set in association with a time interval at which an operation corresponding to each of three-dimensional objects adjacent to each other on the route is to be performed. According to this, it is possible to properly use a plurality of types of three-dimensional objects in accordance with the width of the interval on the route.
上記の態様においては、前記隣接する3次元オブジェクトのそれぞれに対応する所作が行なわれるべき時期の時間間隔が所定値未満となる場合に、該隣接する3次元オブジェクトの種類が互いに相違するように前記所定の条件が設定されてもよい。これによれば、3次元オブジェクトが比較的狭い間隔で隣接する場合において、それらの種類の相違を利用して背後の3次元オブジェクトの視認性を改善し、あるいは背後の3次元オブジェクトの視認性を意図的に低下させることができる。 In the above aspect, when the time interval at which the operation corresponding to each of the adjacent three-dimensional objects should be performed is less than a predetermined value, the types of the adjacent three-dimensional objects are different from each other. A predetermined condition may be set. According to this, when the three-dimensional objects are adjacent to each other at a relatively small interval, the visibility of the back three-dimensional object is improved by utilizing the difference between the types, or the visibility of the back three-dimensional object is increased. Can be deliberately lowered.
さらに、前記所定の条件は、前記3次元オブジェクトが前記視点から見える方向(一例として図5のθで定義される方向)とさらに関連付けて設定されてもよい。これによれば、3次元オブジェクトが見える方向を参照することにより、3次元オブジェクト同士の重なりの程度を特定し、その程度が許容限度を超える場合に背後の3次元オブジェクトの視認性が変化するように3次元オブジェクトの選択を制御することができる。 Furthermore, the predetermined condition may be set in further association with a direction in which the three-dimensional object can be seen from the viewpoint (for example, a direction defined by θ in FIG. 5). According to this, by referring to the direction in which the three-dimensional object can be seen, the degree of overlap of the three-dimensional objects is specified, and when the degree exceeds the allowable limit, the visibility of the background three-dimensional object changes. The selection of the three-dimensional object can be controlled.
上記の態様においては、前記隣接する3次元オブジェクトのそれぞれを観察する際の視野の中心線の方向(一例として図5の撮影方向SD)と、前記隣接する3次元オブジェクトのいずれか一方が見える方向とがなす角度(図5のθ)が所定値以上となる場合であって、かつ前記隣接する3次元オブジェクトのそれぞれに対応した所作が行なわれるべき時期の時間間隔が前記所定値未満となる場合において、該隣接する3次元オブジェクトの種類が互いに相違するように前記所定の条件が設定されてもよい。隣接する3次元オブジェクトの間隔が比較的狭く、かつそれらの3次元オブジェクトの一方が見える方向が視野の中心線の方向に対して比較的大きくずれている場合には、3次元オブジェクト同士の重なりが顕著となる。このような場合に、3次元オブジェクトの種類の選択を変化させれば、本発明の作用効果をより確実かつ効果的に発揮させることができる。 In the above aspect, the direction of the center line of the visual field when observing each of the adjacent three-dimensional objects (for example, the shooting direction SD in FIG. 5) and the direction in which one of the adjacent three-dimensional objects can be seen. When the angle formed by (θ in FIG. 5) is equal to or greater than a predetermined value, and the time interval of the time when the operation corresponding to each of the adjacent three-dimensional objects is to be performed is less than the predetermined value. The predetermined condition may be set so that the types of the adjacent three-dimensional objects are different from each other. When the interval between adjacent three-dimensional objects is relatively narrow and the direction in which one of the three-dimensional objects is visible is relatively large with respect to the direction of the center line of the field of view, the three-dimensional objects overlap. Become prominent. In such a case, if the selection of the type of the three-dimensional object is changed, the operational effects of the present invention can be exhibited more reliably and effectively.
なお、本発明の一態様に係るコンピュータプログラムは、記憶媒体に記憶された状態で提供されてもよい。この記憶媒体を用いれば、例えばコンピュータに本発明に係るコンピュータプログラムをインストールして実行することにより、そのコンピュータを利用して本発明のゲームシステムを実現することができる。コンピュータプログラムを記憶した記憶媒体は、CDROM等の非一過性の記憶媒体であってもよい。 Note that the computer program according to one embodiment of the present invention may be provided in a state of being stored in a storage medium. By using this storage medium, for example, by installing and executing the computer program according to the present invention in a computer, the game system of the present invention can be realized using the computer. The storage medium storing the computer program may be a non-transitory storage medium such as a CDROM.
1 ゲーム機
2 制御ユニット(コンピュータ)
4 入力装置
5 モニタ(表示装置)
7 カメラ(撮影手段)
15 シーケンス処理部(案内手段)
15a 3次元空間構築部
15d オブジェクトタイプ判別部(判別手段)
15e オブジェクト選択配置部(選択制御手段)
28 シーケンスデータ(指示データ)
30 ゲーム画面(案内画面)
OI オブジェクト画像(指示標識)
RI 基準位置画像(基準標識)
GW 仮想3次元空間
KD 仮想ドラム
KO 仮想オブジェクト(3次元オブジェクト)
KO1 第1オブジェクト
KO2 第2オブジェクト
KL 仮想レーン(所定の経路)
Pp 凸部(変形部)
Pr 凹部(変形部)
SD 撮影方向
1
4
7 Camera (photographing means)
15 Sequence processing unit (guidance means)
15a 3D
15e Object selection arrangement part (selection control means)
28 Sequence data (instruction data)
30 Game screen (guidance screen)
OI object image (indicator sign)
RI reference position image (reference sign)
GW Virtual 3D space KD Virtual drum KO Virtual object (3D object)
KO1 First object KO2 Second object KL Virtual lane (predetermined route)
Pp Convex part (deformation part)
Pr recess (deformed part)
SD shooting direction
Claims (13)
前記案内手段は、
前記指示標識が、形状及び大きさの少なくとも一方が互いに異なる複数種類の3次元オブジェクトのいずれにより描画されるべきかを所定の条件に従って判別する判別手段と、
各指示標識が前記複数種類の3次元オブジェクトから前記判別手段の判別結果に従って選択された一種類の3次元オブジェクトにより描画されるように前記仮想3次元空間内に配置されるべき3次元オブジェクトの選択を制御する選択制御手段と、
を備えているゲーム機。 In a state where a plurality of three-dimensional objects corresponding to instruction signs for instructing the user each of the plurality of actions to be performed by the user at different times in the game are arranged according to the time intervals of the times at which the actions should be performed A guide that guides the user to each action by generating an image observed from a predetermined viewpoint in the virtual three-dimensional space and presenting it to the user how it moves along the predetermined route in the virtual three-dimensional space. In a game machine equipped with means,
The guiding means includes
A discriminating means for discriminating, according to a predetermined condition, which of the plurality of types of three-dimensional objects having at least one of a shape and a size different from each other,
Selection of a three-dimensional object to be arranged in the virtual three-dimensional space so that each indicator is drawn by one type of three-dimensional object selected from the plurality of types of three-dimensional objects according to the discrimination result of the discrimination means Selection control means for controlling,
Game machine equipped with.
前記判別手段は、前記指示データに基づいて、各指示標識が前記複数種類の3次元オブジェクトのいずれにより描画されるべきかを決定することにより、前記所定の条件に従った判別を実行する請求項1〜3のいずれか一項に記載のゲーム機。 The guide means is configured to draw each indication sign based on indication data describing a time when each of the plurality of actions should be performed,
The determination means performs determination according to the predetermined condition by determining which of the plurality of types of three-dimensional objects is to be used to indicate each instruction sign based on the instruction data. The game machine as described in any one of 1-3.
前記判別手段は、前記描画判別情報に基づいて、各指示標識が、前記複数種類の3次元オブジェクトのいずれにより描画されるべきかを判別する請求項4に記載のゲーム機。 The indication data includes drawing discrimination information for discriminating which of the plurality of types of three-dimensional objects should be used for drawing each indication marker as information distinguished from information describing the time. ,
The game machine according to claim 4, wherein the determination unit determines which of the plurality of types of three-dimensional objects should be used for drawing each indication mark based on the drawing determination information.
前記判別手段は、前記オブジェクト指定情報に従って各指示標識が前記複数種類の3次元オブジェクトのいずれにより描画されるべきかを判別する請求項5に記載のゲーム機。 As the drawing discriminating information, the instruction data includes object designation information for designating which of the plurality of types of three-dimensional objects is to be used for indicating each indication sign.
The game machine according to claim 5, wherein the determination unit determines which of the plurality of types of three-dimensional objects is to be used for drawing each indication sign according to the object designation information.
前記判別手段は、前記所作種類情報にて指定された所作の種類に従って各指示標識が前記複数種類の3次元オブジェクトのいずれにより描画されるべきかを判別する請求項5に記載のゲーム機。 As the drawing discriminating information, operation type information for specifying the type of operation to be instructed by each instruction sign is included in the instruction data,
The game machine according to claim 5, wherein the determination unit determines which of the plurality of types of three-dimensional objects is to be used to draw each instruction sign according to the type of operation specified by the operation type information.
前記案内する手順には、
前記指示標識が、形状及び大きさの少なくとも一方が互いに異なる複数種類の3次元オブジェクトのいずれにより描画されるべきかを所定の条件に従って判別する手順と、
各指示標識が前記複数種類の3次元オブジェクトから前記判別する手順における判別結果に従って選択された一種類の3次元オブジェクトにより描画されるように前記仮想3次元空間内に配置されるべき3次元オブジェクトの選択を制御する手順と、
がさらに含まれているゲーム機の制御方法。 In a state where a plurality of three-dimensional objects corresponding to instruction signs for instructing the user each of the plurality of actions to be performed by the user at different times in the game are arranged according to the time intervals of the times at which the actions should be performed A procedure for guiding each user to each action by generating an image observed from a predetermined viewpoint in the virtual three-dimensional space and presenting it to the user how to move along the predetermined route in the virtual three-dimensional space. A method for controlling a game machine comprising:
The guiding procedure includes:
A procedure for determining, according to a predetermined condition, which of the plurality of types of three-dimensional objects in which at least one of the shape and the size is different from each other,
A three-dimensional object to be arranged in the virtual three-dimensional space so that each indicator is drawn by one type of three-dimensional object selected according to the determination result in the determination procedure from the plurality of types of three-dimensional objects. A procedure to control the selection;
A game machine control method that further includes:
前記指示標識が、形状及び大きさの少なくとも一方が互いに異なる複数種類の3次元オブジェクトのいずれにより描画されるべきかを所定の条件に従って判別する判別手段、及び、
各指示標識が前記複数種類の3次元オブジェクトから前記判別手段の判別結果に従って選択された一種類の3次元オブジェクトにより描画されるように前記仮想3次元空間内に配置されるべき3次元オブジェクトの選択を制御する選択制御手段、
として前記案内手段がさらに機能するように構成されているコンピュータプログラム。 In a state where a plurality of three-dimensional objects corresponding to instruction signs for instructing the user each of the plurality of actions to be performed by the user at different times in the game are arranged according to the time intervals of the times at which the actions should be performed A guide that guides the user to each action by generating an image observed from a predetermined viewpoint in the virtual three-dimensional space and presenting it to the user how it moves along the predetermined route in the virtual three-dimensional space. A computer program for causing a game machine computer to function as a means,
A discriminating means for discriminating according to a predetermined condition which one of a plurality of types of three-dimensional objects having at least one of shape and size different from each other,
Selection of a three-dimensional object to be arranged in the virtual three-dimensional space so that each indicator is drawn by one type of three-dimensional object selected from the plurality of types of three-dimensional objects according to the discrimination result of the discrimination means Selection control means for controlling,
A computer program configured such that the guiding means further functions as:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013242198A JP6175714B2 (en) | 2013-11-22 | 2013-11-22 | GAME MACHINE, CONTROL METHOD AND COMPUTER PROGRAM USED FOR THE SAME |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013242198A JP6175714B2 (en) | 2013-11-22 | 2013-11-22 | GAME MACHINE, CONTROL METHOD AND COMPUTER PROGRAM USED FOR THE SAME |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015100481A true JP2015100481A (en) | 2015-06-04 |
JP6175714B2 JP6175714B2 (en) | 2017-08-09 |
Family
ID=53376733
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013242198A Active JP6175714B2 (en) | 2013-11-22 | 2013-11-22 | GAME MACHINE, CONTROL METHOD AND COMPUTER PROGRAM USED FOR THE SAME |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6175714B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017115481A1 (en) * | 2015-12-28 | 2017-07-06 | 株式会社コナミデジタルエンタテインメント | Game system, and computer program and server device used in same |
JP2019103677A (en) * | 2017-12-13 | 2019-06-27 | 株式会社セガゲームス | Game machine and game program |
WO2019130374A1 (en) * | 2017-12-25 | 2019-07-04 | ガンホー・オンライン・エンターテイメント株式会社 | Terminal device, system, program and method |
JP7507442B2 (en) | 2021-12-24 | 2024-06-28 | グリー株式会社 | PROGRAM, INFORMATION PROCESSING APPARATUS, AND CONTROL METHOD |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006102080A (en) * | 2004-10-05 | 2006-04-20 | Ims:Kk | Music game apparatus, program and computer readable recording medium |
US20070163427A1 (en) * | 2005-12-19 | 2007-07-19 | Alex Rigopulos | Systems and methods for generating video game content |
JP2012075770A (en) * | 2010-10-05 | 2012-04-19 | Nintendo Co Ltd | Game program, game apparatus, game system and game control method |
JP2012141826A (en) * | 2010-12-29 | 2012-07-26 | Namco Bandai Games Inc | Program, information storage medium, image generation system and server system |
JP5433737B2 (en) * | 2012-07-06 | 2014-03-05 | 株式会社コナミデジタルエンタテインメント | Game machine, control method used therefor, and computer program |
-
2013
- 2013-11-22 JP JP2013242198A patent/JP6175714B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006102080A (en) * | 2004-10-05 | 2006-04-20 | Ims:Kk | Music game apparatus, program and computer readable recording medium |
US20070163427A1 (en) * | 2005-12-19 | 2007-07-19 | Alex Rigopulos | Systems and methods for generating video game content |
JP2012075770A (en) * | 2010-10-05 | 2012-04-19 | Nintendo Co Ltd | Game program, game apparatus, game system and game control method |
JP2012141826A (en) * | 2010-12-29 | 2012-07-26 | Namco Bandai Games Inc | Program, information storage medium, image generation system and server system |
JP5433737B2 (en) * | 2012-07-06 | 2014-03-05 | 株式会社コナミデジタルエンタテインメント | Game machine, control method used therefor, and computer program |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017115481A1 (en) * | 2015-12-28 | 2017-07-06 | 株式会社コナミデジタルエンタテインメント | Game system, and computer program and server device used in same |
JP2017118978A (en) * | 2015-12-28 | 2017-07-06 | 株式会社コナミデジタルエンタテインメント | Game system, and computer program and server device used for the same |
KR20180088855A (en) * | 2015-12-28 | 2018-08-07 | 가부시키가이샤 코나미 데지타루 엔타테인멘토 | Game systems, computer programs and server devices used therein |
KR102032242B1 (en) * | 2015-12-28 | 2019-10-16 | 가부시키가이샤 코나미 데지타루 엔타테인멘토 | Game systems, computer programs and server devices used in it |
JP2019103677A (en) * | 2017-12-13 | 2019-06-27 | 株式会社セガゲームス | Game machine and game program |
JP7043821B2 (en) | 2017-12-13 | 2022-03-30 | 株式会社セガ | Game consoles and game programs |
WO2019130374A1 (en) * | 2017-12-25 | 2019-07-04 | ガンホー・オンライン・エンターテイメント株式会社 | Terminal device, system, program and method |
JPWO2019130374A1 (en) * | 2017-12-25 | 2019-12-26 | ガンホー・オンライン・エンターテイメント株式会社 | Terminal device, system, program and method |
US10792567B2 (en) | 2017-12-25 | 2020-10-06 | GungHo Online Entertainment, Inc. | Terminal device, system, program, and method |
JP7507442B2 (en) | 2021-12-24 | 2024-06-28 | グリー株式会社 | PROGRAM, INFORMATION PROCESSING APPARATUS, AND CONTROL METHOD |
Also Published As
Publication number | Publication date |
---|---|
JP6175714B2 (en) | 2017-08-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8419516B2 (en) | Game system and game program | |
JP5584665B2 (en) | GAME MACHINE, COMPUTER PROGRAM USED FOR THE SAME, AND CONTROL METHOD | |
JP6175714B2 (en) | GAME MACHINE, CONTROL METHOD AND COMPUTER PROGRAM USED FOR THE SAME | |
JP5319750B2 (en) | GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM | |
JP5270726B2 (en) | GAME MACHINE, COMPUTER PROGRAM USED FOR THE SAME, AND CONTROL METHOD | |
CN103813837A (en) | Game device, control method of game device, program, and information storage medium | |
JP2018092249A (en) | Application control program, application control method, and application control system | |
JP5890302B2 (en) | Game machine, control method and computer program used therefor | |
JP4341066B2 (en) | Information processing apparatus and image generation program | |
JP5433737B2 (en) | Game machine, control method used therefor, and computer program | |
JP5925828B2 (en) | GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM | |
JP2012196286A (en) | Game device, control method for game device, and program | |
JP7116220B2 (en) | Application control program, application control method and application control system | |
JP5648029B2 (en) | Guide system, control method and computer program used therefor | |
JP5792410B2 (en) | Game machine and computer program used therefor | |
JP6600051B2 (en) | Application control program, application control method, and application control system | |
JP2022090964A (en) | Game program, game processing method, and game device | |
JP6611383B2 (en) | Application control program, application control method, and application control system | |
JP2014205061A (en) | Game machine, computer program used for the same, and control method | |
WO2022124135A1 (en) | Game program, game processing method, and game device | |
JP6023285B2 (en) | Game machine and computer program used therefor | |
JP6195092B2 (en) | Game machine and computer program used therefor | |
JP6356878B2 (en) | Application control program, application control method, and application control system | |
JP5744962B2 (en) | GAME MACHINE, COMPUTER PROGRAM USED FOR THE SAME, AND CONTROL METHOD | |
JP2022090965A (en) | Game program, game processing method, and game device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160121 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161115 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170110 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170302 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170606 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170622 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6175714 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |