Nothing Special   »   [go: up one dir, main page]

JP2009011567A - Game program and game apparatus - Google Patents

Game program and game apparatus Download PDF

Info

Publication number
JP2009011567A
JP2009011567A JP2007176667A JP2007176667A JP2009011567A JP 2009011567 A JP2009011567 A JP 2009011567A JP 2007176667 A JP2007176667 A JP 2007176667A JP 2007176667 A JP2007176667 A JP 2007176667A JP 2009011567 A JP2009011567 A JP 2009011567A
Authority
JP
Japan
Prior art keywords
shadow
game
predetermined
data
player
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007176667A
Other languages
Japanese (ja)
Other versions
JP5350612B2 (en
Inventor
Yoshiaki Koizumi
歓晃 小泉
Hideaki Shimizu
英明 清水
Koichi Hayashida
宏一 林田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nintendo Co Ltd
Original Assignee
Nintendo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nintendo Co Ltd filed Critical Nintendo Co Ltd
Priority to JP2007176667A priority Critical patent/JP5350612B2/en
Publication of JP2009011567A publication Critical patent/JP2009011567A/en
Application granted granted Critical
Publication of JP5350612B2 publication Critical patent/JP5350612B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/56Computing the motion of game characters with respect to other game characters, game objects or elements of the game scene, e.g. for simulating the behaviour of a group of virtual soldiers or for path finding
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • A63F13/5375Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for graphically or textually suggesting an action, e.g. by displaying an arrow indicating a turn in a driving game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/822Strategy games; Role-playing games
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/303Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device for displaying additional data, e.g. simulating a Head Up Display
    • A63F2300/305Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device for displaying additional data, e.g. simulating a Head Up Display for providing a graphical or textual hint to the player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/64Methods for processing data by generating or executing the game program for computing dynamical parameters of game objects, e.g. motion determination or computation of frictional forces for a virtual car
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6646Methods for processing data by generating or executing the game program for rendering three dimensional images for the computation and display of the shadow of an object or character
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To allow a player to intuitively recognize the position of an object in a virtual three-dimensional space. <P>SOLUTION: This game apparatus allows a display device to display a player's object being present in the virtual three-dimensional space. This game apparatus calculates a position of the intersection of a straight line passing through the position of the player's object and facing a predetermined first direction with another predetermined object as a first position and draws a shade 54 of the player's object in the first position. This game apparatus calculates a position of the intersection of a straight line passing through the position of the player's object and facing a second direction non-parallel to the first direction with another predetermined object as a second position and draws a shade 55 of the player's object at the second position. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、ゲームプログラムおよびゲーム装置に関し、より特定的には、3次元仮想空間内においてオブジェクトを表示するためのゲームプログラムおよびゲーム装置に関する。   The present invention relates to a game program and a game apparatus, and more particularly to a game program and a game apparatus for displaying an object in a three-dimensional virtual space.

特許文献1では、野球ゲームやサッカーゲーム等の球技系ゲームにおいて、ボールが高く飛ばされた場面でのゲーム処理について記載されている。このゲーム処理においては、例えば野球ゲームにおいてバッターがボールを打って高く飛ばした場合、表示画面にはグランド上の野手とともに、表示画面から外れたボールの影がグランド上に表示される。このようにボールの影が表示されることによって、プレイヤは、ボールが画面から外れていてもボールの位置を知ることができる。すなわち、野手を操作するプレイヤは、ボールの影の位置に向けて野手を操作することにより捕球を行うことができる。
特開2002−58866号公報
Patent Document 1 describes a game process in a scene where a ball is thrown high in a ball game such as a baseball game or a soccer game. In this game process, for example, in a baseball game, when a batter hits a ball and flies high, a shadow of the ball off the display screen is displayed on the ground along with a fielder on the ground. By displaying the shadow of the ball in this way, the player can know the position of the ball even if the ball is off the screen. That is, the player who operates the fielder can catch the ball by operating the fielder toward the position of the shadow of the ball.
JP 2002-58866 A

上述のような野球ゲームでは、プレイヤの操作対象である野手は2次元平面であるグランド上で移動を行うので、2次元平面におけるボールの位置をプレイヤに認識させればよかった。しかし、3次元空間を移動するキャラクタを操作するようなゲームにおいては、単に地面上にキャラクタの影を表示するだけでは、平面上におけるキャラクタの位置をプレイヤに認識させることしかできず、3次元空間におけるキャラクタの位置を認識させるためには不十分である。   In the baseball game as described above, the fielder that is the operation target of the player moves on the ground that is the two-dimensional plane, so that the player has only to recognize the position of the ball on the two-dimensional plane. However, in a game where a character moving in a three-dimensional space is operated, the player can only recognize the position of the character on the plane by simply displaying the shadow of the character on the ground. It is not sufficient for recognizing the position of the character.

それ故、本発明の目的は、仮想の3次元空間におけるオブジェクトの位置をプレイヤに直感的に認識させることができるゲームプログラムおよびゲーム装置を提供することである。   Therefore, an object of the present invention is to provide a game program and a game apparatus that allow a player to intuitively recognize the position of an object in a virtual three-dimensional space.

本発明は、上記の課題を解決するために、以下の構成を採用した。なお、本欄における括弧内の参照符号および補足説明等は、本発明の理解を助けるために後述する実施形態との対応関係を示したものであって、本発明を何ら限定するものではない。   The present invention employs the following configuration in order to solve the above problems. Note that the reference numerals in parentheses and supplementary explanations in this section show the correspondence with the embodiments described later in order to help understanding of the present invention, and do not limit the present invention.

第1の発明は、仮想の3次元空間に存在するオブジェクト(プレイヤオブジェクト53)を表示装置(テレビ2)に表示させるゲーム装置(3)のコンピュータ(CPU10等)に実行させるゲームプログラム(60)である。ゲームプログラムは、第1位置算出ステップ(S23)と、第1影描画ステップ(S25)と、第2位置算出ステップ(S35)と、第2影描画ステップ(S38)とをコンピュータに実行させる。第1位置算出ステップにおいて、コンピュータは、オブジェクトの位置を通り所定の第1方向を向く直線と所定の他のオブジェクトとの交点の位置を第1位置として算出する。第1影描画ステップにおいて、コンピュータは、第1位置にオブジェクトの影(54)を描画する。第2位置算出ステップにおいて、コンピュータは、オブジェクトの位置を通り第1方向と平行でない第2方向を向く直線と所定の他のオブジェクトとの交点の位置を第2位置として算出する。第2影描画ステップにおいて、コンピュータは、第2位置にオブジェクトの影(55)を描画する。   A first invention is a game program (60) that is executed by a computer (CPU 10 or the like) of a game device (3) that displays an object (player object 53) that exists in a virtual three-dimensional space on a display device (TV 2). is there. The game program causes the computer to execute a first position calculation step (S23), a first shadow drawing step (S25), a second position calculation step (S35), and a second shadow drawing step (S38). In the first position calculating step, the computer calculates, as the first position, the position of the intersection of a straight line passing through the position of the object and facing a predetermined first direction and a predetermined other object. In the first shadow drawing step, the computer draws the shadow (54) of the object at the first position. In the second position calculating step, the computer calculates, as the second position, the position of the intersection of the straight line passing through the position of the object and pointing in the second direction not parallel to the first direction and the predetermined other object. In the second shadow drawing step, the computer draws the shadow (55) of the object at the second position.

第2の発明においては、3次元空間内には所定の影描画エリア(71)が設定されてもよい。このとき、ゲームプログラムは、3次元空間において設定される所定の影描画エリア内にオブジェクトが存在するか否かを判定するエリア判定ステップ(S32)をさらにコンピュータに実行させる。第2影描画ステップは、エリア判定ステップにおいてオブジェクトの位置が影描画エリア内に存在すると判定された場合のみ実行される。   In the second invention, a predetermined shadow drawing area (71) may be set in the three-dimensional space. At this time, the game program causes the computer to further execute an area determination step (S32) for determining whether or not an object exists in a predetermined shadow drawing area set in the three-dimensional space. The second shadow drawing step is executed only when it is determined in the area determining step that the position of the object exists within the shadow drawing area.

第3の発明においては、ゲーム装置の記憶手段(メインメモリ)には、各影描画エリアに対してそれぞれ投影方向が関連付けられた影描画エリアデータ(63)が記憶されていてもよい。このとき、第2位置算出ステップにおいて、コンピュータは、影描画エリアデータにおいてオブジェクトが存在する影描画エリアに関連付けられている投影方向を第2方向として第2位置を算出する。   In the third invention, the storage means (main memory) of the game apparatus may store shadow drawing area data (63) in which the projection direction is associated with each shadow drawing area. At this time, in the second position calculation step, the computer calculates the second position with the projection direction associated with the shadow drawing area where the object exists in the shadow drawing area data as the second direction.

第4の発明においては、第1方向は、3次元空間において設定される重力方向であってもよい。   In the fourth invention, the first direction may be a gravitational direction set in a three-dimensional space.

第5の発明においては、ゲームプログラムは、重力方向をゲーム状況に応じて変更する重力方向変更ステップ(S7)をコンピュータにさらに実行させてもよい。   In a fifth aspect, the game program may cause the computer to further execute a gravity direction changing step (S7) for changing the direction of gravity according to the game situation.

第6の発明においては、第2影描画ステップにおいて、コンピュータは、第1影描画ステップにおいて描画される影とは異なる表示形態となるように影を描画してもよい(図8参照)。   In a sixth aspect, in the second shadow drawing step, the computer may draw a shadow so that the display form is different from the shadow drawn in the first shadow drawing step (see FIG. 8).

第7の発明においては、第2位置算出ステップにおいて、コンピュータは、予め定められた所定のオブジェクト(プレイヤオブジェクト)についてのみ第2位置を算出してもよい。このとき、第2影描画ステップにおいて、コンピュータは、所定のオブジェクトについてのみ影を描画する。ゲームプログラムは、第3位置算出ステップと、第3影描画ステップとをコンピュータにさらに実行させる。第3位置算出ステップにおいて、コンピュータは、第2方向と平行でない第3方向を向く直線と前記所定のオブジェクト以外の他のオブジェクトとの交点の位置を第3位置として算出する。第3影描画ステップにおいて、コンピュータは、第3位置に所定のオブジェクト以外の他のオブジェクトの影を描画する。   In a seventh aspect, in the second position calculating step, the computer may calculate the second position only for a predetermined object (player object). At this time, in the second shadow drawing step, the computer draws a shadow only for a predetermined object. The game program causes the computer to further execute a third position calculating step and a third shadow drawing step. In the third position calculating step, the computer calculates, as the third position, the position of the intersection point between the straight line pointing in the third direction that is not parallel to the second direction and another object other than the predetermined object. In the third shadow drawing step, the computer draws a shadow of an object other than the predetermined object at the third position.

第8の発明においては、所定のオブジェクトは、3次元空間内に固定して配置された地形オブジェクトであってもよい。   In the eighth invention, the predetermined object may be a terrain object fixedly arranged in the three-dimensional space.

第9の発明においては、第1影描画ステップにおいて、コンピュータは、オブジェクトの位置から第1位置までの距離に基づいて影の濃さを変化させてもよい。   In a ninth aspect, in the first shadow drawing step, the computer may change the darkness of the shadow based on the distance from the position of the object to the first position.

第10の発明においては、第2影描画ステップにおいて、コンピュータは、オブジェクトの位置から第2位置までの距離に基づいて影の濃さを変化させてもよい。   In a tenth aspect, in the second shadow drawing step, the computer may change the darkness of the shadow based on the distance from the position of the object to the second position.

第11の発明においては、第1影描画ステップにおいて、コンピュータは、オブジェクトの位置から第1位置までの距離に基づいて影の大きさを変化させてもよい。   In an eleventh aspect, in the first shadow drawing step, the computer may change the size of the shadow based on the distance from the position of the object to the first position.

第12の発明においては、第2影描画ステップにおいて、コンピュータは、オブジェクトの位置から第2位置までの距離に基づいて影の大きさを変化させてもよい。   In a twelfth aspect, in the second shadow drawing step, the computer may change the size of the shadow based on the distance from the position of the object to the second position.

また、本発明は、上記第1〜第12の発明における各ステップを実行するゲーム装置と同等の機能を有するゲーム装置の形態で提供されてもよい。   Further, the present invention may be provided in the form of a game device having a function equivalent to that of the game device that executes each step in the first to twelfth inventions.

第1の発明によれば、オブジェクトに対して異なる2方向に投影された2つの影が付される。3次元空間におけるオブジェクトの位置を認識するためには、オブジェクトに1つの影を付すのみでは不十分であったが、第1の発明のように異なる2方向に投影される2つの影を付すことによって、プレイヤは、3次元空間におけるオブジェクトの位置を直感的に認識することができる。   According to the first invention, two shadows projected in two different directions with respect to the object are attached. In order to recognize the position of the object in the three-dimensional space, it was not sufficient to attach one shadow to the object. However, as in the first invention, two shadows projected in two different directions are attached. Thus, the player can intuitively recognize the position of the object in the three-dimensional space.

第2の発明によれば、オブジェクトが所定の影描画エリア内に存在する場合にのみ、当該オブジェクトに対して2つの影が付される。これによれば、2つの影を付す必要がある場所に影描画エリアを設定することで、不要な場所では影を描画する処理を省略することができるので、効率良く影を生成することができ、コンピュータの処理負担を軽減することができる。   According to the second invention, only when an object exists in a predetermined shadow drawing area, two shadows are attached to the object. According to this, by setting a shadow drawing area at a place where two shadows need to be added, it is possible to omit the process of drawing a shadow at an unnecessary place, so that a shadow can be generated efficiently. The processing load on the computer can be reduced.

第3の発明によれば、制作者は、第2の影が投影される方向を任意に設定することができる。したがって、影描画エリア毎に最適な方向に第2の影を生成することができるので、3次元空間におけるオブジェクトの位置をプレイヤにより認識させやすくすることができる。   According to the third invention, the producer can arbitrarily set the direction in which the second shadow is projected. Therefore, since the second shadow can be generated in the optimum direction for each shadow drawing area, the position of the object in the three-dimensional space can be easily recognized by the player.

第4の発明によれば、1つの影が投影される方向を重力方向とすることで、当該影が自然な方向に生成される。これによって、仮想の3次元空間を自然に表現することができる。   According to the fourth invention, the direction in which one shadow is projected is set as the direction of gravity, so that the shadow is generated in a natural direction. Thereby, a virtual three-dimensional space can be naturally expressed.

第5の発明によれば、ゲーム状況に応じて重力方向が変化するという、今までにない新規なゲームを提供することができる。   According to the fifth aspect of the invention, it is possible to provide an unprecedented new game in which the direction of gravity changes according to the game situation.

第6の発明によれば、2つの影の表示形態(例えば、形状)を異ならせることによって、プレイヤに2つの影を区別して認識させることができる。これによって、プレイヤは、重力方向がどちらであるかを2つの影を見ることによって判断することができる。特に、第5の発明のように重力方向がゲーム状況に応じて変化する場合には、2つの影によって重力方向をプレイヤに正しく認識させることは有効である。   According to the sixth aspect of the invention, the display of the two shadows (for example, the shape) is made different so that the player can distinguish and recognize the two shadows. Thus, the player can determine which direction of gravity is by looking at the two shadows. In particular, when the direction of gravity changes according to the game situation as in the fifth aspect of the invention, it is effective for the player to correctly recognize the direction of gravity using two shadows.

第7の発明によれば、第2位置算出ステップ、および、第2影描画ステップにおいては所定のオブジェクトについてのみ処理が実行される。したがって、所定のオブジェクト以外の他のオブジェクト(例えば、壁オブジェクト等)については、上記ステップにおける処理を省略することができるので、第2の影を効率良く生成することができ、コンピュータの処理負担を軽減することができる。   According to the seventh aspect, in the second position calculating step and the second shadow drawing step, processing is executed only for a predetermined object. Accordingly, the processing in the above step can be omitted for other objects (for example, wall objects) other than the predetermined object, so that the second shadow can be generated efficiently, and the processing burden on the computer is reduced. Can be reduced.

第8の発明によれば、地形オブジェクトに影を表示することによって、プレイヤは、3次元空間におけるオブジェクトの位置を認識しやすくなる。   According to the eighth aspect, by displaying the shadow on the terrain object, the player can easily recognize the position of the object in the three-dimensional space.

第9〜第12の発明によれば、オブジェクトの位置から影の位置までの距離に応じて影の濃さまたは大きさが変化する。これによれば、プレイヤは当該距離をより認識しやすくなり、ひいては、3次元空間におけるオブジェクトの位置をより認識しやすくなる。   According to the ninth to twelfth inventions, the darkness or size of the shadow changes in accordance with the distance from the object position to the shadow position. According to this, the player can more easily recognize the distance, and more easily recognize the position of the object in the three-dimensional space.

(ゲームシステムの全体構成)
図1を参照して、本発明の一実施形態に係るゲーム装置を含むゲームシステム1について説明する。図1は、ゲームシステム1の外観図である。以下、据置型のゲーム装置を一例にして、本実施形態のゲーム装置およびゲームプログラムについて説明する。図1において、ゲームシステム1は、テレビジョン受像器(以下、単に「テレビ」と記載する)2、ゲーム装置3、光ディスク4、コントローラ5、およびマーカ部6を含む。本システムは、コントローラ5を用いたゲーム操作に基づいてゲーム装置3でゲーム処理を実行するものである。
(Overall configuration of game system)
A game system 1 including a game device according to an embodiment of the present invention will be described with reference to FIG. FIG. 1 is an external view of the game system 1. Hereinafter, the game apparatus and the game program of the present embodiment will be described using a stationary game apparatus as an example. In FIG. 1, the game system 1 includes a television receiver (hereinafter simply referred to as “TV”) 2, a game apparatus 3, an optical disk 4, a controller 5, and a marker unit 6. In this system, game processing is executed by the game apparatus 3 based on a game operation using the controller 5.

ゲーム装置3には、当該ゲーム装置3に対して交換可能に用いられ、データの読み取りが可能な情報記憶媒体の一例である光ディスク4が脱着可能に挿入される。光ディスク4には、ゲーム装置3において実行されるためのゲームプログラムが記憶されている。ゲーム装置3の前面には光ディスク4の挿入口が設けられている。ゲーム装置3は、挿入口に挿入された光ディスク4に記憶されているゲームプログラムを読み出して実行することによってゲーム処理を実行する。なお、ゲームプログラムはゲーム装置3の内部メモリ(不揮発であることが好ましいが揮発性でもよい)に予め記憶されていてもよいし、ゲーム装置3は、ゲーム装置3とネットワークを介して接続される所定のサーバ(または他のゲーム装置)からゲームプログラムをダウンロードして内部メモリに記憶するようにしてもかまわない。   An optical disc 4 that is an example of an information storage medium that can be used interchangeably with the game device 3 and that can read data is detachably inserted into the game device 3. The optical disc 4 stores a game program to be executed on the game apparatus 3. An insertion slot for the optical disk 4 is provided on the front surface of the game apparatus 3. The game apparatus 3 executes a game process by reading and executing a game program stored in the optical disc 4 inserted into the insertion slot. The game program may be stored in advance in an internal memory (preferably non-volatile but may be volatile) of the game apparatus 3, and the game apparatus 3 is connected to the game apparatus 3 via a network. The game program may be downloaded from a predetermined server (or other game device) and stored in the internal memory.

ゲーム装置3には、表示装置の一例であるテレビ2が接続コードを介して接続される。テレビ2は、ゲーム装置3において実行されるゲーム処理の結果得られるゲーム画像を表示する。また、テレビ2の画面の周辺(図1では画面の上側)には、マーカ部6が設置される。マーカ部6は、その両端に2つのマーカ6Rおよび6Lを備えている。マーカ6R(マーカ6Lも同様)は、具体的には1以上の赤外LEDであり、テレビ2の前方に向かって赤外光を出力する。マーカ部6はゲーム装置3に接続されており、ゲーム装置3はマーカ部6が備える各赤外LEDの点灯を制御することが可能である。   A television 2 which is an example of a display device is connected to the game apparatus 3 via a connection cord. The television 2 displays a game image obtained as a result of the game process executed in the game device 3. In addition, a marker unit 6 is installed around the screen of the television 2 (upper side of the screen in FIG. 1). The marker unit 6 includes two markers 6R and 6L at both ends thereof. The marker 6R (same for the marker 6L) is specifically one or more infrared LEDs, and outputs infrared light toward the front of the television 2. The marker unit 6 is connected to the game apparatus 3, and the game apparatus 3 can control lighting of each infrared LED included in the marker unit 6.

コントローラ5は、自機に対して行われた操作の内容を示す操作データをゲーム装置3に与える入力装置である。コントローラ5とゲーム装置3とは無線通信によって接続される。本実施形態では、コントローラ5とゲーム装置3との間の無線通信には例えばBluetooth(ブルートゥース)(登録商標)の技術が用いられる。なお、他の実施形態においてはコントローラ5とゲーム装置3とは通信可能に構成されればよく、有線で接続されてもよい。   The controller 5 is an input device that provides the game device 3 with operation data indicating the content of the operation performed on the own device. The controller 5 and the game apparatus 3 are connected by wireless communication. In the present embodiment, for example, Bluetooth (registered trademark) technology is used for wireless communication between the controller 5 and the game apparatus 3. In other embodiments, the controller 5 and the game apparatus 3 may be configured to be communicable and may be connected by wire.

(ゲーム装置3の内部構成)
次に、図2を参照して、ゲーム装置3の内部構成について説明する。図2は、ゲーム装置3の構成を示すブロック図である。ゲーム装置3は、CPU10、システムLSI11、外部メインメモリ12、ROM/RTC13、ディスクドライブ14、およびAV−IC15等を有する。
(Internal configuration of game device 3)
Next, the internal configuration of the game apparatus 3 will be described with reference to FIG. FIG. 2 is a block diagram showing a configuration of the game apparatus 3. The game apparatus 3 includes a CPU 10, a system LSI 11, an external main memory 12, a ROM / RTC 13, a disk drive 14, an AV-IC 15 and the like.

CPU10は、光ディスク4に記憶されたゲームプログラムを実行することによってゲーム処理を実行するものであり、ゲームプロセッサとして機能する。CPU10はシステムLSI11に接続される。システムLSI11には、CPU10の他、外部メインメモリ12、ROM/RTC13、ディスクドライブ14およびAV−IC15が接続される。システムLSI11は、それに接続される各構成要素間のデータ転送の制御、表示すべき画像の生成、外部装置からのデータの取得等の処理を行う。システムLSI11の内部構成については後述する。揮発性の外部メインメモリ12は、光ディスク4から読み出されたゲームプログラムや、フラッシュメモリ17から読み出されたゲームプログラム等のプログラムを記憶したり、各種データを記憶したりするものであり、CPU10のワーク領域やバッファ領域として用いられる。ROM/RTC13は、ゲーム装置3の起動用のプログラムが組み込まれるROM(いわゆるブートROM)と、時間をカウントするクロック回路(RTC:Real Time Clock)とを有する。ディスクドライブ14は、光ディスク4からプログラムデータやテクスチャデータ等を読み出し、後述する内部メインメモリ11eまたは外部メインメモリ12に読み出したデータを書き込む。   The CPU 10 executes a game process by executing a game program stored on the optical disc 4, and functions as a game processor. The CPU 10 is connected to the system LSI 11. In addition to the CPU 10, an external main memory 12, a ROM / RTC 13, a disk drive 14, and an AV-IC 15 are connected to the system LSI 11. The system LSI 11 performs processing such as control of data transfer between components connected thereto, generation of an image to be displayed, and acquisition of data from an external device. The internal configuration of the system LSI 11 will be described later. The volatile external main memory 12 stores a program such as a game program read from the optical disc 4 or a game program read from the flash memory 17, or stores various data. Used as a work area and buffer area. The ROM / RTC 13 includes a ROM (so-called boot ROM) in which a program for starting the game apparatus 3 is incorporated, and a clock circuit (RTC: Real Time Clock) that counts time. The disk drive 14 reads program data, texture data, and the like from the optical disk 4 and writes the read data to an internal main memory 11e or an external main memory 12 described later.

システムLSI11には、入出力プロセッサ11a、GPU(Graphics Processor Unit)11b、DSP(Digital Signal Processor)11c、VRAM11d、および内部メインメモリ11eが設けられる。図示は省略するが、これらの構成要素11a〜11eは内部バスによって互いに接続される。   The system LSI 11 is provided with an input / output processor 11a, a GPU (Graphics Processor Unit) 11b, a DSP (Digital Signal Processor) 11c, a VRAM 11d, and an internal main memory 11e. Although not shown, these components 11a to 11e are connected to each other by an internal bus.

GPU11bは、描画手段の一部を形成し、CPU10からのグラフィクスコマンド(作画命令)に従って画像を生成する。VRAM11dは、GPU11bがグラフィクスコマンドを実行するために必要なデータ(ポリゴンデータやテクスチャデータ等のデータ)を記憶する。画像が生成される際には、GPU11bは、VRAM11dに記憶されたデータを用いて画像データを作成する。   The GPU 11b forms part of a drawing unit and generates an image according to a graphics command (drawing command) from the CPU 10. The VRAM 11d stores data (data such as polygon data and texture data) necessary for the GPU 11b to execute the graphics command. When an image is generated, the GPU 11b creates image data using data stored in the VRAM 11d.

DSP11cは、オーディオプロセッサとして機能し、内部メインメモリ11eや外部メインメモリ12に記憶されるサウンドデータや音波形(音色)データを用いて、音声データを生成する。   The DSP 11c functions as an audio processor, and generates sound data using sound data and sound waveform (tone color) data stored in the internal main memory 11e and the external main memory 12.

上述のように生成された画像データおよび音声データは、AV−IC15によって読み出される。AV−IC15は、読み出した画像データをAVコネクタ16を介してテレビ2に出力するとともに、読み出した音声データを、テレビ2に内蔵されるスピーカ2aに出力する。これによって、画像がテレビ2に表示されるとともに音がスピーカ2aから出力される。   The image data and audio data generated as described above are read out by the AV-IC 15. The AV-IC 15 outputs the read image data to the television 2 via the AV connector 16, and outputs the read audio data to the speaker 2 a built in the television 2. As a result, an image is displayed on the television 2 and a sound is output from the speaker 2a.

入出力プロセッサ(I/Oプロセッサ)11aは、それに接続される構成要素との間でデータの送受信を実行したり、外部装置からのデータのダウンロードを実行したりする。入出力プロセッサ11aは、フラッシュメモリ17、無線通信モジュール18、無線コントローラモジュール19、拡張コネクタ20、およびメモリカード用コネクタ21に接続される。無線通信モジュール18にはアンテナ22が接続され、無線コントローラモジュール19にはアンテナ23が接続される。   The input / output processor (I / O processor) 11a transmits / receives data to / from components connected to the input / output processor (I / O processor) 11a or downloads data from an external device. The input / output processor 11a is connected to the flash memory 17, the wireless communication module 18, the wireless controller module 19, the expansion connector 20, and the memory card connector 21. An antenna 22 is connected to the wireless communication module 18, and an antenna 23 is connected to the wireless controller module 19.

入出力プロセッサ11aは、無線通信モジュール18およびアンテナ22を介してネットワークに接続し、ネットワークに接続される他のゲーム装置や各種サーバと通信することができる。入出力プロセッサ11aは、定期的にフラッシュメモリ17にアクセスし、ネットワークへ送信する必要があるデータの有無を検出し、当該データが有る場合には、無線通信モジュール18およびアンテナ22を介してネットワークに送信する。また、入出力プロセッサ11aは、他のゲーム装置から送信されてくるデータやダウンロードサーバからダウンロードしたデータを、ネットワーク、アンテナ22および無線通信モジュール18を介して受信し、受信したデータをフラッシュメモリ17に記憶する。CPU10はゲームプログラムを実行することにより、フラッシュメモリ17に記憶されたデータを読み出してゲームプログラムで利用する。フラッシュメモリ17には、ゲーム装置3と他のゲーム装置や各種サーバとの間で送受信されるデータの他、ゲーム装置3を利用してプレイしたゲームのセーブデータ(ゲームの結果データまたは途中データ)が記憶されてもよい。   The input / output processor 11a is connected to the network via the wireless communication module 18 and the antenna 22, and can communicate with other game devices and various servers connected to the network. The input / output processor 11a periodically accesses the flash memory 17 to detect the presence / absence of data that needs to be transmitted to the network. If there is such data, the input / output processor 11a communicates with the network via the wireless communication module 18 and the antenna 22. Send. Further, the input / output processor 11a receives data transmitted from other game devices and data downloaded from the download server via the network, the antenna 22 and the wireless communication module 18, and receives the received data in the flash memory 17. Remember. By executing the game program, the CPU 10 reads out the data stored in the flash memory 17 and uses it in the game program. In the flash memory 17, in addition to data transmitted and received between the game apparatus 3 and other game apparatuses and various servers, save data (game result data or intermediate data) of the game played using the game apparatus 3 May be stored.

また、入出力プロセッサ11aは、コントローラ5から送信される操作データをアンテナ23および無線コントローラモジュール19を介して受信し、内部メインメモリ11eまたは外部メインメモリ12のバッファ領域に記憶(一時記憶)する。   The input / output processor 11a receives operation data transmitted from the controller 5 via the antenna 23 and the wireless controller module 19, and stores (temporarily stores) the data in the buffer area of the internal main memory 11e or the external main memory 12.

さらに、入出力プロセッサ11aには、拡張コネクタ20およびメモリカード用コネクタ21が接続される。拡張コネクタ20は、USBやSCSIのようなインターフェースのためのコネクタであり、外部記憶媒体のようなメディアを接続したり、他のコントローラのような周辺機器を接続したり、有線の通信用コネクタを接続することによって無線通信モジュール18に替えてネットワークとの通信を行ったりすることができる。メモリカード用コネクタ21は、メモリカードのような外部記憶媒体を接続するためのコネクタである。例えば、入出力プロセッサ11aは、拡張コネクタ20やメモリカード用コネクタ21を介して外部記憶媒体にアクセスし、外部記憶媒体にデータを保存したり、外部記憶媒体からデータを読み出したりすることができる。   Further, an expansion connector 20 and a memory card connector 21 are connected to the input / output processor 11a. The expansion connector 20 is a connector for an interface such as USB or SCSI, and connects a medium such as an external storage medium, a peripheral device such as another controller, or a wired communication connector. By connecting, communication with the network can be performed instead of the wireless communication module 18. The memory card connector 21 is a connector for connecting an external storage medium such as a memory card. For example, the input / output processor 11a can access an external storage medium via the expansion connector 20 or the memory card connector 21 to store data in the external storage medium or read data from the external storage medium.

ゲーム装置3には、電源ボタン24、リセットボタン25、およびイジェクトボタン26が設けられる。電源ボタン24およびリセットボタン25は、システムLSI11に接続される。電源ボタン24がオンされると、ゲーム装置3の各構成要素に対して、図示しないACアダプタを経て電源が供給される。リセットボタン25が押されると、システムLSI11は、ゲーム装置3の起動プログラムを再起動する。イジェクトボタン26は、ディスクドライブ14に接続される。イジェクトボタン26が押されると、ディスクドライブ14から光ディスク4が排出される。   The game apparatus 3 is provided with a power button 24, a reset button 25, and an eject button 26. The power button 24 and the reset button 25 are connected to the system LSI 11. When the power button 24 is turned on, power is supplied to each component of the game apparatus 3 via an AC adapter (not shown). When the reset button 25 is pressed, the system LSI 11 restarts the boot program for the game apparatus 3. The eject button 26 is connected to the disk drive 14. When the eject button 26 is pressed, the optical disk 4 is ejected from the disk drive 14.

(コントローラ5の構成)
次に、図3〜図7を参照して、コントローラ5について説明する。図3および図4は、コントローラ5の外観構成を示す斜視図である。図3は、コントローラ5の上側後方から見た斜視図であり、図4は、コントローラ5を下側前方から見た斜視図である。
(Configuration of controller 5)
Next, the controller 5 will be described with reference to FIGS. 3 and 4 are perspective views showing the external configuration of the controller 5. FIG. 3 is a perspective view of the controller 5 as seen from the upper rear side, and FIG. 4 is a perspective view of the controller 5 as seen from the lower front side.

図3および図4において、コントローラ5は、例えばプラスチック成型によって形成されたハウジング31を有している。ハウジング31は、その前後方向(図3に示すZ軸方向)を長手方向とした略直方体形状を有しており、全体として大人や子供の片手で把持可能な大きさである。プレイヤは、コントローラ5に設けられたボタンを押下すること、および、コントローラ5自体を動かしてその位置や姿勢を変えることによってゲーム操作を行うことができる。   3 and 4, the controller 5 includes a housing 31 formed by plastic molding, for example. The housing 31 has a substantially rectangular parallelepiped shape whose longitudinal direction is the front-rear direction (the Z-axis direction shown in FIG. 3), and is a size that can be gripped with one hand of an adult or a child as a whole. The player can perform a game operation by pressing a button provided on the controller 5 and moving the controller 5 itself to change its position and posture.

ハウジング31には、複数の操作ボタンが設けられる。図3に示すように、ハウジング31の上面には、十字ボタン32a、1番ボタン32b、2番ボタン32c、Aボタン32d、マイナスボタン32e、ホームボタン32f、プラスボタン32g、および電源ボタン32hが設けられる。一方、図4に示すように、ハウジング31の下面には凹部が形成されており、当該凹部の後面側傾斜面にはBボタン32iが設けられる。これらの各操作ボタン32a〜32iには、ゲーム装置3が実行するゲームプログラムに応じた機能が適宜割り当てられる。また、電源ボタン32hは遠隔からゲーム装置3本体の電源をオン/オフするためのものである。ホームボタン32fおよび電源ボタン32hは、その上面がハウジング31の上面に埋没している。これによって、プレイヤがホームボタン32fまたは電源ボタン32hを誤って押下することを防止することができる。   The housing 31 is provided with a plurality of operation buttons. As shown in FIG. 3, a cross button 32a, a first button 32b, a second button 32c, an A button 32d, a minus button 32e, a home button 32f, a plus button 32g, and a power button 32h are provided on the upper surface of the housing 31. It is done. On the other hand, as shown in FIG. 4, a recess is formed on the lower surface of the housing 31, and a B button 32i is provided on the rear inclined surface of the recess. A function corresponding to the game program executed by the game apparatus 3 is appropriately assigned to each of the operation buttons 32a to 32i. The power button 32h is for remotely turning on / off the main body of the game apparatus 3. The home button 32 f and the power button 32 h are embedded in the upper surface of the housing 31. This can prevent the player from pressing the home button 32f or the power button 32h by mistake.

ハウジング31の後面にはコネクタ33が設けられている。コネクタ33は、コントローラ5に他の機器(例えば、他のコントローラ)を接続するために利用される。   A connector 33 is provided on the rear surface of the housing 31. The connector 33 is used to connect another device (for example, another controller) to the controller 5.

ハウジング31上面の後方には複数(図3では4つ)のLED34a〜34dが設けられる。ここで、コントローラ5には、他のコントローラと区別するためにコントローラ種別(番号)が付与される。各LED34a〜34dは、コントローラ5に現在設定されている上記コントローラ種別をプレイヤに通知したり、コントローラ5の電池残量をプレイヤに通知したりする等の目的で用いられる。具体的には、コントローラ5を用いてゲーム操作が行われる際、上記コントローラ種別に応じて複数のLED34a〜34dのいずれか1つが点灯する。   A plurality (four in FIG. 3) of LEDs 34 a to 34 d are provided behind the upper surface of the housing 31. Here, the controller type (number) is assigned to the controller 5 to distinguish it from other controllers. The LEDs 34a to 34d are used for the purpose of notifying the player of the controller type currently set in the controller 5 and notifying the player of the remaining battery level of the controller 5. Specifically, when a game operation is performed using the controller 5, any one of the plurality of LEDs 34a to 34d is turned on according to the controller type.

また、コントローラ5は撮像情報演算部35(図6)を有しており、図4に示すように、ハウジング31前面には撮像情報演算部35の光入射面35aが設けられる。光入射面35aは、マーカ6Rおよび6Lからの赤外光を少なくとも透過する材質で構成される。   Further, the controller 5 has an imaging information calculation unit 35 (FIG. 6), and a light incident surface 35a of the imaging information calculation unit 35 is provided on the front surface of the housing 31 as shown in FIG. The light incident surface 35a is made of a material that transmits at least infrared light from the markers 6R and 6L.

ハウジング31上面における1番ボタン32bとホームボタン32fとの間には、コントローラ5に内蔵されるスピーカ49(図5)からの音を外部に放出するための音抜き孔31aが形成されている。   Between the first button 32b and the home button 32f on the upper surface of the housing 31, a sound release hole 31a for releasing sound from the speaker 49 (FIG. 5) built in the controller 5 is formed.

次に、図5および図6を参照して、コントローラ5の内部構造について説明する。図5および図6は、コントローラ5の内部構造を示す図である。なお、図5は、コントローラ5の上筐体(ハウジング31の一部)を外した状態を示す斜視図である。図6は、コントローラ5の下筐体(ハウジング31の一部)を外した状態を示す斜視図である。図6に示す斜視図は、図5に示す基板30を裏面から見た斜視図となっている。   Next, the internal structure of the controller 5 will be described with reference to FIGS. 5 and 6 are diagrams showing the internal structure of the controller 5. FIG. FIG. 5 is a perspective view showing a state in which the upper housing (a part of the housing 31) of the controller 5 is removed. FIG. 6 is a perspective view showing a state in which the lower casing (a part of the housing 31) of the controller 5 is removed. The perspective view shown in FIG. 6 is a perspective view of the substrate 30 shown in FIG.

図5において、ハウジング31の内部には基板30が固設されており、当該基板30の上主面上に各操作ボタン32a〜32h、各LED34a〜34d、加速度センサ37、アンテナ45、およびスピーカ49等が設けられる。これらは、基板30等に形成された配線(図示せず)によってマイクロコンピュータ(Micro Computer:マイコン)42(図6参照)に接続される。本実施形態では、加速度センサ37は、X軸方向に関してコントローラ5の中心からずれた位置に配置されている。これによって、コントローラ5をZ軸回りに回転させたときのコントローラ5の動きが算出しやすくなる。また、加速度センサ37は、長手方向(Z軸方向)に関してコントローラ5の中心よりも前方に配置されている。また、無線モジュール44(図7)およびアンテナ45によって、コントローラ5がワイヤレスコントローラとして機能する。   In FIG. 5, a substrate 30 is fixed inside the housing 31, and operation buttons 32 a to 32 h, LEDs 34 a to 34 d, an acceleration sensor 37, an antenna 45, and a speaker 49 are provided on the upper main surface of the substrate 30. Etc. are provided. These are connected to a microcomputer (microcomputer) 42 (see FIG. 6) by wiring (not shown) formed on the substrate 30 and the like. In the present embodiment, the acceleration sensor 37 is disposed at a position shifted from the center of the controller 5 with respect to the X-axis direction. This makes it easier to calculate the movement of the controller 5 when the controller 5 is rotated about the Z axis. The acceleration sensor 37 is disposed in front of the center of the controller 5 in the longitudinal direction (Z-axis direction). Further, the controller 5 functions as a wireless controller by the wireless module 44 (FIG. 7) and the antenna 45.

一方、図6において、基板30の下主面上の前端縁に撮像情報演算部35が設けられる。撮像情報演算部35は、コントローラ5の前方から順に赤外線フィルタ38、レンズ39、撮像素子40、および画像処理回路41を備えている。これらの部材38〜41はそれぞれ基板30の下主面に取り付けられる。   On the other hand, in FIG. 6, an imaging information calculation unit 35 is provided at the front edge on the lower main surface of the substrate 30. The imaging information calculation unit 35 includes an infrared filter 38, a lens 39, an imaging element 40, and an image processing circuit 41 in order from the front of the controller 5. These members 38 to 41 are respectively attached to the lower main surface of the substrate 30.

さらに、基板30の下主面上には、上記マイコン42およびバイブレータ48が設けられている。バイブレータ48は、例えば振動モータやソレノイドであり、基板30等に形成された配線によってマイコン42と接続される。マイコン42の指示によりバイブレータ48が作動することによってコントローラ5に振動が発生する。これによって、コントローラ5を把持しているプレイヤの手にその振動が伝達される、いわゆる振動対応ゲームを実現することができる。本実施形態では、バイブレータ48は、ハウジング31のやや前方寄りに配置される。つまり、バイブレータ48がコントローラ5の中心よりも端側に配置することによって、バイブレータ48の振動によりコントローラ5全体を大きく振動させることができる。また、コネクタ33は、基板30の下主面上の後端縁に取り付けられる。なお、図5および図6に示す他、コントローラ5は、マイコン42の基本クロックを生成する水晶振動子、スピーカ49に音声信号を出力するアンプ等を備えている。   Further, the microcomputer 42 and the vibrator 48 are provided on the lower main surface of the substrate 30. The vibrator 48 is, for example, a vibration motor or a solenoid, and is connected to the microcomputer 42 by wiring formed on the substrate 30 or the like. The controller 48 is vibrated by the operation of the vibrator 48 according to the instruction of the microcomputer 42. As a result, a so-called vibration-compatible game in which the vibration is transmitted to the hand of the player holding the controller 5 can be realized. In the present embodiment, the vibrator 48 is disposed slightly forward of the housing 31. That is, by arranging the vibrator 48 on the end side of the center of the controller 5, the entire controller 5 can be vibrated greatly by the vibration of the vibrator 48. The connector 33 is attached to the rear edge on the lower main surface of the substrate 30. 5 and 6, the controller 5 includes a crystal resonator that generates a basic clock of the microcomputer 42, an amplifier that outputs an audio signal to the speaker 49, and the like.

なお、図3〜図6に示したコントローラ5の形状や、各操作ボタンの形状、加速度センサやバイブレータの数および設置位置等は単なる一例に過ぎず、他の形状、数、および設置位置であっても、本発明を実現することができる。また、本実施形態では、撮像手段による撮像方向はZ軸正方向であるが、撮像方向はいずれの方向であってもよい。すなわち、コントローラ5における撮像情報演算部35の位置(撮像情報演算部35の光入射面35a)は、ハウジング31の前面でなくてもよく、ハウジング31の外部から光を取り入れることができれば他の面に設けられてもかまわない。   The shape of the controller 5, the shape of each operation button, the number of acceleration sensors and vibrators, and the installation positions shown in FIGS. 3 to 6 are merely examples, and other shapes, numbers, and installation positions may be used. However, the present invention can be realized. In the present embodiment, the imaging direction by the imaging unit is the positive Z-axis direction, but the imaging direction may be any direction. That is, the position of the imaging information calculation unit 35 in the controller 5 (the light incident surface 35a of the imaging information calculation unit 35) does not have to be the front surface of the housing 31, and other surfaces can be used as long as light can be taken in from the outside of the housing 31. May be provided.

図7は、コントローラ5の構成を示すブロック図である。コントローラ5は、操作部32(各操作ボタン32a〜32i)、コネクタ33、撮像情報演算部35、通信部36、および加速度センサ37を備えている。コントローラ5は、自機に対して行われた操作内容を示すデータを操作データとしてゲーム装置3へ送信するものである。   FIG. 7 is a block diagram showing the configuration of the controller 5. The controller 5 includes an operation unit 32 (operation buttons 32a to 32i), a connector 33, an imaging information calculation unit 35, a communication unit 36, and an acceleration sensor 37. The controller 5 transmits data indicating the details of the operation performed on the own device to the game apparatus 3 as operation data.

操作部32は、上述した各操作ボタン32a〜32iを含み、各操作ボタン32a〜32iに対する入力状態(各操作ボタン32a〜32iが押下されたか否か)を示す操作ボタンデータを通信部36のマイコン42へ出力する。   The operation unit 32 includes the operation buttons 32a to 32i described above, and the operation button data indicating the input state (whether or not each operation button 32a to 32i is pressed) to each operation button 32a to 32i is transmitted to the microcomputer of the communication unit 36. Output to 42.

撮像情報演算部35は、撮像手段が撮像した画像データを解析し、画像内で輝度が高い領域を判別してその領域の重心位置やサイズなどを算出するためのシステムである。撮像情報演算部35は、例えば最大200フレーム/秒程度のサンプリング周期を有するので、比較的高速なコントローラ5の動きでも追跡して解析することができる。   The imaging information calculation unit 35 is a system for analyzing the image data captured by the imaging unit, determining a region with high luminance in the image, and calculating the position of the center of gravity and the size of the region. Since the imaging information calculation unit 35 has a sampling period of, for example, about 200 frames / second at the maximum, it can track and analyze even a relatively fast movement of the controller 5.

撮像情報演算部35は、赤外線フィルタ38、レンズ39、撮像素子40、および画像処理回路41を含んでいる。赤外線フィルタ38は、コントローラ5の前方から入射する光から赤外線のみを通過させる。レンズ39は、赤外線フィルタ38を透過した赤外線を集光して撮像素子40へ入射させる。撮像素子40は、例えばCMOSセンサやあるいはCCDセンサのような固体撮像素子であり、レンズ39が集光した赤外線を受光して画像信号を出力する。ここで、テレビ2の表示画面近傍に配置されるマーカ部6のマーカ6Rおよび6Lは、テレビ2の前方に向かって赤外光を出力する赤外LEDで構成される。したがって、赤外線フィルタ38を設けることによって、撮像素子40は、赤外線フィルタ38を通過した赤外線だけを受光して画像データを生成するので、マーカ6Rおよび6Lの画像をより正確に撮像することができる。以下では、撮像素子40によって撮像された画像を撮像画像と呼ぶ。撮像素子40によって生成された画像データは、画像処理回路41で処理される。画像処理回路41は、撮像画像内における撮像対象(マーカ6Rおよび6L)の位置を算出する。画像処理回路41は、算出された位置を示す座標を通信部36のマイコン42へ出力する。この座標のデータは、マイコン42によって操作データとしてゲーム装置3に送信される。以下では、上記座標を「マーカ座標」と呼ぶ。マーカ座標はコントローラ5自体の向き(姿勢)や位置に対応して変化するので、ゲーム装置3はこのマーカ座標を用いてコントローラ5の向きや位置を算出することができる。   The imaging information calculation unit 35 includes an infrared filter 38, a lens 39, an imaging element 40, and an image processing circuit 41. The infrared filter 38 passes only infrared rays from the light incident from the front of the controller 5. The lens 39 collects the infrared light transmitted through the infrared filter 38 and makes it incident on the image sensor 40. The image sensor 40 is a solid-state image sensor such as a CMOS sensor or a CCD sensor, for example, and receives the infrared light collected by the lens 39 and outputs an image signal. Here, the markers 6 </ b> R and 6 </ b> L of the marker unit 6 disposed in the vicinity of the display screen of the television 2 are configured by infrared LEDs that output infrared light toward the front of the television 2. Therefore, by providing the infrared filter 38, the image sensor 40 receives only the infrared light that has passed through the infrared filter 38 and generates image data, so that the images of the markers 6R and 6L can be captured more accurately. Hereinafter, an image captured by the image sensor 40 is referred to as a captured image. Image data generated by the image sensor 40 is processed by the image processing circuit 41. The image processing circuit 41 calculates the position of the imaging target (markers 6R and 6L) in the captured image. The image processing circuit 41 outputs coordinates indicating the calculated position to the microcomputer 42 of the communication unit 36. The coordinate data is transmitted to the game apparatus 3 as operation data by the microcomputer 42. Hereinafter, the coordinates are referred to as “marker coordinates”. Since the marker coordinates change corresponding to the orientation (posture) and position of the controller 5 itself, the game apparatus 3 can calculate the orientation and position of the controller 5 using the marker coordinates.

加速度センサ37は、コントローラ5の加速度(重力加速度を含む)を検出する、すなわち、コントローラ5に加わる力(重力を含む)を検出する。加速度センサ37は、当該加速度センサ37の検出部に加わっている加速度のうち、センシング軸方向に沿った直線方向の加速度(直線加速度)の値を検出する。例えば、2軸以上の多軸加速度センサの場合には、加速度センサの検出部に加わっている加速度として、各軸に沿った成分の加速度をそれぞれ検出する。例えば、3軸または2軸の加速度センサは、アナログ・デバイセズ株式会社(Analog Devices, Inc.)またはSTマイクロエレクトロニクス社(STMicroelectronics N.V.)から入手可能である種類のものでもよい。なお、加速度センサ37は、例えば静電容量式の加速度センサであるとするが、他の方式の加速度センサを用いるようにしてもよい。   The acceleration sensor 37 detects the acceleration (including gravity acceleration) of the controller 5, that is, detects the force (including gravity) applied to the controller 5. The acceleration sensor 37 detects the value of the acceleration (linear acceleration) in the linear direction along the sensing axis direction among the accelerations applied to the detection unit of the acceleration sensor 37. For example, in the case of a multi-axis acceleration sensor having two or more axes, the component acceleration along each axis is detected as the acceleration applied to the detection unit of the acceleration sensor. For example, the triaxial or biaxial acceleration sensor may be of the type available from Analog Devices, Inc. or ST Microelectronics NV. The acceleration sensor 37 is, for example, a capacitance type acceleration sensor, but other types of acceleration sensors may be used.

本実施形態では、加速度センサ37は、コントローラ5を基準とした上下方向(図3に示すY軸方向)、左右方向(図3に示すX軸方向)および前後方向(図3に示すZ軸方向)の3軸方向に関してそれぞれ直線加速度を検出する。加速度センサ37は、各軸に沿った直線方向に関する加速度を検出するものであるため、加速度センサ37からの出力は3軸それぞれの直線加速度の値を表すものとなる。すなわち、検出された加速度は、コントローラ5を基準に設定されるXYZ座標系における3次元のベクトル(AX,AY,AZ)として表される。以下では、加速度センサ37によって検出される3軸に関する各加速度値を各成分とするベクトルを加速度ベクトルと呼ぶ。   In the present embodiment, the acceleration sensor 37 has a vertical direction (Y-axis direction shown in FIG. 3), a horizontal direction (X-axis direction shown in FIG. 3), and a front-back direction (Z-axis direction shown in FIG. 3) with reference to the controller 5. ) Linear acceleration is detected in each of the three axis directions. Since the acceleration sensor 37 detects acceleration in the linear direction along each axis, the output from the acceleration sensor 37 represents the linear acceleration value of each of the three axes. That is, the detected acceleration is represented as a three-dimensional vector (AX, AY, AZ) in the XYZ coordinate system set with reference to the controller 5. Hereinafter, a vector having the respective acceleration values related to the three axes detected by the acceleration sensor 37 as components is referred to as an acceleration vector.

加速度センサ37が検出した加速度を示すデータ(加速度データ)は、通信部36へ出力される。なお、加速度センサ37が検出した加速度は、コントローラ5自体の向き(姿勢)や動きに対応して変化するので、ゲーム装置3は加速度データを用いてコントローラ5の向きや動きを算出することができる。   Data indicating the acceleration detected by the acceleration sensor 37 (acceleration data) is output to the communication unit 36. Note that the acceleration detected by the acceleration sensor 37 changes in accordance with the orientation (posture) and movement of the controller 5 itself, so the game apparatus 3 can calculate the orientation and movement of the controller 5 using the acceleration data. .

なお、加速度センサ37から出力される加速度の信号に基づいて、ゲーム装置3のプロセッサ(例えばCPU10)またはコントローラ5のプロセッサ(例えばマイコン42)等のコンピュータが処理を行うことによって、コントローラ5に関するさらなる情報を推測または算出(判定)することができることは、当業者であれば本明細書の説明から容易に理解できるであろう。例えば、加速度センサ37を搭載するコントローラ5が静止状態であることを前提としてコンピュータ側の処理が実行される場合(すなわち、加速度センサによって検出される加速度が重力加速度のみであるとして処理が実行される場合)、コントローラ5が現実に静止状態であれば、検出された加速度に基づいてコントローラ5の姿勢が重力方向に対して傾いているか否かまたはどの程度傾いているかを知ることができる。具体的には、加速度センサ37の検出軸が鉛直下方向を向いている状態を基準としたとき、1G(重力加速度)がかかっているか否かだけで傾いているか否かを知ることができるし、その大きさによってどの程度傾いているかも知ることができる。また、多軸の加速度センサ37の場合には、さらに各軸の加速度の信号に対して処理を施すことによって、重力方向に対してどの程度傾いているかをより詳細に知ることができる。この場合において、プロセッサは、加速度センサ37からの出力に基づいてコントローラ5の傾き角度を算出してもよいし、当該傾き角度を算出せずに、コントローラ5の傾き方向を算出するようにしてもよい。このように、加速度センサ37をプロセッサと組み合わせて用いることによって、コントローラ5の傾きまたは姿勢を判定することができる。   In addition, based on the acceleration signal output from the acceleration sensor 37, a computer such as a processor (for example, the CPU 10) of the game apparatus 3 or a processor (for example, the microcomputer 42) of the controller 5 performs processing, whereby further information regarding the controller 5 is obtained. Those skilled in the art will be able to easily understand from the description of the present specification that can be estimated or calculated (determined). For example, when processing on the computer side is executed on the assumption that the controller 5 on which the acceleration sensor 37 is mounted is stationary (that is, the processing is executed assuming that the acceleration detected by the acceleration sensor is only gravitational acceleration). When the controller 5 is actually stationary, it can be determined whether or not the attitude of the controller 5 is inclined with respect to the direction of gravity based on the detected acceleration. Specifically, when the detection axis of the acceleration sensor 37 is oriented vertically downward, it can be determined whether or not it is tilted only by whether or not 1G (gravity acceleration) is applied. You can also know how much it is tilted according to its size. In the case of the multi-axis acceleration sensor 37, the degree of inclination with respect to the direction of gravity can be known in more detail by further processing the acceleration signal of each axis. In this case, the processor may calculate the tilt angle of the controller 5 based on the output from the acceleration sensor 37, or may calculate the tilt direction of the controller 5 without calculating the tilt angle. Good. In this way, by using the acceleration sensor 37 in combination with the processor, the inclination or posture of the controller 5 can be determined.

一方、コントローラ5が動的な状態(コントローラ5が動かされている状態)であることを前提とする場合には、加速度センサ37は重力加速度に加えてコントローラ5の動きに応じた加速度を検出するので、検出された加速度から重力加速度の成分を所定の処理により除去することによってコントローラ5の動き方向を知ることができる。また、コントローラ5が動的な状態であることを前提とする場合であっても、検出された加速度から、加速度センサの動きに応じた加速度の成分を所定の処理により除去することによって、重力方向に対するコントローラ5の傾きを知ることが可能である。なお、他の実施例では、加速度センサ37は、内蔵の加速度検出手段で検出された加速度信号をマイコン42に出力する前に当該加速度信号に対して所定の処理を行うための、組込み式の処理装置または他の種類の専用の処理装置を備えていてもよい。組込み式または専用の処理装置は、例えば、加速度センサ37が静的な加速度(例えば、重力加速度)を検出するために用いられる場合、加速度信号を傾斜角(あるいは、他の好ましいパラメータ)に変換するものであってもよい。   On the other hand, when it is assumed that the controller 5 is in a dynamic state (a state in which the controller 5 is moved), the acceleration sensor 37 detects an acceleration corresponding to the movement of the controller 5 in addition to the gravitational acceleration. Therefore, the movement direction of the controller 5 can be known by removing the gravitational acceleration component from the detected acceleration by a predetermined process. Even if it is assumed that the controller 5 is in a dynamic state, the direction of gravity is obtained by removing the acceleration component corresponding to the movement of the acceleration sensor from the detected acceleration by a predetermined process. It is possible to know the inclination of the controller 5 with respect to. In another embodiment, the acceleration sensor 37 is a built-in process for performing a predetermined process on the acceleration signal before outputting the acceleration signal detected by the built-in acceleration detection means to the microcomputer 42. An apparatus or other type of dedicated processing apparatus may be provided. A built-in or dedicated processing device converts the acceleration signal into a tilt angle (or other preferred parameter) if, for example, the acceleration sensor 37 is used to detect static acceleration (eg, gravitational acceleration). It may be a thing.

通信部36は、マイコン42、メモリ43、無線モジュール44、およびアンテナ45を含んでいる。マイコン42は、処理を行う際にメモリ43を記憶領域として用いながら、マイコン42が取得したデータをゲーム装置3へ無線送信する無線モジュール44を制御する。   The communication unit 36 includes a microcomputer 42, a memory 43, a wireless module 44, and an antenna 45. The microcomputer 42 controls the wireless module 44 that wirelessly transmits data acquired by the microcomputer 42 to the game apparatus 3 while using the memory 43 as a storage area when performing processing.

操作部32、撮像情報演算部35、および加速度センサ37からマイコン42へ出力された各データ(操作ボタンデータ、マーカ座標データ、および加速度データ)は、一時的にメモリ43に格納される。これらの各データは、上記操作データとしてゲーム装置3へ送信される。すなわち、マイコン42は、ゲーム装置3の無線コントローラモジュール19への送信タイミングが到来すると、メモリ43に格納されている操作データを無線モジュール44へ出力する。無線モジュール44は、例えばBluetooth(ブルートゥース)(登録商標)の技術を用いて、所定周波数の搬送波を操作データで変調し、その微弱電波信号をアンテナ45から放射する。つまり、操作データは、無線モジュール44で微弱電波信号に変換されてコントローラ5から送信される。微弱電波信号はゲーム装置3側の無線コントローラモジュール19で受信される。受信された微弱電波信号について復調や復号を行うことによって、ゲーム装置3は操作データを取得することができる。そして、ゲーム装置3のCPU10は、取得した操作データとゲームプログラムとに基づいてゲーム処理を行う。なお、通信部36から無線コントローラモジュール19への無線送信は所定の周期毎に逐次行われるが、ゲームの処理は1/60秒を単位として(1フレーム時間として)行われることが一般的であるので、この時間以下の周期で送信を行うことが好ましい。コントローラ5の通信部36は、例えば1/200秒に1回の割合で各操作データをゲーム装置3の無線コントローラモジュール19へ出力する。   Each data (operation button data, marker coordinate data, and acceleration data) output from the operation unit 32, the imaging information calculation unit 35, and the acceleration sensor 37 to the microcomputer 42 is temporarily stored in the memory 43. Each of these data is transmitted to the game apparatus 3 as the operation data. That is, the microcomputer 42 outputs the operation data stored in the memory 43 to the wireless module 44 when the transmission timing to the wireless controller module 19 of the game apparatus 3 arrives. The wireless module 44 modulates a carrier wave of a predetermined frequency with operation data using, for example, Bluetooth (registered trademark) technology, and radiates a weak radio signal from the antenna 45. That is, the operation data is converted into a weak radio signal by the wireless module 44 and transmitted from the controller 5. The weak radio signal is received by the wireless controller module 19 on the game apparatus 3 side. By demodulating and decoding the received weak radio signal, the game apparatus 3 can acquire operation data. And CPU10 of the game device 3 performs a game process based on the acquired operation data and a game program. Note that the wireless transmission from the communication unit 36 to the wireless controller module 19 is sequentially performed at predetermined intervals, but the game processing is generally performed in units of 1/60 seconds (one frame time). Therefore, it is preferable to perform transmission at a period equal to or shorter than this time. The communication unit 36 of the controller 5 outputs each operation data to the wireless controller module 19 of the game apparatus 3 at a rate of once every 1/200 seconds, for example.

上記コントローラ5を用いることによって、プレイヤは、各操作ボタンを押下する従来の一般的なゲーム操作に加えて、コントローラ5によって画面上の任意の位置を指示する操作、および、コントローラ5自体を動かす操作を行うことができる。例えば、プレイヤは、コントローラ5を動かすゲーム操作、および、コントローラ5によってテレビ2の画面上の位置を指し示すゲーム操作を行うことができる。   By using the controller 5, in addition to the conventional general game operation of pressing each operation button, the player designates an arbitrary position on the screen by the controller 5 and moves the controller 5 itself. It can be performed. For example, the player can perform a game operation for moving the controller 5 and a game operation for pointing the position on the screen of the television 2 using the controller 5.

(ゲーム装置における処理の概要)
以下、ゲーム装置3で実行される処理の概要について説明する。以下では、プレイヤが仮想の3次元空間においてプレイヤキャラクタを操作して遊ぶゲームにおけるゲーム処理を説明する。
(Outline of processing in game device)
Hereinafter, an outline of processing executed by the game apparatus 3 will be described. Hereinafter, game processing in a game in which a player plays by operating a player character in a virtual three-dimensional space will be described.

図8は、本実施形態におけるゲームのゲーム画面の一例を示す図である。図8に示すように、本ゲームにおける仮想の3次元空間(ゲーム空間)には、地面オブジェクト51および壁オブジェクト52が配置される。地面オブジェクト51および壁オブジェクト52は、ゲーム空間内に固定して配置される地形オブジェクトである。なお、ゲーム空間における位置を表すためのxyz座標系(ワールド座標系)が定義されており、ここでは地面オブジェクト51はxz平面に平行に配置されている。また、壁オブジェクト52はxy平面に平行に配置されている。なお、図8では3次元空間における方向を示すためにxyz座標軸を記載しているが、実際には座標軸は表示されない。   FIG. 8 is a diagram showing an example of the game screen of the game in the present embodiment. As shown in FIG. 8, a ground object 51 and a wall object 52 are arranged in a virtual three-dimensional space (game space) in this game. The ground object 51 and the wall object 52 are terrain objects that are fixedly arranged in the game space. Note that an xyz coordinate system (world coordinate system) for representing a position in the game space is defined. Here, the ground object 51 is arranged in parallel to the xz plane. The wall object 52 is disposed in parallel to the xy plane. In FIG. 8, xyz coordinate axes are shown to indicate directions in a three-dimensional space, but actually no coordinate axes are displayed.

ゲーム空間にはさらに、プレイヤの操作対象であるプレイヤオブジェクト53が登場する。プレイヤオブジェクト53は、コントローラ5に対する操作入力に従って、ゲーム空間を移動したり、ジャンプしたり、飛んだりすることができる。したがって、プレイヤオブジェクト53は、ジャンプしたり飛んだりすることにより、地面オブジェクト51および壁オブジェクト52から離れて宙に浮いた状態となることがある。   Furthermore, a player object 53 that is an operation target of the player appears in the game space. The player object 53 can move, jump, and fly in the game space according to an operation input to the controller 5. Therefore, the player object 53 may float away from the ground object 51 and the wall object 52 by jumping or flying.

また、本実施形態におけるゲームでは、ゲーム空間には重力方向が定義される。つまり、ゲーム装置3は、仮想的な重力を考慮してプレイヤオブジェクト53によるジャンプ等の動作や他のオブジェクトの挙動を計算する。なお、本実施形態においては、重力方向は、常に一定ではなく、ゲームの状況に応じて変化するものとする。例えば、プレイヤオブジェクト53がゲーム空間のある地点を通過したことによって、重力方向が90°変化し、変化前に壁であった場所を歩けるようになったり、変化前の地面が壁となったりする。また、本実施形態においては、ゲーム空間における位置によって重力方向が異なる場合がある。例えば、地面オブジェクト51は星のような大きな球体であってもよく、このとき、地面(球体の表面)での重力方向は球体の中心を向くように設定されてもよい。   In the game according to this embodiment, the direction of gravity is defined in the game space. In other words, the game apparatus 3 calculates an action such as a jump by the player object 53 and the behavior of another object in consideration of virtual gravity. In the present embodiment, the direction of gravity is not always constant, and changes according to the game situation. For example, when the player object 53 passes a certain point in the game space, the direction of gravity changes by 90 °, and it becomes possible to walk on a place that was a wall before the change, or the ground before the change becomes a wall. . In the present embodiment, the direction of gravity may vary depending on the position in the game space. For example, the ground object 51 may be a large sphere such as a star, and at this time, the direction of gravity on the ground (the surface of the sphere) may be set to face the center of the sphere.

以上に説明したようなゲームにおいて、プレイヤは、コントローラ5を用いて3次元空間内のプレイヤオブジェクト53を操作し、ゴール地点に到達する、あるいは、特定の敵を倒す等の所定の課題を達成することを目的としてゲームを進行する。   In the game described above, the player operates the player object 53 in the three-dimensional space using the controller 5 to achieve a predetermined task such as reaching the goal point or defeating a specific enemy. The game progresses for the purpose.

上記のような3次元空間内でプレイヤオブジェクト53が動作するゲームにおいて、プレイヤオブジェクト53が例えばジャンプ中や飛行中であって宙に浮いた状態にある場合、プレイヤは、3次元空間におけるプレイヤオブジェクト53の位置を正確に把握しづらい。つまり、宙に浮いた状態では、xz平面上におけるプレイヤオブジェクト53の位置、および、xy平面上におけるプレイヤオブジェクト53の位置がわかりづらい。プレイヤオブジェクト53の正確な位置が把握できなければ、プレイヤは、プレイヤオブジェクト53をどのように操作すべきか判断することができないので、プレイヤオブジェクト53を正確に操作することができないおそれがある。   In a game in which the player object 53 moves in the three-dimensional space as described above, when the player object 53 is in a state of floating in the air, for example, during a jump or flight, the player has a player object 53 in the three-dimensional space. Difficult to grasp the position of That is, in the state of floating in the air, it is difficult to understand the position of the player object 53 on the xz plane and the position of the player object 53 on the xy plane. If the exact position of the player object 53 cannot be grasped, the player cannot determine how to operate the player object 53, so there is a possibility that the player object 53 cannot be accurately operated.

そこで、本実施形態では、ゲーム装置3は、プレイヤオブジェクト53の3次元空間における位置をプレイヤが把握しやすくなるように、2方向にプレイヤオブジェクト53の影を描画する。具体的には図8に示すように、ゲーム空間には第1の影54および第2の影55が描画される。   Therefore, in the present embodiment, the game apparatus 3 draws the shadow of the player object 53 in two directions so that the player can easily grasp the position of the player object 53 in the three-dimensional space. Specifically, as shown in FIG. 8, a first shadow 54 and a second shadow 55 are drawn in the game space.

第1の影54は、地面オブジェクト51に対してプレイヤオブジェクト53の位置を重力方向に投影した位置に描画される。地面オブジェクト51上における第1の影54の位置によって、プレイヤは、重力方向に垂直なxz平面におけるプレイヤオブジェクト53の位置を直感的に把握することができる。さらに、第1の影54とプレイヤオブジェクト53との距離によって、プレイヤは、地面オブジェクト51からプレイヤオブジェクト53までの距離を直感的に把握することができる。   The first shadow 54 is drawn at a position obtained by projecting the position of the player object 53 with respect to the ground object 51 in the direction of gravity. From the position of the first shadow 54 on the ground object 51, the player can intuitively grasp the position of the player object 53 on the xz plane perpendicular to the direction of gravity. Furthermore, the player can intuitively grasp the distance from the ground object 51 to the player object 53 based on the distance between the first shadow 54 and the player object 53.

第2の影55は、壁オブジェクト52に対してプレイヤオブジェクト53の位置を重力方向に垂直な方向に投影した位置に描画される。ここでは、第2の影55が投影される方向、すなわち、第2の影55を描画するためにプレイヤオブジェクトを投影する方向を「投影方向」と呼ぶ。図8では、投影方向はz軸正方向であるとする。壁オブジェクト52上における第2の影55の位置によって、プレイヤは、投影方向に垂直なxy平面におけるプレイヤオブジェクト53の位置を直感的に把握することができる。さらに、第2の影55とプレイヤオブジェクト53との距離によって、プレイヤは、壁オブジェクト52からプレイヤオブジェクト53までの距離を直感的に把握することができる。   The second shadow 55 is drawn at a position obtained by projecting the position of the player object 53 with respect to the wall object 52 in a direction perpendicular to the direction of gravity. Here, the direction in which the second shadow 55 is projected, that is, the direction in which the player object is projected in order to draw the second shadow 55 is referred to as a “projection direction”. In FIG. 8, it is assumed that the projection direction is the z-axis positive direction. From the position of the second shadow 55 on the wall object 52, the player can intuitively grasp the position of the player object 53 on the xy plane perpendicular to the projection direction. Furthermore, the player can intuitively grasp the distance from the wall object 52 to the player object 53 based on the distance between the second shadow 55 and the player object 53.

以上のように、本実施形態によれば、ゲーム装置3は、プレイヤオブジェクトの影として、異なる2方向に投影される2つの影を描く。これによって、3次元空間におけるプレイヤオブジェクトの立体的な位置を直感的にわかりやすくプレイヤに理解させることができる。なお、2つの影を投影する方向を略垂直な方向とすることによって、2つの影を投影する方向が近い場合に比べて、3次元空間におけるオブジェクトの位置をプレイヤに認識させやすくなる。   As described above, according to the present embodiment, the game apparatus 3 draws two shadows projected in two different directions as the shadow of the player object. As a result, the player can intuitively understand the three-dimensional position of the player object in the three-dimensional space. Note that by making the direction in which the two shadows are projected substantially perpendicular, it is easier for the player to recognize the position of the object in the three-dimensional space than in the case where the directions in which the two shadows are projected are close.

なお、本実施形態では、ゲーム装置3は、2つの影を常に描画するのではなく、ゲーム空間において予め設定される影描画エリア内にプレイヤオブジェクト53が位置する場合のみ2つの影を描画する。そして、プレイヤオブジェクト53が影描画エリアの外に位置する場合、第1の影のみを描画する。影描画エリアは、第2の影が投影される投影面となる地形オブジェクト(例えば図8に示す壁オブジェクト52)が存在する場所に設定される。図8を例にとって説明すると、壁オブジェクト52の前方に影描画エリアが設定され、壁オブジェクト52の後方や側方には影描画エリアが設定されない。また、影描画エリアは、例えば、プレイヤオブジェクト53が宙に浮いている場合のように、3次元空間における位置が特に把握しづらいことが想定される場所に設定されてもよい。例えば、プレイヤオブジェクト53が所定の条件(アイテム取得)を満たした場合にのみ空を飛べるようになる場合、所定の条件を満たすことができる場所付近(アイテムがある場所の付近)に影描画エリアを設定してもよい。以上のように、ゲーム空間内に影描画エリアを設定することによって、第2の影が不要な場合には第2の影を描画する処理を省略することができるので、ゲーム装置3の処理負担を軽減することができる。例えば、影が投影される投影面となるオブジェクトがないために影を描画する処理が無駄になる場合や、第2の影がなくてもプレイヤオブジェクト53の位置の把握が容易であると想定される場合等には、第2の影を描画する処理を省略することにより、ゲーム装置3の処理負担を軽減することができる。   In the present embodiment, the game apparatus 3 does not always draw two shadows, but draws two shadows only when the player object 53 is located within a preset shadow drawing area in the game space. When the player object 53 is located outside the shadow drawing area, only the first shadow is drawn. The shadow drawing area is set to a place where a terrain object (for example, the wall object 52 shown in FIG. 8) serving as a projection plane on which the second shadow is projected exists. Referring to FIG. 8 as an example, a shadow drawing area is set in front of the wall object 52, and no shadow drawing area is set behind or on the side of the wall object 52. Further, the shadow drawing area may be set to a place where it is assumed that the position in the three-dimensional space is particularly difficult to grasp, for example, when the player object 53 is floating in the air. For example, when the player object 53 can fly in the sky only when a predetermined condition (item acquisition) is satisfied, a shadow drawing area is set near a place where the predetermined condition can be satisfied (near the place where the item is present). It may be set. As described above, by setting a shadow drawing area in the game space, when the second shadow is unnecessary, the process of drawing the second shadow can be omitted. Can be reduced. For example, it is assumed that there is no object to be a projection plane on which the shadow is projected, and thus the process of drawing the shadow is useless, or it is easy to grasp the position of the player object 53 without the second shadow. In such a case, the processing load of the game apparatus 3 can be reduced by omitting the process of drawing the second shadow.

なお、本実施形態では、第1の影と第2の影とは、表示形態が互いに異なるように描画される。具体的には、第1の影は、プレイヤオブジェクト53の形状を地面オブジェクト51に投影した形状となっているのに対して、第2の影は、円形(または楕円形)であり、各影の形状は異なっている。このように、2つの影の表示形態を変えることによって、プレイヤは2つの影を区別して認識することができる。これによって、プレイヤは、重力方向(第1の影が投影される方向)を明確に認識することができる。本ゲームのように、ゲーム状況に応じて重力方向が変化するゲームにとっては、2つの影の表示形態を異ならせることによって重力方向をプレイヤにわかりやすくすることは特に有効である。   In the present embodiment, the first shadow and the second shadow are drawn so that their display forms are different from each other. Specifically, the first shadow has a shape obtained by projecting the shape of the player object 53 onto the ground object 51, whereas the second shadow has a circular shape (or an oval shape). The shape is different. Thus, by changing the display form of the two shadows, the player can distinguish and recognize the two shadows. Thus, the player can clearly recognize the direction of gravity (the direction in which the first shadow is projected). For a game in which the direction of gravity changes according to the game situation, such as this game, it is particularly effective to make the direction of gravity easy to understand by making the two shadow display forms different.

(ゲーム処理の詳細)
以下、図9〜図14を参照して、本実施形態におけるゲーム処理の詳細について説明する。図9は、ゲーム装置3のメインメモリ(外部メインメモリ12または内部メインメモリ11e)に記憶される主なデータを示す図である。図9に示すように、メインメモリには、ゲームプログラム60、操作データ61、およびゲーム処理用データ62等が記憶される。なお、メインメモリには、図9に示すデータの他、ゲームに登場する各種オブジェクトの画像データや、オブジェクトの各種パラメータを示すデータ等、ゲーム処理に必要なデータが記憶される。
(Details of game processing)
Hereinafter, the game process in the present embodiment will be described in detail with reference to FIGS. FIG. 9 is a diagram showing main data stored in the main memory (external main memory 12 or internal main memory 11e) of the game apparatus 3. As shown in FIG. As shown in FIG. 9, the main memory stores a game program 60, operation data 61, game processing data 62, and the like. In addition to the data shown in FIG. 9, the main memory stores data necessary for game processing, such as image data of various objects appearing in the game and data indicating various parameters of the objects.

ゲームプログラム60は、本実施形態に係る画像処理プログラムの一例であり、ゲーム装置3に電源が投入された後の適宜のタイミングで光ディスク4からその一部または全部が読み込まれてメインメモリに記憶される。   The game program 60 is an example of an image processing program according to the present embodiment, and a part or all of the game program 60 is read from the optical disc 4 and stored in the main memory at an appropriate timing after the game apparatus 3 is turned on. The

操作データ61は、コントローラ5からゲーム装置3へ送信されてくる操作データである。操作データ61には、各操作ボタン32a〜32iに対する入力状態を示す操作ボタンデータ、上記撮像情報演算部35によって算出されるマーカ座標を示すマーカ座標データ、および、加速度センサ37によって検出される加速度ベクトルを示す加速度データが含まれる。上述したように、操作データはコントローラ5からゲーム装置3へ1/200秒に1回の割合で送信されるので、メインメモリに記憶される操作データはこの割合で更新される。メインメモリには、最新の(最後に取得された)操作データのみが記憶されればよい。   The operation data 61 is operation data transmitted from the controller 5 to the game apparatus 3. The operation data 61 includes operation button data indicating input states for the operation buttons 32 a to 32 i, marker coordinate data indicating marker coordinates calculated by the imaging information calculation unit 35, and an acceleration vector detected by the acceleration sensor 37. Is included. As described above, since the operation data is transmitted from the controller 5 to the game apparatus 3 at a rate of once every 1/200 seconds, the operation data stored in the main memory is updated at this rate. Only the latest (last acquired) operation data may be stored in the main memory.

ゲーム処理用データ62は、後述するゲーム処理(図12)において用いられるデータである。ゲーム処理用データ62は、現在エリアデータ63、オブジェクト位置データ64、重力方向データ65、第1交点位置データ66、第2交点位置データ67、第1影画像データ68、および第2影画像データ69を含む。   The game process data 62 is data used in a game process (FIG. 12) described later. The game processing data 62 includes current area data 63, object position data 64, gravity direction data 65, first intersection position data 66, second intersection position data 67, first shadow image data 68, and second shadow image data 69. including.

現在エリアデータ63は、プレイヤオブジェクトが現在存在するフィールドに設定されている影描画エリアに関する影描画エリアデータを含むデータである。ここで、フィールドとは、地形オブジェクト等によって構成される1つのゲーム空間であり、本ゲームにおいては、複数のゲーム空間(フィールド)が用意されているものとする。また、影描画エリアデータとは、影描画エリアに関する各種情報を示すデータである。   The current area data 63 is data including shadow drawing area data related to the shadow drawing area set in the field where the player object currently exists. Here, the field is one game space composed of terrain objects and the like, and in this game, a plurality of game spaces (fields) are prepared. The shadow drawing area data is data indicating various types of information related to the shadow drawing area.

図10は、現在エリアデータの一例を示す図である。図10に示すように、現在エリアデータに含まれる影描画エリアデータは、1つの影描画エリアに関するエリアID、フィールドID、エリア位置、エリアサイズ、投影方向、および最大距離の各情報を示すデータである。なお、図10に示す現在エリアデータは、フィールドIDが“001”であるフィールドに設定される影描画エリアに関する影描画エリアデータを含んでいる。本実施形態では、各フィールドに設定される各影描画エリアに関する影描画エリアデータは光ディスク4に記憶されている。プレイヤオブジェクトが存在するフィールドが変更されると、変更後のフィールドに設定される影描画エリアに関する影描画エリアデータが光ディスク4から読み出され、新たな現在エリアデータ63としてメインメモリに記憶される。以下、影描画エリアデータにより示される各情報について説明する。   FIG. 10 is a diagram illustrating an example of current area data. As shown in FIG. 10, the shadow drawing area data included in the current area data is data indicating each information of area ID, field ID, area position, area size, projection direction, and maximum distance regarding one shadow drawing area. is there. Note that the current area data shown in FIG. 10 includes shadow drawing area data related to the shadow drawing area set in the field whose field ID is “001”. In the present embodiment, shadow drawing area data regarding each shadow drawing area set in each field is stored in the optical disc 4. When the field in which the player object exists is changed, the shadow drawing area data relating to the shadow drawing area set in the changed field is read from the optical disc 4 and stored as new current area data 63 in the main memory. Hereinafter, each piece of information indicated by the shadow drawing area data will be described.

エリアIDは、影描画エリアを識別するための番号であり、影描画エリアに固有の番号である。また、フィールドIDは、影描画エリアが存在するフィールドを識別するための番号であり、フィールドに固有の番号である。   The area ID is a number for identifying the shadow drawing area, and is a number unique to the shadow drawing area. The field ID is a number for identifying the field in which the shadow drawing area exists, and is a number unique to the field.

図11は、ゲーム空間内に設定される影描画エリアの一例を示す図である。図11はゲーム空間の一部を表しており、図11では壁オブジェクト52の前方に影描画エリア71(図11において太線の点線で示される領域)が設定されている。図11に示されるように、本実施形態では、影描画エリアは直方体の領域であり、各辺がx軸、y軸、およびz軸のいずれかと平行となるように設定される。   FIG. 11 is a diagram illustrating an example of a shadow drawing area set in the game space. FIG. 11 shows a part of the game space. In FIG. 11, a shadow drawing area 71 (a region indicated by a thick dotted line in FIG. 11) is set in front of the wall object 52. As shown in FIG. 11, in this embodiment, the shadow drawing area is a rectangular parallelepiped area, and each side is set to be parallel to any of the x-axis, y-axis, and z-axis.

エリア位置は、影描画エリアが設定される位置であり、本実施形態では、直方体である影描画エリアの中心位置P(図11参照)である。具体的には、エリア位置は、上記ワールド座標系の座標値によって表される。例えば図11においては、エリアIDが“001”である影描画エリアに対して“(350,550,250)”という座標値が関連付けられている。また、上記エリアサイズは、影描画エリアの大きさである。具体的には、エリアサイズは、直方体である影描画エリアの3辺の長さそれぞれの1/2の長さを表す。つまり、影描画エリアは、エリア位置により示される座標値を中心に、エリアサイズにより示される長さの幅を有する領域として特定される。例えば図11においては、エリアIDが“001”である影描画エリアに対して“(500,800,500)”という3つの値が関連付けられている。したがって、エリアIDが“001”である影描画エリアは、“(350,550,250)”を中心に、x軸方向に500,y軸方向に800、z軸方向に500の幅を有する領域、すなわち、“−150≦x≦850,−250≦y≦1350,−250≦z≦750”で表される領域となる。以上のエリア位置およびエリアサイズの情報によって、ゲーム空間内における影描画エリアの範囲が特定される。   The area position is a position where the shadow drawing area is set, and in this embodiment, is the center position P (see FIG. 11) of the shadow drawing area which is a rectangular parallelepiped. Specifically, the area position is represented by coordinate values in the world coordinate system. For example, in FIG. 11, the coordinate value “(350, 550, 250)” is associated with the shadow drawing area whose area ID is “001”. The area size is the size of the shadow drawing area. Specifically, the area size represents a length that is ½ of the length of each of the three sides of the shadow drawing area that is a rectangular parallelepiped. That is, the shadow drawing area is specified as an area having a width of the length indicated by the area size with the coordinate value indicated by the area position as the center. For example, in FIG. 11, three values “(500, 800, 500)” are associated with the shadow drawing area whose area ID is “001”. Therefore, the shadow drawing area whose area ID is “001” is an area having a width of 500 in the x-axis direction, 800 in the y-axis direction, and 500 in the z-axis direction centering on “(350, 550, 250)”. That is, the region is represented by “−150 ≦ x ≦ 850, −250 ≦ y ≦ 1350, −250 ≦ z ≦ 750”. The range of the shadow drawing area in the game space is specified by the area position and area size information.

投影方向は、影描画エリアにおいて第2の影が投影される方向である。具体的には、この投影方向は、ゲーム空間内における方向を示すベクトル(図11に示すベクトルV)として表される。本実施形態では、当該ベクトルを単位ベクトルとして表す。例えば、投影方向が図11に示すベクトルVの方向である場合、投影方向はz軸負方向、すなわち、(0,0,−1)と表される。また、図10に示されるように、本実施形態では影描画エリア毎に投影方向が個別に設定されるので、ゲーム開発者は、第2の影が投影される方向を影描画エリア毎に自由に設定することが可能である。   The projection direction is a direction in which the second shadow is projected in the shadow drawing area. Specifically, this projection direction is represented as a vector (vector V shown in FIG. 11) indicating the direction in the game space. In the present embodiment, the vector is represented as a unit vector. For example, when the projection direction is the direction of the vector V shown in FIG. 11, the projection direction is expressed as a negative z-axis direction, that is, (0, 0, −1). Also, as shown in FIG. 10, in this embodiment, since the projection direction is individually set for each shadow drawing area, the game developer can freely set the direction in which the second shadow is projected for each shadow drawing area. Can be set.

最大距離は、第2の影が投影される最大の距離である。つまり、プレイヤオブジェクトから投影方向に向かって最大距離までの範囲内に、第2の影を描くオブジェクト(例えば壁オブジェクト)が存在する場合、第2の影が描画される。   The maximum distance is the maximum distance at which the second shadow is projected. That is, when an object (for example, a wall object) that draws the second shadow exists within the range from the player object to the maximum distance in the projection direction, the second shadow is drawn.

図9の説明に戻り、オブジェクト位置データ64は、ゲーム空間内におけるプレイヤオブジェクトの位置を示す。具体的には、当該位置は、上記ワールド座標系の座標値によって表される。プレイヤオブジェクトの位置は、プレイヤオブジェクトの所定部分の位置(例えば、体の中心の位置)に設定される。なお、ゲーム装置3は、プレイヤの操作性等を考慮して、プレイヤオブジェクトの位置を適宜変化させるようにしてもよい。例えば、プレイヤオブジェクトの外形形状が変形する場合には、外形形状に合わせてプレイヤオブジェクトの位置を適宜変更するようにしてもよい。より具体的には、例えばプレイヤオブジェクトが体を丸めて回転しながらジャンプしている場合には、プレイヤオブジェクトの外形形状が球体に近くなる。この場合、球体の中心付近の位置をプレイヤオブジェクトの位置としてオブジェクト位置データ64を設定してもよい。   Returning to the description of FIG. 9, the object position data 64 indicates the position of the player object in the game space. Specifically, the position is represented by coordinate values in the world coordinate system. The position of the player object is set to a position of a predetermined part of the player object (for example, the position of the center of the body). Note that the game apparatus 3 may appropriately change the position of the player object in consideration of the operability of the player. For example, when the outer shape of the player object is deformed, the position of the player object may be changed as appropriate according to the outer shape. More specifically, for example, when the player object jumps while rolling the body, the outer shape of the player object is close to a sphere. In this case, the object position data 64 may be set with the position near the center of the sphere as the position of the player object.

重力方向データ65は、現時点においてプレイヤオブジェクトに加えられる(仮想の)重力の方向を示す。この重力の方向は、上記投影方向と同様、ゲーム空間内における方向を示す単位ベクトルとして表される。本実施形態では、第1の影は、プレイヤオブジェクトを重力方向に投影した位置に描画されるので、重力方向は、第1の影が投影される方向である。   The gravity direction data 65 indicates the (virtual) direction of gravity applied to the player object at the current time. The direction of gravity is expressed as a unit vector indicating the direction in the game space, like the projection direction. In the present embodiment, since the first shadow is drawn at a position where the player object is projected in the direction of gravity, the direction of gravity is the direction in which the first shadow is projected.

第1交点位置データ66は、第1の影の位置、すなわち、プレイヤオブジェクトから重力方向に延ばした直線と地形オブジェクトとの交点の位置を示す。第2交点位置データ67は、第2の影の位置、すなわち、プレイヤオブジェクトから投影方向に延ばした直線と地形オブジェクトとの交点の位置を示す。   The first intersection position data 66 indicates the position of the first shadow, that is, the position of the intersection between the straight line extending from the player object in the direction of gravity and the terrain object. The second intersection position data 67 indicates the position of the second shadow, that is, the position of the intersection between the straight line extending from the player object in the projection direction and the terrain object.

第1影画像データ68は、第1の影の画像データである。本実施形態では、第1の影は、プレイヤオブジェクトの外形形状を重力方向に投影した形状であり、予め定められた色(例えば黒色)である。また、第2影画像データ69は、第2の影の画像データである。本実施形態では、第2の影は、予め定められた形状であり、プレイヤオブジェクトから第2の影までの距離に基づいて決められる色(濃さ)である。第1の影および第2の影の画像の描画方法については後述する。   The first shadow image data 68 is first shadow image data. In the present embodiment, the first shadow is a shape obtained by projecting the outer shape of the player object in the direction of gravity, and has a predetermined color (for example, black). The second shadow image data 69 is second shadow image data. In the present embodiment, the second shadow has a predetermined shape and is a color (darkness) determined based on the distance from the player object to the second shadow. A method for drawing the first shadow image and the second shadow image will be described later.

次に、ゲーム装置3において行われる処理の詳細を、図12〜図14を用いて説明する。図12は、ゲーム装置3において実行される処理の流れを示すメインフローチャートである。ゲーム装置3の電源が投入されると、ゲーム装置3のCPU10は、図示しないブートROMに記憶されている起動プログラムを実行し、これによってメインメモリ等の各ユニットが初期化される。そして、光ディスク4に記憶されたゲームプログラムがメインメモリに読み込まれ、CPU10によって当該ゲームプログラムの実行が開始される。図12に示すフローチャートは、以上の処理が完了した後に行われる処理を示すフローチャートである。なお、図12に示すゲーム処理は、CPU10およびGPU11bの協働動作として行われる。以下では、プレイヤオブジェクトの影を生成して表示する処理を中心にゲーム処理を説明する。   Next, details of processing performed in the game apparatus 3 will be described with reference to FIGS. FIG. 12 is a main flowchart showing the flow of processing executed in the game apparatus 3. When the power of the game apparatus 3 is turned on, the CPU 10 of the game apparatus 3 executes a startup program stored in a boot ROM (not shown), whereby each unit such as the main memory is initialized. Then, the game program stored in the optical disc 4 is read into the main memory, and the CPU 10 starts executing the game program. The flowchart shown in FIG. 12 is a flowchart showing processing performed after the above processing is completed. Note that the game processing shown in FIG. 12 is performed as a cooperative operation of the CPU 10 and the GPU 11b. In the following, the game process will be described focusing on the process of generating and displaying the shadow of the player object.

まず、ステップS1において、CPU10は、ゲームに関する初期化処理を実行する。具体的には、CPU10は、プレイヤオブジェクト等のゲームキャラクタのデータ、および、予め定められたフィールド(ゲーム開始時にプレイヤオブジェクトが位置するフィールド)を構築するための地形オブジェクトのデータ等を光ディスク4から読み込む。そして、読み込んだデータを用いて当該フィールドの3次元空間を構築し、プレイヤオブジェクトや他のオブジェクトを当該フィールドの初期位置に配置する処理等を実行する。また、ステップS1においては、上記フィールドに設定される影描画エリアに関する影描画エリアデータが光ディスク4から読み込まれ、現在エリアデータ63としてメインメモリに記憶される。   First, in step S1, the CPU 10 executes an initialization process relating to the game. Specifically, the CPU 10 reads from the optical disc 4 game character data such as a player object and terrain object data for constructing a predetermined field (a field in which the player object is located at the start of the game). . Then, the read data is used to construct a three-dimensional space of the field, and processing such as placing a player object or another object at the initial position of the field is executed. In step S 1, shadow drawing area data relating to the shadow drawing area set in the field is read from the optical disc 4 and stored in the main memory as current area data 63.

上記ステップS1の後、ステップS2〜S14の処理ループが、ゲームが実行される間繰り返し実行される。なお、1回の当該処理ループは、1フレーム時間(例えば1/60秒)に1回の割合で実行される。   After step S1, the processing loop of steps S2 to S14 is repeatedly executed while the game is executed. Note that one processing loop is executed once per frame time (for example, 1/60 seconds).

ステップS2において、CPU10は操作データを取得する。すなわち、コントローラ5から送信されてくる操作データがゲーム装置3で受信され、メインメモリに記憶されるので、CPU10はメインメモリから操作データ61を読み出す。ステップS2の後、ステップS3の処理が実行される。   In step S2, the CPU 10 acquires operation data. That is, the operation data transmitted from the controller 5 is received by the game apparatus 3 and stored in the main memory, so the CPU 10 reads the operation data 61 from the main memory. After step S2, the process of step S3 is executed.

ステップS3において、CPU10は、プレイヤオブジェクトが存在するフィールドが変更されたか否かを判定する。ここで、本ゲームでは、予め定められたゲーム条件が満たされた場合にフィールドが変更される。予め定められたゲーム条件が満たされた場合とは、例えば、他のフィールドに移動するための入り口にプレイヤオブジェクトが入った場合や、フィールドに存在する所定の敵オブジェクトを倒した場合や、プレイヤオブジェクトが所定のアイテムを取得した場合等である。ステップS3の判定結果が肯定である場合、ステップS4およびS5の処理が実行される。一方、ステップS3の判定結果が否定である場合、ステップS4およびS5の処理がスキップされて、後述するステップS6の処理が実行される。   In step S3, the CPU 10 determines whether or not the field in which the player object exists has been changed. Here, in this game, the field is changed when a predetermined game condition is satisfied. A predetermined game condition is satisfied when, for example, a player object enters an entrance for moving to another field, a predetermined enemy object existing in the field is defeated, a player object Is a case where a predetermined item is acquired. If the determination result of step S3 is affirmative, the processes of steps S4 and S5 are executed. On the other hand, when the determination result of step S3 is negative, the processes of steps S4 and S5 are skipped, and the process of step S6 described later is executed.

ステップS4において、CPU10は、変更後の新たなフィールドに設定される影描画エリアに関する影描画エリアデータを光ディスク4から読み出す。読み出された1以上の影描画エリアデータは、現在エリアデータ63としてメインメモリに記憶される。また、ステップS4において、CPU10は、変更後の新たなフィールドを構築するための地形オブジェクトのデータ等を光ディスク4から読み出す。   In step S <b> 4, the CPU 10 reads shadow drawing area data related to the shadow drawing area set in the new field after the change from the optical disc 4. The read one or more shadow drawing area data is stored in the main memory as current area data 63. In step S <b> 4, the CPU 10 reads from the optical disk 4 terrain object data and the like for constructing a new field after the change.

ステップS4の次のステップS5において、CPU10は、ステップS4で読み出された地形オブジェクトのデータ等を用いて、変更後の新たなフィールドを構築する。また、ステップS5においては、当該新たなフィールドに登場する各オブジェクト(プレイヤオブジェクトや敵オブジェクトを含む)が予め定められた所定位置に配置される。ステップS5の後、ステップS6の処理が実行される。   In step S5 subsequent to step S4, the CPU 10 constructs a new field after the change using the terrain object data read in step S4. In step S5, each object (including a player object and an enemy object) appearing in the new field is placed at a predetermined position. After step S5, the process of step S6 is executed.

ステップS6において、CPU10は、フィールド上のオブジェクトを動作させる。つまり、プレイヤによるコントローラ5に対する操作に従ってプレイヤオブジェクトを動作させたり、予め定められたアルゴリズムに従って敵オブジェクトを動作させたりする。プレイヤオブジェクトの動作は、具体的には、ステップS2で取得された操作データに基づいて決定される。また、このとき、ゲーム空間におけるプレイヤオブジェクトの位置が算出され、当該位置を示すデータがオブジェクト位置データ64としてメインメモリに記憶される。ステップS6の後、ステップS7の処理が実行される。   In step S6, the CPU 10 operates the object on the field. That is, the player object is moved according to the player's operation on the controller 5, or the enemy object is moved according to a predetermined algorithm. Specifically, the action of the player object is determined based on the operation data acquired in step S2. At this time, the position of the player object in the game space is calculated, and data indicating the position is stored as object position data 64 in the main memory. After step S6, the process of step S7 is executed.

ステップS7において、CPU10は、プレイヤオブジェクトに加えられる仮想的な重力の方向を算出する。本実施形態では、重力方向はゲーム状況に基づいて決定される。例えば、重力方向はプレイヤオブジェクトの現在位置に基づいて決定される。すなわち、ゲーム空間の各位置とその位置における重力方向との対応は予め定められており、当該対応を示すデータが光ディスク4に記憶されている。CPU10は、当該対応を示すデータを参照して、プレイヤオブジェクトの現在位置に対応する重力方向を特定する。なお、プレイヤオブジェクトの現在位置は、メインメモリに記憶されているオブジェクト位置データ64により示される。また、例えば、重力方向は、プレイヤオブジェクトがゲーム空間のある地点を通過したことによって変化したり、予め定められた所定のゲーム条件(例えば、プレイヤオブジェクトがあるアイテムを取得する等)が満たされた場合に変化したりするように決定されてもよい。ステップS7で算出された重力方向を示すデータは、重力方向データ65としてメインメモリに記憶される。   In step S7, the CPU 10 calculates the direction of virtual gravity applied to the player object. In this embodiment, the direction of gravity is determined based on the game situation. For example, the direction of gravity is determined based on the current position of the player object. That is, the correspondence between each position in the game space and the direction of gravity at that position is predetermined, and data indicating the correspondence is stored in the optical disc 4. The CPU 10 refers to the data indicating the correspondence and specifies the gravity direction corresponding to the current position of the player object. Note that the current position of the player object is indicated by object position data 64 stored in the main memory. Further, for example, the direction of gravity changes when the player object passes a certain point in the game space, or a predetermined game condition (for example, obtaining an item with the player object) is satisfied. It may be determined to change in some cases. Data indicating the gravity direction calculated in step S7 is stored in the main memory as gravity direction data 65.

ステップS7の次のステップS8において、CPU10は、第1影描画処理を実行する。第1影描画処理は、重力方向に投影される影である第1の影を描画するための処理である。以下、図13を参照して、第1影描画処理の詳細を説明する。   In step S8 subsequent to step S7, the CPU 10 executes a first shadow drawing process. The first shadow drawing process is a process for drawing a first shadow that is a shadow projected in the direction of gravity. The details of the first shadow drawing process will be described below with reference to FIG.

図13は、図12に示す第1影描画処理(ステップS8)の流れを示すフローチャートである。第1影描画処理においては、まずステップS21において、CPU10は、プレイヤオブジェクトの位置から重力方向を向く直線を算出する。すなわち、メインメモリに記憶されているオブジェクト位置データ64および重力方向データ65を参照し、オブジェクト位置データ64により示される座標から、重力方向データ65により示される方向に延びる直線(半直線)を算出する。ステップS21の後、ステップS22の処理が実行される。   FIG. 13 is a flowchart showing the flow of the first shadow drawing process (step S8) shown in FIG. In the first shadow drawing process, first, in step S21, the CPU 10 calculates a straight line that faces the direction of gravity from the position of the player object. That is, referring to the object position data 64 and the gravity direction data 65 stored in the main memory, a straight line (half line) extending in the direction indicated by the gravity direction data 65 is calculated from the coordinates indicated by the object position data 64. . After step S21, the process of step S22 is executed.

ステップS22において、CPU10は、ステップS21で算出された直線に接触する地形オブジェクトがあるか否かを判定する。すなわち、地形オブジェクトを構成するポリゴンのうちに上記直線に接触するものがあるか否かを判定する。ステップS22の判定結果が肯定である場合、ステップS23〜S25の処理が実行される。一方、ステップS22の判定結果が否定である場合、CPU10はステップS23〜S25の処理をスキップして第1影描画処理を終了する。   In step S22, the CPU 10 determines whether or not there is a terrain object that contacts the straight line calculated in step S21. That is, it is determined whether there are polygons that make up the terrain object that touch the straight line. If the determination result of step S22 is affirmative, the processes of steps S23 to S25 are executed. On the other hand, when the determination result of step S22 is negative, the CPU 10 skips the processes of steps S23 to S25 and ends the first shadow drawing process.

ステップS23において、CPU10は、ステップS21で算出された直線と、それに接触する地形オブジェクトとの交点の位置を算出する。ステップS23によって、第1の影が投影される位置が算出されたこととなる。算出された交点の位置を示すデータは、第1交点位置データ66としてメインメモリに記憶される。   In step S23, the CPU 10 calculates the position of the intersection of the straight line calculated in step S21 and the terrain object in contact therewith. In step S23, the position at which the first shadow is projected is calculated. Data indicating the calculated position of the intersection is stored in the main memory as first intersection position data 66.

ステップS23の後に実行されるステップS24およびS25においては、地形オブジェクトに第1の影が付されたゲーム画像が生成される。ここで、ゲーム空間内のオブジェクトに影を付す方法はどのような方法であってもよいが、本実施形態ではテクスチャを用いて影を付す。以下、ステップS24およびS25の処理の詳細を説明する。   In steps S24 and S25 executed after step S23, a game image in which a first shadow is added to the terrain object is generated. Here, any method may be used to add a shadow to an object in the game space, but in this embodiment, a shadow is applied using a texture. Details of the processes in steps S24 and S25 will be described below.

ステップS24において、CPU10は、第1の影の画像を生成する。第1の影の画像は、第1の影の形状および色(具体的には、黒色の濃さ)を決定することによって生成することができる。第1の影の形状は、プレイヤオブジェクトを重力方向に向かって投影面(地形オブジェクト)に投影した形状となるように算出される。つまり、第1の影の形状は、重力方向からプレイヤオブジェクトを見た場合の外形形状となる。また、本実施形態では、第1の影の色は予め定められている。ステップS24で生成された第1の影の画像データは、第1影画像データ68としてメインメモリに記憶される。   In step S24, the CPU 10 generates a first shadow image. The image of the first shadow can be generated by determining the shape and color of the first shadow (specifically, the darkness of black). The shape of the first shadow is calculated so as to be a shape in which the player object is projected onto the projection plane (terrain object) in the direction of gravity. That is, the shape of the first shadow is the outer shape when the player object is viewed from the direction of gravity. In the present embodiment, the color of the first shadow is determined in advance. The first shadow image data generated in step S24 is stored in the main memory as first shadow image data 68.

なお、他の実施形態においては、上記ステップS24においてCPU10は、プレイヤオブジェクトから影が付される位置(ステップS23で算出された交点の位置)までの距離に基づいて第1の影の表示形態を変化させるようにしてもよい。例えば、上記距離が長いほど第1の影の大きさが大きくなるようにしてもよいし、上記距離が長いほど第1の影の色の濃さが薄くなるようにしてもよい。これによれば、プレイヤは上記距離をより理解しやすくなるので、3次元空間におけるプレイヤオブジェクトの位置をより把握しやすくなる。   In another embodiment, in step S24, the CPU 10 changes the first shadow display form based on the distance from the player object to the position where the shadow is added (the position of the intersection calculated in step S23). It may be changed. For example, the longer the distance, the larger the size of the first shadow, or the longer the distance, the lighter the color of the first shadow may be. According to this, since it becomes easier for the player to understand the distance, it becomes easier to grasp the position of the player object in the three-dimensional space.

ステップS25において、CPU10は、ステップS23で算出された交点の位置に第1の影を描画する。すなわち、地形オブジェクトの上記交点の位置に第1の影の画像を重ねて描画する。具体的には、まず、CPU10は、地形オブジェクトについては予め定められた地形オブジェクト用のテクスチャを用いて、ゲーム空間内のオブジェクト(地形オブジェクトおよびプレイヤオブジェクト等)を描画する。次に、ステップS24で生成された第1の影の画像をテクスチャとして用いて地形オブジェクトを描画し、最初に描画された画像に重ねることで、影が付された画像を得る。上記ステップS25の後、CPU10は第1影描画処理を終了する。   In step S25, the CPU 10 draws the first shadow at the position of the intersection calculated in step S23. That is, the first shadow image is overlaid and drawn at the position of the intersection of the terrain object. Specifically, first, for the terrain object, the CPU 10 draws an object (such as a terrain object and a player object) in the game space using a predetermined texture for the terrain object. Next, a terrain object is drawn using the first shadow image generated in step S24 as a texture, and is superimposed on the initially drawn image to obtain a shadowed image. After step S25, the CPU 10 ends the first shadow drawing process.

なお、上記ステップS25においては、ゲーム装置3は、地形オブジェクト用のテクスチャを用いて地形オブジェクトを描画した後、影の画像をテクスチャとして用いて当該地形オブジェクトを重ねて描画するようにした。ここで、地形オブジェクト上に影を付す処理はどのような処理であってもよく、上記ゲーム処理における方法に限定されない。例えば、他の実施形態においては、ゲーム装置3は、地形オブジェクトに影を付すために、当該地形オブジェクト用のテクスチャと影の画像とを合成する処理を行い、合成したテクスチャを用いて地形オブジェクトを描画するようにしてもよい。また、影の画像をテクスチャとして用いる方法に限らず、影用のポリゴンを地形オブジェクトの上に配置することによって地形オブジェクトの上に影を付すようにしてもよい。   In step S25, the game apparatus 3 draws the terrain object using the texture for the terrain object, and then draws the terrain object using the shadow image as the texture. Here, the process for adding a shadow to the terrain object may be any process, and is not limited to the method in the game process. For example, in another embodiment, in order to add a shadow to a terrain object, the game apparatus 3 performs a process of combining a texture for the terrain object and a shadow image, and uses the combined texture to generate a terrain object. You may make it draw. Further, the method is not limited to using a shadow image as a texture, and a shadow polygon may be placed on the terrain object by placing a shadow polygon on the terrain object.

以上に説明した第1影描画処理では、第1の影は、プレイヤオブジェクトが影描画エリア内に存在するか否かにかかわらず常に表示される。また、第1の影は、プレイヤオブジェクトの形状を投影面である地形オブジェクトに投影させた形状である。つまり、第1の影は、3次元空間におけるプレイヤオブジェクトの位置を識別させる目的に加えて、ゲーム空間をより自然に表現する目的で表示されるものである。   In the first shadow drawing process described above, the first shadow is always displayed regardless of whether or not the player object exists in the shadow drawing area. The first shadow is a shape obtained by projecting the shape of the player object onto the terrain object that is the projection plane. That is, the first shadow is displayed for the purpose of more naturally expressing the game space in addition to the purpose of identifying the position of the player object in the three-dimensional space.

図12の説明に戻り、ステップS8の次のステップS9において、CPU10は、現在のフィールド(プレイヤオブジェクトが現在存在しているフィールド)内に設定されている影描画エリアの全てについて第2影描画処理(後述するステップS11)を実行したか否かを判定する。ステップS9の判定結果が肯定である場合、後述するステップS12の処理が実行される。一方、ステップS9の判定結果が否定である場合、すなわち、第2影描画処理をまだ実行していない影描画エリアがある場合、ステップS10の処理が実行される。   Returning to the description of FIG. 12, in step S <b> 9 subsequent to step S <b> 8, the CPU 10 performs the second shadow drawing process for all of the shadow drawing areas set in the current field (the field in which the player object currently exists). It is determined whether or not (Step S11 described later) has been executed. If the determination result of step S9 is affirmative, the process of step S12 described later is executed. On the other hand, if the determination result of step S9 is negative, that is, if there is a shadow drawing area for which the second shadow drawing process has not yet been executed, the process of step S10 is executed.

ステップS10において、CPU10は、今回のステップS2〜S12の処理ループにおいて第2の影をすでに描画したか否かを判定する。ステップS10の判定結果が肯定である場合、後述するステップS12の処理が実行される。一方、ステップS10の判定結果が否定である場合、すなわち、第2の影がまだ描画されていない場合、ステップS11の処理が実行される。   In step S10, the CPU 10 determines whether or not the second shadow has already been drawn in the current processing loop of steps S2 to S12. If the determination result of step S10 is affirmative, the process of step S12 described later is executed. On the other hand, when the determination result of step S10 is negative, that is, when the second shadow is not yet drawn, the process of step S11 is executed.

ステップS11において、CPU10は、第2影描画処理を実行する。第2影描画処理は、投影方向に投影される影である第2の影を描画するための処理である。以下、図14を参照して、第2影描画処理の詳細を説明する。   In step S11, the CPU 10 executes a second shadow drawing process. The second shadow drawing process is a process for drawing a second shadow that is a shadow projected in the projection direction. Hereinafter, the details of the second shadow rendering process will be described with reference to FIG.

図14は、図12に示す第2影描画処理(ステップS11)の流れを示すフローチャートである。第2影描画処理においては、まずステップS31において、CPU10は、現在のフィールドに設定されている影描画エリアのうちで、第2影描画処理をまだ実行していない影描画エリアを選択する。ステップS31の後、ステップS32の処理が実行される。   FIG. 14 is a flowchart showing the flow of the second shadow drawing process (step S11) shown in FIG. In the second shadow drawing process, first, in step S31, the CPU 10 selects a shadow drawing area for which the second shadow drawing process has not yet been executed from among the shadow drawing areas set in the current field. After step S31, the process of step S32 is executed.

ステップS32において、CPU10は、ステップS31で選択された影描画エリア内にプレイヤオブジェクトが存在するか否かを判定する。ステップS32の判定は、現在エリアデータ63に含まれる影描画エリアデータのうち、ステップS31で選択された影描画エリアに関する影描画エリアデータと、オブジェクト位置データ64とを参照することによって行われる。具体的には、ステップS32の判定は、オブジェクト位置データ64により示される座標値(px,py,pz)が次の式(1)を満たすか否かによって行われる。
ax−sx≦px≦ax+sx かつ
ay−sy≦py≦ay+sy かつ
az−sz≦pz≦az+sz …(1)
上式(1)においては、ステップS31で選択された影描画エリアに関する影描画エリアデータにより示されるエリア位置を(ax,ay,az)とし、エリアサイズを(sx,sy,sz)としている。ステップS32の判定結果が肯定である場合、ステップS33の処理が実行される。一方、ステップS32の判定結果が否定である場合、CPU10は第2影描画処理を終了する。この場合における第2影描画処理においては第2の影が描画されない。
In step S32, the CPU 10 determines whether or not a player object exists in the shadow drawing area selected in step S31. The determination in step S32 is performed by referring to the shadow drawing area data related to the shadow drawing area selected in step S31 and the object position data 64 among the shadow drawing area data included in the current area data 63. Specifically, the determination in step S32 is performed based on whether or not the coordinate values (px, py, pz) indicated by the object position data 64 satisfy the following expression (1).
ax−sx ≦ px ≦ ax + sx and ay−sy ≦ py ≦ ay + sy and az−sz ≦ pz ≦ az + sz (1)
In the above equation (1), the area position indicated by the shadow drawing area data related to the shadow drawing area selected in step S31 is (ax, ay, az), and the area size is (sx, sy, sz). If the determination result of step S32 is affirmative, the process of step S33 is executed. On the other hand, when the determination result of step S32 is negative, the CPU 10 ends the second shadow drawing process. In the second shadow drawing process in this case, the second shadow is not drawn.

ステップS33において、CPU10は、プレイヤオブジェクトの位置から投影方向を向く直線を算出する。この直線は、ステップS31で選択された影描画エリアに関する影描画エリアデータと、オブジェクト位置データ64とを用いて算出される。具体的には、CPU10は、オブジェクト位置データ64により示される座標から上記影描画エリアデータにより示される投影方向に延びる直線(半直線)を算出する。ステップS33の後、ステップS34の処理が実行される。   In step S33, the CPU 10 calculates a straight line that faces the projection direction from the position of the player object. This straight line is calculated using the shadow drawing area data relating to the shadow drawing area selected in step S31 and the object position data 64. Specifically, the CPU 10 calculates a straight line (half straight line) extending in the projection direction indicated by the shadow drawing area data from the coordinates indicated by the object position data 64. After step S33, the process of step S34 is executed.

ステップS34において、CPU10は、プレイヤオブジェクトの位置から最大距離内の範囲で、ステップS33で算出された直線に接触する地形オブジェクトがあるか否かを判定する。すなわち、地形オブジェクトを構成するポリゴンのうちに上記範囲内で上記直線に接触するものがあるか否かを判定する。なお、上記最大距離は、ステップS31で選択された影描画エリアに関する影描画エリアデータにより示される最大距離である。ステップS34の判定結果が肯定である場合、ステップS35〜S38の処理が実行される。一方、ステップS34の判定結果が否定である場合、CPU10はステップS35〜S38の処理をスキップして第2影描画処理を終了する。この場合における第2影描画処理においては第2の影が描画されない。   In step S34, the CPU 10 determines whether or not there is a terrain object in contact with the straight line calculated in step S33 within a range within the maximum distance from the position of the player object. That is, it is determined whether or not there are polygons that make up the terrain object that touch the straight line within the above range. The maximum distance is the maximum distance indicated by the shadow drawing area data regarding the shadow drawing area selected in step S31. When the determination result of step S34 is affirmative, the processes of steps S35 to S38 are executed. On the other hand, if the determination result of step S34 is negative, the CPU 10 skips the processes of steps S35 to S38 and ends the second shadow drawing process. In the second shadow drawing process in this case, the second shadow is not drawn.

ステップS35において、CPU10は、ステップS34で算出された直線と、それに接触する地形オブジェクトとの交点の位置を算出する。なお、上記最大距離内の範囲で、上記直線に接触する地形オブジェクトが複数ある場合には、最も距離が短い地形オブジェクトとの交点の位置を算出する。ステップS35によって、第2の影が投影される位置が算出されたこととなる。算出された交点の位置を示すデータは、第2交点位置データ67としてメインメモリに記憶される。ステップS35の後、ステップS36の処理が実行される。   In step S35, the CPU 10 calculates the position of the intersection of the straight line calculated in step S34 and the terrain object in contact therewith. When there are a plurality of terrain objects in contact with the straight line within the maximum distance, the position of the intersection with the terrain object with the shortest distance is calculated. In step S35, the position where the second shadow is projected is calculated. Data indicating the calculated position of the intersection is stored in the main memory as second intersection position data 67. After step S35, the process of step S36 is executed.

ステップS36において、CPU10は、第2の影の色の濃さを算出する。この濃さは、プレイヤオブジェクトの位置から、ステップS35で算出された交点までの距離に基づいて算出される。本実施形態において、第2の影は、予め定められた大きさの円形形状であり、第2の影の濃さは、円形内における黒色の画素の数Nとして表される。具体的には、黒色の画素数Nは、次の式(2)に従って算出される。
N=Dmax−(Dmax−Dmin)×Dis/Dismax …(2)
上式(2)において、変数Disは、プレイヤオブジェクトの位置から上記交点までの距離である。また、定数Dismax、定数Dmax、および定数Dminは、予め定められている。定数Dmaxは、上記距離が0の場合における黒色の画素数であり、定数Dminは、上記距離が定数Dismax以上となる場合における黒色の画素数である。上式(2)に従って画素数Nを算出することにより、上記距離が小さいほど画素数Nが大きくなり、上記距離が大きくなるにつれて画素数Nが小さくなる。つまり、上記距離が小さいほど第2の影の色が濃くなり、上記距離が大きくなるにつれて第2の影の色が薄くなる。したがって、本実施形態によれば、プレイヤは、第2の影の濃さによってプレイヤオブジェクトから第2の影が投影される地形オブジェクトまでの距離を直感的に理解することができるので、ゲーム空間におけるプレイヤオブジェクトの位置をより把握しやすくなる。
In step S36, the CPU 10 calculates the color intensity of the second shadow. This darkness is calculated based on the distance from the position of the player object to the intersection calculated in step S35. In the present embodiment, the second shadow is a circular shape having a predetermined size, and the density of the second shadow is expressed as the number N of black pixels in the circle. Specifically, the number N of black pixels is calculated according to the following equation (2).
N = Dmax− (Dmax−Dmin) × Dis / Dismax (2)
In the above equation (2), the variable Dis is the distance from the position of the player object to the intersection point. The constant Dismax, the constant Dmax, and the constant Dmin are determined in advance. The constant Dmax is the number of black pixels when the distance is 0, and the constant Dmin is the number of black pixels when the distance is equal to or greater than the constant Dismax. By calculating the pixel number N according to the above equation (2), the pixel number N increases as the distance decreases, and the pixel number N decreases as the distance increases. That is, the smaller the distance, the darker the color of the second shadow, and the larger the distance, the lighter the color of the second shadow. Therefore, according to the present embodiment, the player can intuitively understand the distance from the player object to the terrain object on which the second shadow is projected according to the darkness of the second shadow. It becomes easier to grasp the position of the player object.

なお、上記ステップS36においては、CPU10は、上記距離に基づいて第2の影の色の濃さを変化させることによって第2の影の表示形態を変化させるようにしたが、他の実施形態においては、第2の影の大きさを上記距離に基づいて変化させるようにしてもよい。例えば、上記距離が長いほど第1の影の大きさが大きくなるようにしてもよい。また、第2の影の大きさおよび濃さの両方を上記距離に基づいて変化させるようにしてもよい。   In step S36, the CPU 10 changes the display form of the second shadow by changing the color intensity of the second shadow based on the distance, but in other embodiments, The size of the second shadow may be changed based on the distance. For example, the longer the distance, the larger the first shadow may be. Moreover, you may make it change both the magnitude | size and darkness of a 2nd shadow based on the said distance.

ステップS36の次のステップS37において、CPU10は、第2の影の画像を生成する。具体的には、予め定められた大きさの略円形の画素領域内に、ステップS36で算出された画素数Nの数だけ黒色の画素が存在する画像が生成される。なお、生成された画像において、黒色の画素以外の画素の色は透明である。ステップS37で生成された第2の影の画像データは、第2影画像データ69としてメインメモリに記憶される。   In step S37 subsequent to step S36, the CPU 10 generates a second shadow image. Specifically, an image is generated in which black pixels exist in the substantially circular pixel region having a predetermined size by the number N of pixels calculated in step S36. In the generated image, the color of pixels other than black pixels is transparent. The image data of the second shadow generated in step S37 is stored in the main memory as the second shadow image data 69.

ステップS37の次のステップS38において、CPU10は、ステップS35で算出された交点の位置に第2の影を描画する。すなわち、地形オブジェクトの上記交点の位置に第2の影の画像を重ねて描画する。具体的には、CPU10は、地形オブジェクトの上記交点の位置に第2の影が付加されるように、予め定められている地形オブジェクト用のテクスチャと第2の影の画像とを合成する(重ね合わせる)。ステップS38の後、CPU10は第2影描画処理を終了する。   In step S38 following step S37, the CPU 10 draws the second shadow at the position of the intersection calculated in step S35. That is, the second shadow image is superimposed and drawn at the position of the intersection of the terrain object. Specifically, the CPU 10 synthesizes a predetermined texture for the terrain object and the second shadow image so that the second shadow is added to the position of the intersection of the terrain object (overlapping). Match). After step S38, the CPU 10 ends the second shadow drawing process.

以上に説明した第2影描画処理では、第2の影は、プレイヤオブジェクトが影描画エリア内に存在する場合にのみ表示される。また、第2の影は、プレイヤオブジェクトの形状を投影面である地形オブジェクトに投影させた形状とは無関係であり、予め定められた形状である。第2の影は、3次元空間におけるプレイヤオブジェクトの位置を識別させる目的で表示されるものであるので、リアルな形状とするよりも、第1の影とは異なる形状とすることより第1の影と区別が容易な形状とする方が好ましいからである。また、予め定められた形状とすることによって、オブジェクトの形状を投影面に投影させた形状とする場合よりもゲーム装置3の処理負担を軽減することができる。   In the second shadow drawing process described above, the second shadow is displayed only when the player object exists in the shadow drawing area. Further, the second shadow has a predetermined shape regardless of the shape in which the shape of the player object is projected onto the terrain object that is the projection plane. Since the second shadow is displayed for the purpose of identifying the position of the player object in the three-dimensional space, the first shadow has a shape different from the first shadow rather than a realistic shape. This is because it is preferable to make the shape easy to distinguish from the shadow. Moreover, by setting it as a predetermined shape, the processing load of the game apparatus 3 can be reduced as compared with the case where the shape of the object is projected onto the projection plane.

図12の説明に戻り、ステップS12において、CPU10は、ゲーム画像を表示する。すなわち、CPU10は、ゲーム空間内に設定される仮想カメラからゲーム空間を見たときの画像が生成され、テレビ2の画面に表示される。このとき、ステップS23(または、ステップS23およびS35)で算出された各交点の位置の地面オブジェクトについては、地面オブジェクト用のテクスチャに影画像が重ねられたテクスチャを用いて地面オブジェクトが描画されるので、当該交点の位置に影が付されたゲーム画像が生成される。   Returning to the description of FIG. 12, in step S12, the CPU 10 displays a game image. That is, the CPU 10 generates an image when the game space is viewed from a virtual camera set in the game space, and displays the image on the screen of the television 2. At this time, for the ground object at the position of each intersection calculated in step S23 (or steps S23 and S35), the ground object is drawn using the texture in which the shadow image is superimposed on the texture for the ground object. Then, a game image in which a shadow is added to the position of the intersection is generated.

ステップS12の次のステップS13において、CPU10は、ゲームを終了するか否かを判定する。ステップS13の判定は、例えば、ゲームがクリアされたか否か、ゲームオーバーとなったか否か、プレイヤがゲームを中止する指示を行ったか否か等によって行われる。ステップS13の判定結果が否定である場合、ステップS2の処理が再度実行される。以降、ステップS13でゲームを終了すると判定されるまで、ステップS2〜S13の処理が繰り返し実行される。一方、ステップS13の判定結果が肯定である場合、CPU10は、図12に示すゲーム処理を終了する。以上で、ゲーム処理の説明を終了する。   In step S13 following step S12, the CPU 10 determines whether or not to end the game. The determination in step S13 is made based on, for example, whether or not the game is cleared, whether or not the game is over, and whether or not the player gives an instruction to stop the game. If the determination result of step S13 is negative, the process of step S2 is executed again. Thereafter, the processes in steps S2 to S13 are repeatedly executed until it is determined in step S13 that the game is to be ended. On the other hand, if the determination result of step S13 is affirmative, the CPU 10 ends the game process shown in FIG. This is the end of the description of the game process.

以上のように、上記ゲーム処理によれば、プレイヤオブジェクトが影描画エリア内に存在する場合、プレイヤオブジェクトから重力方向に向かった位置に第1の影が表示されるとともに、プレイヤオブジェクトから(重力方向とは異なる)投影方向に向かった位置に第2の影が表示される(図8参照)。これによって、3次元空間におけるプレイヤオブジェクトの位置をプレイヤに直感的に理解させることができる。   As described above, according to the above game processing, when the player object exists in the shadow drawing area, the first shadow is displayed at a position facing the gravity direction from the player object, and the player object (from the gravity direction) A second shadow is displayed at a position facing the projection direction (see FIG. 8). Thus, the player can intuitively understand the position of the player object in the three-dimensional space.

なお、上記ゲーム処理においては、ステップS23およびS35において、直線とそれに接触する地形オブジェクトとの交点の位置を算出するようにした。ここで、他の実施形態では、地形オブジェクトに限らず、プレイヤオブジェクトに最も近い位置で直線と接するオブジェクトと当該直線との交点の位置を算出するようにしてもよい。そして、算出された交点の位置に影を付すようにしてもよい。   In the game process, the position of the intersection between the straight line and the terrain object in contact with the straight line is calculated in steps S23 and S35. Here, in other embodiments, not only the terrain object, but also the position of the intersection of the straight line and the object in contact with the straight line at the position closest to the player object may be calculated. Then, a shadow may be added to the calculated position of the intersection.

また、上記ゲーム処理においては、ゲーム空間をより自然に見せるために、プレイヤオブジェクト以外の他のオブジェクト(例えば、壁オブジェクト52)の影が表示されてもよい。例えば、ゲーム装置3は、上記ステップS6の後のタイミングで、上記他のオブジェクトについて影を描画するステップを実行するようにしてもよい。また、当該ステップは、第1影描画処理(ステップS8)において、他のオブジェクトについても第1の影を生成することによって実行されてもよい。なお、上記他のオブジェクトの影は、第1および第2の影とは異なる方法で生成されてもよく、影の生成方法が第1および第2の影の生成方法とは異なっていてもよいし、影が投影される方向が第1および第2の影が投影される方向とは異なっていてもよい。ただし、上記他のオブジェクトの影は、プレイヤオブジェクトの第1の影と同様、オブジェクトから重力方向に向かった位置に影が付されることが好ましい。なお、他のオブジェクトに影を付す場合であっても、当該他のオブジェクトには第2の影を付す必要はない。つまり、第2の影は、予め定められた所定のオブジェクト(上記実施形態では、プレイヤオブジェクト)のみに付すようにすればよい。このように、プレイヤオブジェクトについてはプレイヤに位置を把握させることを優先して、2方向に2つの影を描くとともに、他のオブジェクトについてはゲーム世界を自然に表現することを優先して、所定の方向に1つの影を描くようにしてもよい。   Further, in the above game process, in order to make the game space appear more natural, shadows of objects other than the player object (for example, the wall object 52) may be displayed. For example, the game apparatus 3 may execute a step of drawing a shadow on the other object at a timing after step S6. In addition, this step may be executed by generating a first shadow for other objects in the first shadow drawing process (step S8). The shadow of the other object may be generated by a method different from the first and second shadows, and the shadow generation method may be different from the first and second shadow generation methods. However, the direction in which the shadow is projected may be different from the direction in which the first and second shadows are projected. However, like the first shadow of the player object, it is preferable that the shadow of the other object is cast at a position facing the gravity direction from the object. Even when a shadow is added to another object, it is not necessary to add a second shadow to the other object. That is, the second shadow may be attached only to a predetermined object (a player object in the above embodiment). In this way, with regard to the player object, priority is given to the player grasping the position, and two shadows are drawn in two directions, and with respect to other objects, priority is given to expressing the game world naturally. One shadow may be drawn in the direction.

なお、上記ゲーム処理では、2つの影を生成する対象となるオブジェクトをプレイヤオブジェクトとして説明したが、他の実施形態においては、予め定められた1以上の所定のオブジェクトについて2つの影を生成するようにしてもよい。例えば、プレイヤオブジェクトに加えて(または、プレイヤオブジェクトに代えて)敵オブジェクトについて第1および第2の影を生成して表示するようにしてもよい。また、複数のオブジェクトについて第1および第2の影を生成する場合であっても、当該複数のオブジェクト以外の他のオブジェクトについては第2の影を生成しないようにしてもよい。   In the above game process, the object for generating two shadows has been described as a player object. However, in other embodiments, two shadows are generated for one or more predetermined objects. It may be. For example, in addition to the player object (or instead of the player object), the first and second shadows may be generated and displayed for the enemy object. Further, even when the first and second shadows are generated for a plurality of objects, the second shadow may not be generated for other objects than the plurality of objects.

以上のように、本発明は、仮想の3次元空間におけるオブジェクトの位置をプレイヤに直感的に認識させること等を目的として、例えばゲームプログラムやゲーム装置等として利用することが可能である。   As described above, the present invention can be used as, for example, a game program or a game device for the purpose of making a player intuitively recognize the position of an object in a virtual three-dimensional space.

ゲームシステム1の外観図External view of game system 1 ゲーム装置3の機能ブロック図Functional block diagram of game device 3 コントローラ5の外観構成を示す斜視図The perspective view which shows the external appearance structure of the controller 5 コントローラ5の外観構成を示す斜視図The perspective view which shows the external appearance structure of the controller 5 コントローラ5の内部構造を示す図The figure which shows the internal structure of the controller 5 コントローラ5の内部構造を示す図The figure which shows the internal structure of the controller 5 コントローラ5の構成を示すブロック図Block diagram showing the configuration of the controller 5 本実施形態におけるゲームのゲーム画面の一例を示す図The figure which shows an example of the game screen of the game in this embodiment ゲーム装置3のメインメモリに記憶される主なデータを示す図The figure which shows the main data memorize | stored in the main memory of the game device 3 現在エリアデータの一例を示す図Diagram showing an example of current area data ゲーム空間内に設定される影描画エリアの一例を示す図The figure which shows an example of the shadow drawing area set in game space ゲーム装置3において実行される処理の流れを示すメインフローチャートMain flowchart showing a flow of processing executed in the game apparatus 3 図12に示す第1影描画処理(ステップS8)の流れを示すフローチャートThe flowchart which shows the flow of the 1st shadow drawing process (step S8) shown in FIG. 図12に示す第2影描画処理(ステップS11)の流れを示すフローチャートThe flowchart which shows the flow of the 2nd shadow drawing process (step S11) shown in FIG.

符号の説明Explanation of symbols

1 ゲームシステム
2 テレビ
3 ゲーム装置
4 光ディスク
5 コントローラ
6 マーカ部
10 CPU
11c GPU
11e 内部メインメモリ
12 外部メインメモリ
51 地面オブジェクト
52 壁オブジェクト
53 プレイヤオブジェクト
54 第1の影
55 第2の影
71 影描画エリア
DESCRIPTION OF SYMBOLS 1 Game system 2 Television 3 Game device 4 Optical disk 5 Controller 6 Marker part 10 CPU
11c GPU
11e Internal main memory 12 External main memory 51 Ground object 52 Wall object 53 Player object 54 First shadow 55 Second shadow 71 Shadow drawing area

Claims (13)

仮想の3次元空間に存在するオブジェクトを表示装置に表示させるゲーム装置のコンピュータに実行させるゲームプログラムであって、
前記オブジェクトの位置を通り所定の第1方向を向く直線と所定の他のオブジェクトとの交点の位置を第1位置として算出する第1位置算出ステップと、
前記第1位置に前記オブジェクトの影を描画する第1影描画ステップと、
前記オブジェクトの位置を通り前記第1方向と平行でない第2方向を向く直線と所定の他のオブジェクトとの交点の位置を第2位置として算出する第2位置算出ステップと、
前記第2位置に前記オブジェクトの影を描画する第2影描画ステップとを前記コンピュータに実行させるゲームプログラム。
A game program to be executed by a computer of a game device that displays an object existing in a virtual three-dimensional space on a display device,
A first position calculating step of calculating a position of an intersection of a straight line passing through the position of the object and facing a predetermined first direction and a predetermined other object as a first position;
A first shadow drawing step of drawing a shadow of the object at the first position;
A second position calculating step of calculating a position of an intersection of a straight line passing through the position of the object and facing a second direction not parallel to the first direction and a predetermined other object as a second position;
A game program for causing the computer to execute a second shadow drawing step of drawing a shadow of the object at the second position.
前記3次元空間内には所定の影描画エリアが設定されており、
前記3次元空間において設定される所定の影描画エリア内に前記オブジェクトが存在するか否かを判定するエリア判定ステップをさらに前記コンピュータに実行させ、
前記第2影描画ステップは、前記エリア判定ステップにおいて前記オブジェクトの位置が前記影描画エリア内に存在すると判定された場合のみ実行される、請求項1に記載のゲームプログラム。
A predetermined shadow drawing area is set in the three-dimensional space,
Causing the computer to further execute an area determination step for determining whether or not the object exists in a predetermined shadow drawing area set in the three-dimensional space;
The game program according to claim 1, wherein the second shadow drawing step is executed only when it is determined in the area determination step that the position of the object exists within the shadow drawing area.
前記ゲーム装置の記憶手段には、各前記影描画エリアに対してそれぞれ投影方向が関連付けられた影描画エリアデータが記憶されており、
前記第2位置算出ステップにおいて、前記コンピュータは、前記影描画エリアデータにおいて前記オブジェクトが存在する影描画エリアに関連付けられている投影方向を前記第2方向として前記第2位置を算出する、請求項2に記載のゲームプログラム。
The storage means of the game device stores shadow drawing area data in which a projection direction is associated with each of the shadow drawing areas.
3. The second position calculating step, wherein the computer calculates the second position using a projection direction associated with a shadow drawing area where the object exists in the shadow drawing area data as the second direction. The game program described in.
前記第1方向は、前記3次元空間において設定される重力方向である、請求項1に記載のゲームプログラム。   The game program according to claim 1, wherein the first direction is a gravity direction set in the three-dimensional space. 前記重力方向をゲーム状況に応じて変更する重力方向変更ステップを前記コンピュータにさらに実行させる、請求項4に記載のゲームプログラム。   The game program according to claim 4, further causing the computer to execute a gravity direction changing step of changing the gravity direction according to a game situation. 前記第2影描画ステップにおいて、前記コンピュータは、前記第1影描画ステップにおいて描画される影とは異なる表示形態となるように影を描画する、請求項2ないし5に記載のゲームプログラム。   6. The game program according to claim 2, wherein in the second shadow drawing step, the computer draws a shadow so as to have a display form different from the shadow drawn in the first shadow drawing step. 前記第2位置算出ステップにおいて、前記コンピュータは、予め定められた所定のオブジェクトについてのみ前記第2位置を算出し、
前記第2影描画ステップにおいて、前記コンピュータは、前記所定のオブジェクトについてのみ影を描画し、
前記ゲームプログラムは、前記第2方向と平行でない第3方向を向く直線と前記所定のオブジェクト以外の他のオブジェクトとの交点の位置を第3位置として算出する第3位置算出ステップと、
前記第3位置に前記所定のオブジェクト以外の他のオブジェクトの影を描画する第3影描画ステップを前記コンピュータにさらに実行させる、請求項1に記載のゲームプログラム。
In the second position calculating step, the computer calculates the second position only for a predetermined object.
In the second shadow drawing step, the computer draws a shadow only for the predetermined object,
A third position calculating step of calculating, as a third position, a position of an intersection of a straight line facing a third direction not parallel to the second direction and another object other than the predetermined object;
The game program according to claim 1, further causing the computer to execute a third shadow drawing step of drawing a shadow of an object other than the predetermined object at the third position.
前記所定のオブジェクトは、前記3次元空間内に固定して配置された地形オブジェクトである、請求項1または請求項2に記載のゲームプログラム。   The game program according to claim 1, wherein the predetermined object is a terrain object fixedly arranged in the three-dimensional space. 前記第1影描画ステップにおいて、前記コンピュータは、前記オブジェクトの位置から前記第1位置までの距離に基づいて前記影の濃さを変化させる、請求項1または請求項2に記載のゲームプログラム。   3. The game program according to claim 1, wherein in the first shadow drawing step, the computer changes the darkness of the shadow based on a distance from the position of the object to the first position. 前記第2影描画ステップにおいて、前記コンピュータは、前記オブジェクトの位置から前記第2位置までの距離に基づいて前記影の濃さを変化させる、請求項1または請求項2に記載のゲームプログラム。   3. The game program according to claim 1, wherein in the second shadow drawing step, the computer changes the density of the shadow based on a distance from the position of the object to the second position. 前記第1影描画ステップにおいて、前記コンピュータは、前記オブジェクトの位置から前記第1位置までの距離に基づいて前記影の大きさを変化させる、請求項1または請求項2に記載のゲームプログラム。   The game program according to claim 1, wherein in the first shadow drawing step, the computer changes the size of the shadow based on a distance from the position of the object to the first position. 前記第2影描画ステップにおいて、前記コンピュータは、前記オブジェクトの位置から前記第2位置までの距離に基づいて前記影の大きさを変化させる、請求項1または請求項2に記載のゲームプログラム。   The game program according to claim 1 or 2, wherein, in the second shadow drawing step, the computer changes a size of the shadow based on a distance from the position of the object to the second position. 仮想の3次元空間に存在するオブジェクトを表示装置に表示させるゲーム装置であって、
前記オブジェクトの位置から所定の第1方向を向く直線と所定の他のオブジェクトとの交点の位置を第1位置として算出する第1位置算出手段と、
前記第1位置に前記オブジェクトの影を描画する第1影描画手段と、
前記オブジェクトの位置から前記第1方向と平行でない第2方向を向く直線と所定の他のオブジェクトとの交点の位置を第2位置として算出する第2位置算出手段と、
前記第2位置に前記オブジェクトの影を描画する第2影描画手段とを備える、ゲーム装置。
A game device that causes a display device to display an object existing in a virtual three-dimensional space,
First position calculation means for calculating, as a first position, the position of the intersection of a straight line that faces a predetermined first direction from the position of the object and a predetermined other object;
First shadow drawing means for drawing a shadow of the object at the first position;
Second position calculating means for calculating, as a second position, a position of an intersection of a straight line facing a second direction not parallel to the first direction from the position of the object and a predetermined other object;
A game device comprising: second shadow drawing means for drawing a shadow of the object at the second position.
JP2007176667A 2007-07-04 2007-07-04 GAME PROGRAM, GAME DEVICE, GAME SYSTEM, AND GAME PROCESSING METHOD Active JP5350612B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007176667A JP5350612B2 (en) 2007-07-04 2007-07-04 GAME PROGRAM, GAME DEVICE, GAME SYSTEM, AND GAME PROCESSING METHOD

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007176667A JP5350612B2 (en) 2007-07-04 2007-07-04 GAME PROGRAM, GAME DEVICE, GAME SYSTEM, AND GAME PROCESSING METHOD

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2013172408A Division JP5798601B2 (en) 2013-08-22 2013-08-22 GAME PROGRAM, GAME DEVICE, GAME SYSTEM, AND GAME PROCESSING METHOD

Publications (2)

Publication Number Publication Date
JP2009011567A true JP2009011567A (en) 2009-01-22
JP5350612B2 JP5350612B2 (en) 2013-11-27

Family

ID=40353202

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007176667A Active JP5350612B2 (en) 2007-07-04 2007-07-04 GAME PROGRAM, GAME DEVICE, GAME SYSTEM, AND GAME PROCESSING METHOD

Country Status (1)

Country Link
JP (1) JP5350612B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2478942A3 (en) * 2011-01-17 2014-01-01 Sony Computer Entertainment Inc. Game device, game control method, and game control program for controlling game in which character is moved in three-dimensional space
US9196078B2 (en) 2010-10-15 2015-11-24 Nintendo Co., Ltd. System and methods for displaying virtual space including a silhouette image
WO2018003861A1 (en) * 2016-06-28 2018-01-04 株式会社ニコン Display device and control device
JP2020163167A (en) * 2020-05-25 2020-10-08 株式会社スクウェア・エニックス Game device and program
JP7557490B2 (en) 2022-03-02 2024-09-27 任天堂株式会社 Information processing program, information processing system, information processing device, and information processing method

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11144077A (en) * 1997-11-14 1999-05-28 Nintendo Co Ltd Video game device and storage medium thereof
JP2001029654A (en) * 1999-07-16 2001-02-06 Sega Corp Image processing device
JP2002042162A (en) * 2000-07-27 2002-02-08 Namco Ltd Game system and information storage medium
JP2002042165A (en) * 2000-07-27 2002-02-08 Namco Ltd Image forming device, its method, and recording medium
JP3417883B2 (en) * 1999-07-26 2003-06-16 コナミ株式会社 Image creating apparatus, image creating method, computer-readable recording medium on which image creating program is recorded, and video game apparatus
JP3433380B2 (en) * 2000-06-07 2003-08-04 株式会社スクウェア・エニックス Computer-readable recording medium recording a ball game program, ball game processing apparatus and method
JP2007141082A (en) * 2005-11-21 2007-06-07 Namco Bandai Games Inc Program, texture data structure, information storage medium, and image generation system

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11144077A (en) * 1997-11-14 1999-05-28 Nintendo Co Ltd Video game device and storage medium thereof
JP2001029654A (en) * 1999-07-16 2001-02-06 Sega Corp Image processing device
JP3417883B2 (en) * 1999-07-26 2003-06-16 コナミ株式会社 Image creating apparatus, image creating method, computer-readable recording medium on which image creating program is recorded, and video game apparatus
JP3433380B2 (en) * 2000-06-07 2003-08-04 株式会社スクウェア・エニックス Computer-readable recording medium recording a ball game program, ball game processing apparatus and method
JP2002042162A (en) * 2000-07-27 2002-02-08 Namco Ltd Game system and information storage medium
JP2002042165A (en) * 2000-07-27 2002-02-08 Namco Ltd Image forming device, its method, and recording medium
JP2007141082A (en) * 2005-11-21 2007-06-07 Namco Bandai Games Inc Program, texture data structure, information storage medium, and image generation system

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
CSNB200300447001; 松本英明,外1名: 任天堂公式ガイドブック マリオパーティ3 初版, 20010110, p.93, 株式会社小学館 *
CSNE200600161033; '"カプコン クラシックス コレクション"' 電撃PlayStation Vol.365 第12巻,第32号, 20060929, p.149, メディアワークス *
JPN6013011754; '"カプコン クラシックス コレクション"' 電撃PlayStation Vol.365 第12巻,第32号, 20060929, p.149, メディアワークス *
JPN6013011755; 松本英明,外1名: 任天堂公式ガイドブック マリオパーティ3 初版, 20010110, p.93, 株式会社小学館 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9196078B2 (en) 2010-10-15 2015-11-24 Nintendo Co., Ltd. System and methods for displaying virtual space including a silhouette image
EP2478942A3 (en) * 2011-01-17 2014-01-01 Sony Computer Entertainment Inc. Game device, game control method, and game control program for controlling game in which character is moved in three-dimensional space
US9370713B2 (en) 2011-01-17 2016-06-21 Sony Corporation Game device, game control method, and game control program for controlling game in which character is moved in three dimensional space
WO2018003861A1 (en) * 2016-06-28 2018-01-04 株式会社ニコン Display device and control device
JPWO2018003861A1 (en) * 2016-06-28 2019-04-18 株式会社ニコン Display device and control device
US12061742B2 (en) 2016-06-28 2024-08-13 Nikon Corporation Display device and control device
JP2020163167A (en) * 2020-05-25 2020-10-08 株式会社スクウェア・エニックス Game device and program
JP7012780B2 (en) 2020-05-25 2022-01-28 株式会社スクウェア・エニックス Game equipment and programs
JP7557490B2 (en) 2022-03-02 2024-09-27 任天堂株式会社 Information processing program, information processing system, information processing device, and information processing method

Also Published As

Publication number Publication date
JP5350612B2 (en) 2013-11-27

Similar Documents

Publication Publication Date Title
JP5692904B2 (en) Input system, information processing apparatus, information processing program, and pointing position calculation method
US8223120B2 (en) Computer readable recording medium recording image processing program and image processing apparatus
JP4773170B2 (en) Game program and game system
US8882592B2 (en) Game system, game apparatus, computer-readable storage medium having stored therein game program, and game processing method
US9387398B2 (en) Video game with state display overlay
JP5700758B2 (en) GAME DEVICE, GAME PROGRAM, GAME SYSTEM, AND GAME PROCESSING METHOD
JP5060798B2 (en) Information processing program and information processing apparatus
JP5869236B2 (en) Information processing program, information processing apparatus, information processing system, and information processing method
JP5780755B2 (en) GAME SYSTEM, GAME DEVICE, GAME PROGRAM, AND GAME PROCESSING METHOD
JP5756299B2 (en) GAME SYSTEM, GAME DEVICE, GAME PROGRAM, AND GAME PROCESSING METHOD
JP4919887B2 (en) Image processing program and image processing apparatus
US20120302345A1 (en) Game system, game apparatus, computer-readable storage medium having stored therein game program, and game processing method
JP5038465B2 (en) Information processing program, information processing apparatus, information processing method, and information processing system
JP5378133B2 (en) Bird&#39;s-eye view map resource generation program, bird&#39;s-eye view map display program, bird&#39;s-eye view map resource generation device, and bird&#39;s-eye view map display device
JP5829040B2 (en) GAME SYSTEM, GAME DEVICE, GAME PROGRAM, AND IMAGE GENERATION METHOD
JP5757741B2 (en) GAME SYSTEM, GAME DEVICE, GAME PROGRAM, AND GAME PROCESSING METHOD
JP5632657B2 (en) Image processing program, image processing apparatus, image processing system, and image processing method
JP5797046B2 (en) Pointing system, information processing system, coordinate system setting method, information processing apparatus, and information processing program
JP5350612B2 (en) GAME PROGRAM, GAME DEVICE, GAME SYSTEM, AND GAME PROCESSING METHOD
JP5620719B2 (en) Information processing program, information processing apparatus, information processing system, and map display method
JP5937792B2 (en) GAME PROGRAM, GAME DEVICE, GAME SYSTEM, AND GAME PROCESSING METHOD
JP5525177B2 (en) Information processing program and information processing apparatus
JP5576721B2 (en) GAME PROGRAM, GAME DEVICE, GAME SYSTEM, AND GAME METHOD
JP5798601B2 (en) GAME PROGRAM, GAME DEVICE, GAME SYSTEM, AND GAME PROCESSING METHOD
JP2008307409A (en) Information processor and information processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100614

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20110902

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130312

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130318

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130502

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130513

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130801

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130822

R150 Certificate of patent or registration of utility model

Ref document number: 5350612

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250