Nothing Special   »   [go: up one dir, main page]

JP2012141820A - Program, information storage medium, image generation system and server system - Google Patents

Program, information storage medium, image generation system and server system Download PDF

Info

Publication number
JP2012141820A
JP2012141820A JP2010294472A JP2010294472A JP2012141820A JP 2012141820 A JP2012141820 A JP 2012141820A JP 2010294472 A JP2010294472 A JP 2010294472A JP 2010294472 A JP2010294472 A JP 2010294472A JP 2012141820 A JP2012141820 A JP 2012141820A
Authority
JP
Japan
Prior art keywords
determination
image
timing
hit
reference area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010294472A
Other languages
Japanese (ja)
Inventor
Norio Egashira
規雄 江頭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bandai Namco Entertainment Inc
Original Assignee
Namco Bandai Games Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Bandai Games Inc filed Critical Namco Bandai Games Inc
Priority to JP2010294472A priority Critical patent/JP2012141820A/en
Publication of JP2012141820A publication Critical patent/JP2012141820A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a program, an information storage medium, an image generation system and a server system which can realize appropriate timing determination processing in a stereoscopic viewing system.SOLUTION: An image generation system includes a moving object control unit for performing control of a moving object MOB, a determination unit for performing timing determination processing using the moving object MOB, and an image generation unit for generating a stereoscopic viewing image. The image generation unit generates a stereoscopic viewing image in which the moving object MOB is displayed so as to eliminate an image parallax of the moving object MOB when the moving object MOB passes through a determination criteria area ARB used for the timing determination processing.

Description

本発明は、プログラム、情報記憶媒体、画像生成システム及びサーバシステム等に関する。   The present invention relates to a program, an information storage medium, an image generation system, a server system, and the like.

近年、映画やゲーム等の分野において、より臨場感が溢れる画像を生成するシステムとして、立体視画像の生成システムが脚光を浴びている。例えば立体視画像生成システムの1つである2眼式の立体視画像生成システムでは、左眼用画像と右眼用画像を生成する。そしてプレーヤが立体視用の眼鏡を装着して、左眼は左眼用画像のみを見て、右眼は右眼用画像のみを見るようにすることで、立体視を実現する。このような立体視を実現する画像生成システムの従来技術としては、例えば特許文献1に開示される技術がある。また立体視方式としては、眼鏡式以外にも裸眼式がある。例えば、パララックスバリアによって、画素ごとに、「左眼には見えるが右眼には見えない」、「右眼には見えるが左眼には見えない」という状態を作り出すことで、裸眼の立体視システムを実現できる。また、レンチキュラ等の光学素子による光の屈折等を利用することで、画素ごとに光の方向を制御し、上記と同様の状態を作り出すことでも、裸眼の立体視システムを実現できる。   2. Description of the Related Art In recent years, stereoscopic image generation systems have been spotlighted as systems for generating images that are more realistic in the fields of movies and games. For example, in a binocular stereoscopic image generation system which is one of the stereoscopic image generation systems, a left-eye image and a right-eye image are generated. Then, the player wears stereoscopic glasses, the left eye sees only the left eye image, and the right eye sees only the right eye image, thereby realizing stereoscopic vision. As a conventional technique of an image generation system that realizes such a stereoscopic view, there is a technique disclosed in Patent Document 1, for example. Further, as a stereoscopic viewing method, there is a naked eye type in addition to the glasses type. For example, a parallax barrier creates a state of “visible to the left eye but not to the right eye” or “visible to the right eye but not to the left eye” for each pixel. Visual system can be realized. Also, by utilizing the refraction of light by an optical element such as a lenticular, the direction of the light is controlled for each pixel, and a state similar to the above can be created to realize a stereoscopic vision system with naked eyes.

一方、野球ゲームなどの球技ゲームや、音楽ゲームなどでは、ボールや音符(指示マーカ)などの移動体をゲーム画面上で移動させ、この移動体を用いて、プレーヤの入力タイミングが所定の判定基準内にあるか否かのタイミング判定処理を行う。   On the other hand, in a ball game such as a baseball game or a music game, a moving object such as a ball or a musical note (indicator marker) is moved on the game screen, and the input timing of the player is determined according to a predetermined criterion. A timing determination process is performed to determine whether or not it is within.

しかしながら、立体視システムにより実現される立体視ゲームにおいて、このようなタイミング判定処理を行う場合に、タイミング判定における移動体の表示状態が適正な表示状態でないと、適切なタイミング判定処理を実現できなくなるおそれがある。   However, in a stereoscopic game realized by a stereoscopic system, when such timing determination processing is performed, an appropriate timing determination processing cannot be realized unless the display state of the moving object in the timing determination is an appropriate display state. There is a fear.

特開2004−126902号公報JP 2004-126902 A

本発明の幾つかの態様によれば、立体視システムにおける適切なタイミング判定処理を実現できるプログラム、情報記憶媒体、画像生成システム及びサーバシステム等を提供できる。   According to some aspects of the present invention, it is possible to provide a program, an information storage medium, an image generation system, a server system, and the like that can realize appropriate timing determination processing in a stereoscopic vision system.

本発明の一態様は、移動体の制御を行う移動体制御部と、前記移動体を用いたタイミング判定処理を行う判定部と、立体視用画像を生成する画像生成部とを含み、前記画像生成部は、前記タイミング判定処理に用いられる判定基準エリアを前記移動体が通過する際に前記移動体の画像の視差が無くなるように、前記移動体が表示された立体視用画像を生成する画像生成システムに関係する。また本発明は、上記各部としてコンピュータを機能させるプログラム、又は該プログラムを記憶したコンピュータ読み取り可能な情報記憶媒体に関係する。   One aspect of the present invention includes a moving body control unit that controls a moving body, a determination unit that performs a timing determination process using the moving body, and an image generation unit that generates a stereoscopic image. The generation unit generates an image for stereoscopic viewing on which the moving body is displayed so that parallax of the image of the moving body disappears when the moving body passes through a determination reference area used for the timing determination process. Related to the generation system. The present invention also relates to a program that causes a computer to function as each of the above-described units, or a computer-readable information storage medium that stores the program.

本発明の一態様によれば、移動体制御部により制御される移動体を用いて、タイミング判定処理が行われる。そして移動体制御部により制御される移動体が判定基準エリアを通過する際に、移動体の画像の視差が無くなるように立体視用画像が生成される。このようにすれば、判定基準エリアの通過時に画像の視差が無くなる移動体を用いて、タイミング判定処理が行われるようになるため、立体視システムにおける適切なタイミング判定処理を実現することが可能になる。   According to one aspect of the present invention, the timing determination process is performed using the moving body controlled by the moving body control unit. Then, when the moving object controlled by the moving object control unit passes through the determination reference area, the stereoscopic image is generated so that the parallax of the image of the moving object is eliminated. In this way, the timing determination process is performed using a moving body that has no image parallax when passing through the determination reference area, and therefore it is possible to realize an appropriate timing determination process in the stereoscopic system. Become.

また本発明の一態様では、前記判定部は、プレーヤの入力タイミングと前記移動体の前記判定基準エリアの通過タイミングとに基づいて、前記タイミング判定処理を行い、前記画像生成部は、前記判定基準エリアの前記通過タイミングにおいて前記移動体の画像の視差が無くなるように、前記移動体が表示された立体視用画像を生成してもよい。   In the aspect of the invention, the determination unit performs the timing determination process based on an input timing of a player and a passage timing of the moving object in the determination reference area, and the image generation unit A stereoscopic image on which the moving body is displayed may be generated so that the parallax of the image of the moving body disappears at the passage timing of the area.

このようにすれば、プレーヤの入力タイミングと移動体の通過タイミングとに基づいてタイミング判定処理が行われると共に、通過タイミングにおいて移動体の画像の視差が無くなるように立体視用画像が生成される。従って、例えばプレーヤは、判定基準エリアの通過タイミングにおいて視差が無くなる移動体の画像を見ながら、操作入力を行うことができるため、立体視システムにおける適切なタイミング判定処理を実現できる。   In this way, the timing determination process is performed based on the input timing of the player and the passing timing of the moving body, and the stereoscopic image is generated so that the parallax of the moving body image is eliminated at the passing timing. Therefore, for example, the player can perform an operation input while viewing an image of a moving body that has no parallax at the passage timing of the determination reference area, and therefore, an appropriate timing determination process in the stereoscopic system can be realized.

また本発明の一態様では、ゲーム演算処理を行うゲーム演算部を含み(ゲーム演算部としてコンピュータを機能させ)、前記判定部は、前記タイミング判定処理として、前記入力タイミングと前記通過タイミングとのタイミング関係に基づく評価処理を行い、前記ゲーム演算部は、前記評価処理の結果に基づいて、前記ゲーム演算処理を行ってもよい。   In one embodiment of the present invention, a game calculation unit that performs a game calculation process is included (a computer is caused to function as the game calculation unit), and the determination unit performs a timing between the input timing and the passage timing as the timing determination process. An evaluation process based on a relationship may be performed, and the game calculation unit may perform the game calculation process based on a result of the evaluation process.

このようにすれば、判定基準エリアの通過タイミングにおいて画像の視差が無くなる移動体を用いてタイミング判定処理を実現できると共に、入力タイミングと通過タイミングとのタイミング関係に基づく評価処理の結果により、ゲーム演算処理を実行できる。従って、立体視システムにおける適切なタイミング判定処理を実現しながら、そのタイミング判定処理の評価処理の結果をゲーム演算処理に反映させることが可能になる。   In this way, the timing determination process can be realized by using a moving object that has no image parallax at the passage timing of the judgment reference area, and the game calculation is performed based on the result of the evaluation process based on the timing relationship between the input timing and the passage timing. Processing can be executed. Therefore, it is possible to reflect the result of the evaluation process of the timing determination process in the game calculation process while realizing an appropriate timing determination process in the stereoscopic vision system.

また本発明の一態様では、前記ゲーム演算部は、前記プレーヤのゲーム成績の演算処理、前記移動体の表示制御処理、及びゲーム演出処理の少なくとも1つを、前記評価処理の結果に基づく前記ゲーム演算処理として行ってもよい。   In one aspect of the present invention, the game calculation unit performs at least one of a calculation process of a game result of the player, a display control process of the moving object, and a game effect process based on a result of the evaluation process. You may perform as arithmetic processing.

このようにすれば、タイミング判定処理の評価結果を、プレーヤのゲーム成績や移動体の表示制御やゲーム演出処理に反映させることが可能になる。   In this way, the evaluation result of the timing determination process can be reflected in the game result of the player, the display control of the moving body, and the game effect process.

また本発明の一態様では、前記画像生成部は、前記入力タイミングと前記通過タイミングとのタイミング差に応じて、前記移動体の画像の視差が変化する立体視用画像を生成してもよい。   In the aspect of the invention, the image generation unit may generate a stereoscopic image in which the parallax of the image of the moving body changes according to a timing difference between the input timing and the passage timing.

このようにすれば、入力タイミングと通過タイミングとのタイミング差を、移動体の画像の視差の変化により表すことが可能になり、プレーヤがタイミングを把握しやすいタイミング判定処理を実現できるようになる。   In this way, the timing difference between the input timing and the passage timing can be expressed by a change in parallax of the moving object image, and a timing determination process in which the player can easily grasp the timing can be realized.

また本発明の一態様では、前記判定部は、前記タイミング判定処理として、前記判定基準エリアが設定される領域において、ヒット対象物である前記移動体がヒット体によってヒットされるヒット判定処理を行ってもよい。   In the aspect of the invention, the determination unit may perform a hit determination process in which the mobile object that is a hit object is hit by a hit object in the region where the determination reference area is set as the timing determination process. May be.

このようにすれば判定基準エリアを有効利用して、移動体がヒット体によってヒットされるヒット判定処理を実現できるようになる。   In this way, it is possible to realize the hit determination process in which the moving object is hit by the hit object by effectively using the determination reference area.

また本発明の一態様では、前記判定部は、前記判定基準エリアを含むヒット判定ボリュームを設定し、プレーヤの入力タイミングにおいて前記ヒット判定ボリューム内に前記移動体が位置していた場合に、前記ヒット体によって前記移動体がヒットされたと判定してもよい。   Also, in one aspect of the present invention, the determination unit sets a hit determination volume including the determination reference area, and the hit body is located in the hit determination volume at a player input timing. You may determine with the body that the said mobile body was hit.

このようにすれば、判定基準エリアを含むヒット判定ボリュームを設定して、移動体がヒット体によってヒットされたか否かを適切に判定できるようになる。   In this way, it is possible to set a hit determination volume including a determination reference area and appropriately determine whether or not the mobile object has been hit by the hit object.

また本発明の一態様では、画像生成部は、前記ヒット判定ボリューム内に前記移動体が位置する場合に、前記移動体の色、形状及び大きさの少なくとも1つが変化する立体視用画像を生成してもよい。   In one aspect of the present invention, the image generation unit generates a stereoscopic image in which at least one of the color, shape, and size of the moving body changes when the moving body is located in the hit determination volume. May be.

このようにすれば、プレーヤは、移動体の色、形状又は大きさの変化を見ることで、移動体がヒット判定ボリュームに位置していることを認識できるようになり、プレーヤにとって把握しやすいヒット判定処理を実現できる。   In this way, the player can recognize that the moving body is positioned in the hit determination volume by observing the change in the color, shape, or size of the moving body. Judgment processing can be realized.

また本発明の一態様では、前記判定部は、前記判定基準エリアよりも視点側から見て手前側の第1のヒット判定ボリュームと、視点側から見て奥側の第2のヒット判定ボリュームを設定し、前記プレーヤの入力タイミングにおいて前記移動体が前記第1のヒット判定ボリューム内に位置していた場合には、前記移動体のヒット方向を第1の方向側に設定し、前記プレーヤの前記入力タイミングにおいて前記移動体が前記第2のヒット判定ボリューム内に位置していた場合には、前記移動体の前記ヒット方向を前記第1の方向側とは異なる第2の方向側に設定してもよい。   In the aspect of the invention, the determination unit may include a first hit determination volume on the near side as viewed from the viewpoint side with respect to the determination reference area and a second hit determination volume on the back side as viewed from the viewpoint side. If the moving body is located in the first hit determination volume at the input timing of the player, the hit direction of the moving body is set to the first direction side, and the player If the moving body is located in the second hit determination volume at the input timing, the hit direction of the moving body is set to a second direction side different from the first direction side. Also good.

このようにすれば、判定基準エリアを基準として第1、第2のヒット判定ボリュームを設定するだけで、移動体のヒット方向を設定することが可能になり、よりリアルなヒット判定処理等を実現できるようになる。   In this way, it is possible to set the hit direction of the moving object simply by setting the first and second hit determination volumes based on the determination reference area, thereby realizing more realistic hit determination processing and the like. become able to.

また本発明の一態様では、前記判定部は、前記判定基準エリアでの前記移動体の通過位置と、前記判定基準エリアでのプレーヤのヒット指示位置との位置関係に応じて、前記ヒット体によるヒット後の前記移動体の状態を決めるヒット結果パラメータを設定してもよい。   In the aspect of the invention, the determination unit may use the hit body according to a positional relationship between a passing position of the moving body in the determination reference area and a hit instruction position of the player in the determination reference area. You may set the hit result parameter which determines the state of the said mobile body after a hit.

このように移動体の通過位置とプレーヤのヒット指示位置の位置関係に応じてヒット結果パラメータを設定すれば、よりリアルで適切な移動体のヒット処理等を実現できるようになる。   Thus, if the hit result parameter is set according to the positional relationship between the passing position of the moving object and the hit instruction position of the player, a more realistic and appropriate hit process of the moving object can be realized.

また本発明の一態様では、前記画像生成部は、前記プレーヤのヒット指示位置を知らせるための指示位置表示用オブジェクトが前記判定基準エリアの位置に表示された立体視用画像を生成してもよい。   In the aspect of the invention, the image generation unit may generate a stereoscopic image in which an instruction position display object for notifying the hit instruction position of the player is displayed at the position of the determination reference area. .

このようにすれば、プレーヤは、指示位置表示用オブジェクトを見ることで、自身が指示した判定基準エリア上での指示位置を事後的に確認できるようになる。   In this way, the player can later confirm the designated position on the determination reference area designated by the player by looking at the designated position display object.

また本発明の一態様では、前記画像生成部は、前記プレーヤが前記ヒット指示位置を指示した入力タイミングでの前記移動体の位置を知らせるための移動体位置表示用オブジェクトが表示された立体視用画像を生成してもよい。   In one aspect of the present invention, the image generation unit may be used for stereoscopic viewing on which a moving body position display object is displayed for notifying the position of the moving body at an input timing when the player instructs the hit instruction position. An image may be generated.

このようにすれば、プレーヤは、移動体位置表示用オブジェクトを見ることで、入力タイミングでの移動体の位置を事後的に確認できるようになる。   In this way, the player can later confirm the position of the moving body at the input timing by looking at the moving body position display object.

また本発明の一態様では、前記画像生成部は、前記移動体の前記判定基準エリアの通過タイミングよりも前記入力タイミングの方が遅い場合には、前記判定基準エリアよりも視点側から見て手前側に前記移動体位置表示用オブジェクトが表示され、前記移動体の前記判定基準エリアの通過タイミングよりも前記入力タイミングの方が早い場合には、前記判定基準エリアよりも視点側から見て奧側に前記移動体位置表示用オブジェクトが表示された立体視用画像を生成してもよい。   In one aspect of the present invention, the image generation unit may be seen from the viewpoint side of the determination reference area when the input timing is later than the passage timing of the moving object through the determination reference area. When the moving body position display object is displayed on the side, and the input timing is earlier than the passing timing of the moving body through the determination criterion area, the heel side is viewed from the viewpoint side than the determination criterion area. Alternatively, a stereoscopic image in which the moving body position display object is displayed may be generated.

このようにすれば、プレーヤは、移動体位置表示オブジェクトと判定基準エリアとの前後方向での位置関係を見ることで、自身の入力タイミングと通過タイミングの時間的なタイミング関係を容易に把握できるようになる。   In this way, the player can easily grasp the temporal timing relationship between the input timing and the passage timing by looking at the positional relationship between the moving object position display object and the determination reference area in the front-rear direction. become.

また本発明の一態様では、前記判定部は、前記判定基準エリアの位置、方向及び形状の少なくとも1つを可変に設定してもよい。   In the aspect of the invention, the determination unit may variably set at least one of the position, direction, and shape of the determination reference area.

このように判定基準エリアの位置や方向や形状を変化させることで、多彩で適切なタイミング判定処理を実現できるようになる。   By changing the position, direction, and shape of the determination reference area in this way, various and appropriate timing determination processes can be realized.

また本発明の一態様では、前記判定部は、プレーヤが操作するキャラクタの情報に基づいて、前記判定基準エリアの位置、方向及び形状の少なくとも1つを可変に設定してもよい。   In the aspect of the invention, the determination unit may variably set at least one of the position, direction, and shape of the determination reference area based on information on a character operated by the player.

このようにすれば、例えばキャラクタの位置、方向又はステータスなどのキャラクタ情報に応じて、判定基準エリアの位置や方向や形状が変化するようになり、多彩で適切なタイミング判定処理を実現できるようになる。   In this way, for example, the position, direction, and shape of the determination reference area change according to character information such as the position, direction, or status of the character, so that a variety of appropriate timing determination processes can be realized. Become.

また本発明の一態様では、前記移動体は球技ゲームにおけるボールであり、前記判定部は、前記球技ゲームに登場するキャラクタの所持物又は部位により前記ボールがヒットされる領域に、前記判定基準エリアを設定してもよい。   In one aspect of the present invention, the moving body is a ball in a ball game, and the determination unit includes the determination reference area in an area where the ball is hit by the possession or part of a character appearing in the ball game. May be set.

このようにすれば、キャラクタの所持物や部位によりボールをヒットする球技ゲームにおいて、適切なタイミング判定処理を実現できるようになる。   In this way, an appropriate timing determination process can be realized in a ball game in which the ball is hit by a character's possession or part.

また本発明の一態様では、前記球技ゲームは野球ゲームであり、前記判定部は、前記野球ゲームにおけるホームベース上に前記判定基準エリアを設定してもよい。   In one aspect of the present invention, the ball game is a baseball game, and the determination unit may set the determination reference area on a home base in the baseball game.

このようにすれば、ホームベース付近において画像の視差が無くなるボールを用いて、バッティングにおけるタイミング判定処理を実現できるようになる。   In this way, the timing determination process in batting can be realized using a ball that has no image parallax near the home base.

また本発明の一態様では、前記画像生成部は、前記判定基準エリアに対応する位置に設定された基準スクリーンに対して前記移動体のオブジェクトを透視投影して描画することで、前記判定基準エリアを前記移動体が通過する際に前記移動体の画像の視差が無くなる立体視用画像を生成してもよい。   In the aspect of the invention, the image generation unit may project the object of the moving body on the reference screen set at a position corresponding to the determination reference area, thereby drawing the determination reference area. When the moving body passes through, a stereoscopic image in which parallax of the image of the moving body is eliminated may be generated.

このようにすれば、基準スクリーンへの移動体のオブジェクトの透視投影を行うことで、判定基準エリアを通過する際に視差が無くなるような移動体の画像を生成できるようになる。   In this way, by performing perspective projection of the moving object on the reference screen, it is possible to generate an image of the moving object that eliminates parallax when passing through the determination reference area.

また本発明の一態様では、前記画像生成部は、前記判定基準エリアを前記移動体が通過する際に前記移動体の色、形状及びサイズの少なくとも1つが変化する立体視用画像を生成してもよい。   In the aspect of the invention, the image generation unit may generate a stereoscopic image in which at least one of a color, a shape, and a size of the moving body changes when the moving body passes through the determination reference area. Also good.

このようにすれば、判定基準エリアを通過する際の移動体の視認性が向上するようになり、プレーヤが把握しやすいタイミング判定処理等を実現できる。   In this way, the visibility of the moving body when passing through the determination reference area is improved, and timing determination processing and the like that are easy for the player to grasp can be realized.

また本発明の一態様では、音を生成する音生成部を含み(音生成部としてコンピュータを機能させ)、前記音生成部は、前記移動体の視差に応じて、音像定位が変化する音を生成してもよい。   In one embodiment of the present invention, a sound generation unit that generates sound (a computer is caused to function as the sound generation unit), and the sound generation unit outputs a sound whose sound image localization changes according to parallax of the moving body. It may be generated.

このようにすれば、移動体の視差のみならず、移動体の視差に連動する音像定位も利用して、移動体の立体感をプレーヤに感じさせることが可能になる。   In this way, not only the parallax of the moving body but also the sound image localization linked to the parallax of the moving body can be used to make the player feel the stereoscopic effect of the moving body.

また本発明の他の態様は、移動体の制御を行う移動体制御部と、前記移動体を用いたタイミング判定処理を行う判定部と、立体視用画像を生成するための画像生成用データを生成する画像生成用データ生成部とを含み、前記画像生成用データ生成部は、前記タイミング判定処理に用いられる判定基準エリアを前記移動体が通過する際に前記移動体の画像の視差が無くなるように、前記移動体が表示された立体視用画像を生成するための画像生成用データを生成するサーバシステムに関係する。   According to another aspect of the present invention, a moving body control unit that controls a moving body, a determination unit that performs timing determination processing using the moving body, and image generation data for generating a stereoscopic image are provided. An image generation data generation unit for generating the image generation data generation unit, so that the parallax of the image of the moving object is eliminated when the moving object passes through the determination reference area used for the timing determination process. Further, the present invention relates to a server system that generates image generation data for generating a stereoscopic image on which the moving body is displayed.

本実施形態の画像生成システムの構成例。1 is a configuration example of an image generation system according to the present embodiment. 立体視におけるオブジェクトの描画位置の説明図。Explanatory drawing of the drawing position of the object in stereoscopic vision. 図3(A)〜図3(C)は本実施形態の手法の説明図。FIG. 3A to FIG. 3C are explanatory diagrams of the method of this embodiment. 図4(A)、図4(B)は移動体の画像の視差についての説明図。4A and 4B are explanatory diagrams of parallax of an image of a moving object. 図5(A)〜図5(E)は入力タイミングの評価処理についての説明図。FIGS. 5A to 5E are explanatory diagrams of input timing evaluation processing. 図6(A)、図6(B)は本実施形態が適用される携帯型ゲーム装置の構成例。6A and 6B are configuration examples of a portable game device to which this embodiment is applied. 本実施形態を野球ゲームに適用した場合に生成される画像の例。The example of the image produced | generated when this embodiment is applied to a baseball game. 本実施形態を野球ゲームに適用した場合に生成される画像の例。The example of the image produced | generated when this embodiment is applied to a baseball game. 本実施形態を野球ゲームに適用した場合に生成される画像の例。The example of the image produced | generated when this embodiment is applied to a baseball game. 本実施形態を野球ゲームに適用した場合に生成される画像の例。The example of the image produced | generated when this embodiment is applied to a baseball game. 本実施形態を野球ゲームに適用した場合に生成される画像の例。The example of the image produced | generated when this embodiment is applied to a baseball game. ヒット判定ボリュームを用いたヒット判定手法の説明図。Explanatory drawing of the hit determination method using hit determination volume. 図13(A)、図13(B)もヒット判定ボリュームを用いたヒット判定手法の説明図。FIGS. 13A and 13B are also explanatory diagrams of a hit determination method using a hit determination volume. 図14(A)、図14(B)は移動体の通過位置とプレーヤの指示位置の位置関係に基づくヒット結果パラメータの設定手法の説明図。14A and 14B are explanatory diagrams of a hit result parameter setting method based on the positional relationship between the passing position of the moving object and the player's designated position. 図15(A)、図15(B)は指示位置表示用オブジェクト、移動体位置表示用オブジェクトの配置手法の説明図。FIG. 15A and FIG. 15B are explanatory diagrams of an arrangement method of an indicated position display object and a moving body position display object. キャラクタの情報に基づいて判定基準エリアの位置等を可変に設定する手法の説明図。Explanatory drawing of the method of variably setting the position of a determination reference area, etc. based on character information. 本実施形態を音楽ゲームに適用した場合に生成される画像の例。The example of the image produced | generated when this embodiment is applied to a music game. 本実施形態を音楽ゲームに適用した場合に生成される画像の例。The example of the image produced | generated when this embodiment is applied to a music game. 図19(A)〜図19(C)は本実施形態を音楽ゲームに適用した場合のタイミング判定手法の説明図。FIGS. 19A to 19C are explanatory diagrams of a timing determination method when the present embodiment is applied to a music game. 図20(A)〜図20(C)は本実施形態を音楽ゲームに適用した場合の入力タイミングの評価手法の説明図。20A to 20C are explanatory diagrams of an input timing evaluation method when the present embodiment is applied to a music game. 図21(A)、図21(B)は判定基準エリアの通過の際に移動体の色、形状又はサイズを変化させる手法の説明図。FIG. 21A and FIG. 21B are explanatory diagrams of a method for changing the color, shape, or size of the moving object when passing through the determination reference area. 図22(A)、図22(B)はヒット判定ボリュームに位置する場合に移動体の色、形状又はサイズを変化させる手法の説明図。FIGS. 22A and 22B are explanatory diagrams of a method for changing the color, shape, or size of a moving object when located in the hit determination volume. 移動体の視差に応じて音像定位が変化する音を生成する手法の説明図。Explanatory drawing of the method of producing | generating the sound from which sound image localization changes according to the parallax of a moving body. 本実施形態の詳細な処理を説明するフローチャート。The flowchart explaining the detailed process of this embodiment. 本実施形態の詳細な処理を説明するフローチャート。The flowchart explaining the detailed process of this embodiment. 本実施形態の詳細な処理を説明するフローチャート。The flowchart explaining the detailed process of this embodiment. 本実施形態のサーバシステムの構成例。The structural example of the server system of this embodiment.

以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。   Hereinafter, this embodiment will be described. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.

1.構成
図1に本実施形態の画像生成システム(ゲームシステム)のブロック図の例を示す。なお、本実施形態の画像生成システムの構成は図1に限定されず、その構成要素(各部)の一部を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。
1. Configuration FIG. 1 shows an example of a block diagram of an image generation system (game system) of the present embodiment. Note that the configuration of the image generation system of the present embodiment is not limited to that shown in FIG. 1, and various modifications may be made such as omitting some of the components (each unit) or adding other components. .

操作部160は、プレーヤが操作データを入力するためのものであり、その機能は、方向指示キー、操作ボタン、アナログスティック、レバー、各種センサ(角速度センサ、加速度センサ等)、マイク、或いはタッチパネル型ディスプレイなどにより実現できる。   The operation unit 160 is for a player to input operation data, and functions thereof are direction instruction keys, operation buttons, analog sticks, levers, various sensors (such as an angular velocity sensor and an acceleration sensor), a microphone, or a touch panel type. This can be realized with a display.

記憶部170は、処理部100や通信部196などのワーク領域となるもので、その機能はRAM(DRAM、VRAM)などにより実現できる。そしてゲームプログラムや、ゲームプログラムの実行に必要なゲームデータは、この記憶部170に保持される。   The storage unit 170 serves as a work area for the processing unit 100, the communication unit 196, and the like, and its function can be realized by a RAM (DRAM, VRAM) or the like. Then, the game program and game data necessary for executing the game program are held in the storage unit 170.

情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(DVD、CD等)、HDD(ハードディスクドライブ)、或いはメモリ(ROM等)などにより実現できる。処理部100は、情報記憶媒体180に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち情報記憶媒体180には、本実施形態の各部としてコンピュータ(操作部、処理部、記憶部、出力部を備える装置)を機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶される。   The information storage medium 180 (a computer-readable medium) stores programs, data, and the like, and functions as an optical disk (DVD, CD, etc.), HDD (hard disk drive), memory (ROM, etc.), etc. Can be realized. The processing unit 100 performs various processes of the present embodiment based on a program (data) stored in the information storage medium 180. That is, in the information storage medium 180, a program for causing a computer (an apparatus including an operation unit, a processing unit, a storage unit, and an output unit) to function as each unit of the present embodiment (a program for causing the computer to execute processing of each unit). Is memorized.

表示部190は、本実施形態により生成された画像を出力するものであり、その機能は、LCD、有機ELディスプレイ、CRT、タッチパネル型ディスプレイ、或いはHMD(ヘッドマウントディスプレイ)などにより実現できる。音出力部192は、本実施形態により生成された音を出力するものであり、その機能は、スピーカ、或いはヘッドフォンなどにより実現できる。   The display unit 190 outputs an image generated according to the present embodiment, and its function can be realized by an LCD, an organic EL display, a CRT, a touch panel display, an HMD (head mounted display), or the like. The sound output unit 192 outputs the sound generated by the present embodiment, and its function can be realized by a speaker, headphones, or the like.

補助記憶装置194(補助メモリ、2次メモリ)は、記憶部170の容量を補うために使用される記憶装置であり、SDメモリーカード、マルチメディアカードなどのメモリーカードなどにより実現できる。   The auxiliary storage device 194 (auxiliary memory, secondary memory) is a storage device used to supplement the capacity of the storage unit 170, and can be realized by a memory card such as an SD memory card or a multimedia card.

通信部196は、有線や無線のネットワークを介して外部(例えば他の画像生成システム、サーバ、ホスト装置)との間で通信を行うものであり、その機能は、通信用ASIC又は通信用プロセッサなどのハードウェアや、通信用ファームウェアにより実現できる。   The communication unit 196 communicates with the outside (for example, another image generation system, a server, or a host device) via a wired or wireless network, and functions as a communication ASIC, a communication processor, or the like. It can be realized by hardware and communication firmware.

なお本実施形態の各部としてコンピュータを機能させるためのプログラム(データ)は、サーバ(ホスト装置)が有する情報記憶媒体からネットワーク及び通信部196を介して情報記憶媒体180(あるいは記憶部170、補助記憶装置194)に配信してもよい。このようなサーバ(ホスト装置)による情報記憶媒体の使用も本発明の範囲内に含めることができる。   Note that a program (data) for causing a computer to function as each unit of the present embodiment is obtained from an information storage medium of a server (host device) via an information storage medium 180 (or storage unit 170, auxiliary storage) via a network and communication unit 196. May be distributed to the device 194). Use of an information storage medium by such a server (host device) can also be included in the scope of the present invention.

処理部100(プロセッサ)は、操作部160からの操作データやプログラムなどに基づいて、ゲーム処理、画像生成処理、或いは音生成処理などを行う。処理部100は記憶部170をワーク領域として各種処理を行う。この処理部100の機能は、各種プロセッサ(CPU、GPU等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムにより実現できる。   The processing unit 100 (processor) performs game processing, image generation processing, sound generation processing, and the like based on operation data from the operation unit 160, a program, and the like. The processing unit 100 performs various processes using the storage unit 170 as a work area. The functions of the processing unit 100 can be realized by hardware such as various processors (CPU, GPU, etc.), ASIC (gate array, etc.), and programs.

処理部100は、ゲーム演算部102、オブジェクト空間設定部104、移動体制御部106、仮想カメラ制御部108、判定部110、画像生成部120、音生成部130を含む。   The processing unit 100 includes a game calculation unit 102, an object space setting unit 104, a moving body control unit 106, a virtual camera control unit 108, a determination unit 110, an image generation unit 120, and a sound generation unit 130.

ゲーム演算部102はゲーム演算処理を行う。ここでゲーム演算としては、ゲーム開始条件が満たされた場合にゲームを開始する処理、ゲームを進行させる処理、ゲーム結果を演算する処理、或いはゲーム終了条件が満たされた場合にゲームを終了する処理などがある。   The game calculation unit 102 performs game calculation processing. Here, as a game calculation, a process for starting a game when a game start condition is satisfied, a process for advancing the game, a process for calculating a game result, or a process for ending a game when a game end condition is satisfied and so on.

オブジェクト空間設定部104は、複数のオブジェクトが配置されるオブジェクト空間の設定処理を行う。例えば、キャラクタ(人、動物、ロボット、車、船舶、飛行機等)、ボール、指示マーカ、マップ(地形)、建物、コース(道路)、樹木、壁などの表示物を表す各種オブジェクト(ポリゴン、自由曲面又はサブディビジョンサーフェイスなどのプリミティブ面で構成されるオブジェクト)をオブジェクト空間に配置設定する処理を行う。即ちワールド座標系でのオブジェクトの位置や回転角度(向き、方向と同義)を決定し、その位置(X、Y、Z)にその回転角度(X、Y、Z軸回りでの回転角度)でオブジェクトを配置する。具体的には、記憶部170のオブジェクトデータ記憶部172には、オブジェクト(パーツオブジェクト)の位置、回転角度、移動速度、移動方向等のデータであるオブジェクトデータがオブジェクト番号に対応づけて記憶される。オブジェクト空間設定部104は、例えば各フレーム毎にこのオブジェクトデータを更新する処理などを行う。   The object space setting unit 104 performs an object space setting process in which a plurality of objects are arranged. For example, various objects (polygon, freedom, etc.) representing display objects such as characters (people, animals, robots, cars, ships, airplanes, etc.), balls, pointing markers, maps (terrain), buildings, courses (roads), trees, walls, etc. A process of placing and setting (objects configured with a primitive surface such as a curved surface or a subdivision surface) in the object space is performed. In other words, the position and rotation angle of the object in the world coordinate system (synonymous with direction and direction) are determined, and the rotation angle (rotation angle around the X, Y, and Z axes) is determined at that position (X, Y, Z). Arrange objects. Specifically, the object data storage unit 172 of the storage unit 170 stores object data such as the position, rotation angle, moving speed, moving direction, etc. of the object (part object) in association with the object number. . The object space setting unit 104 performs a process of updating the object data for each frame, for example.

移動体制御部106は、ボール、指示マーカ、キャラクタ等の移動体を移動させるための制御処理を行う。また移動体(移動体オブジェクト)を動作させるための制御処理を行う。即ち操作部160によりプレーヤが入力した操作データや、プログラム(移動・動作アルゴリズム)や、各種データ(モーションデータ)などに基づいて、移動体(オブジェクト、モデルオブジェクト)をオブジェクト空間内で移動させたり、移動体を動作(モーション、アニメーション)させる制御処理を行う。具体的には、移動体の移動情報(位置、回転角度、速度、或いは加速度)や動作情報(パーツオブジェクトの位置、或いは回転角度)を、1フレーム(1/60秒)毎に順次求めるシミュレーション処理を行う。なおフレームは、移動体の移動・動作処理(シミュレーション処理)や画像生成処理を行う時間の単位である。   The moving body control unit 106 performs control processing for moving a moving body such as a ball, an instruction marker, and a character. Also, a control process for operating the moving body (moving body object) is performed. That is, based on operation data input by the player through the operation unit 160, a program (movement / motion algorithm), various data (motion data), etc., a moving body (object, model object) is moved in the object space, Performs control processing to move the moving body (motion, animation). Specifically, a simulation process for sequentially obtaining movement information (position, rotation angle, speed, or acceleration) and motion information (part object position or rotation angle) of a moving body for each frame (1/60 second). I do. A frame is a unit of time for performing a moving / movement process (simulation process) and an image generation process of a moving object.

仮想カメラ制御部108は、オブジェクト空間内の所与(任意)の視点から見える画像を生成するための仮想カメラ(視点、基準仮想カメラ)の制御処理を行う。具体的には、仮想カメラの位置(X、Y、Z)又は回転角度(X、Y、Z軸回りでの回転角度)を制御する処理(視点位置、視線方向あるいは画角を制御する処理)を行う。   The virtual camera control unit 108 performs control processing of a virtual camera (viewpoint, reference virtual camera) for generating an image that can be seen from a given (arbitrary) viewpoint in the object space. Specifically, processing for controlling the position (X, Y, Z) or rotation angle (rotation angle about the X, Y, Z axis) of the virtual camera (processing for controlling the viewpoint position, the line-of-sight direction or the angle of view) I do.

例えば仮想カメラによりキャラクタを後方から撮影する場合には、キャラクタの位置又は方向の変化に仮想カメラが追従するように、仮想カメラの位置(視点位置)や方向(視線方向)を制御する。この場合には、移動体制御部106で得られたキャラクタの位置、方向又は速度などの情報に基づいて、仮想カメラを制御できる。或いは、仮想カメラを、予め決められた回転角度で回転させたり、予め決められた移動経路で移動させる制御を行ってもよい。この場合には、仮想カメラの位置(移動経路)又は方向を特定するための仮想カメラデータに基づいて仮想カメラを制御する。   For example, when a character is photographed from behind using a virtual camera, the position (viewpoint position) and direction (gaze direction) of the virtual camera are controlled so that the virtual camera follows changes in the position or direction of the character. In this case, the virtual camera can be controlled based on information such as the position, direction, or speed of the character obtained by the moving body control unit 106. Alternatively, the virtual camera may be controlled to rotate at a predetermined rotation angle or to move along a predetermined movement path. In this case, the virtual camera is controlled based on virtual camera data for specifying the position (movement path) or direction of the virtual camera.

判定部110は各種の判定処理を行う。判定部110が行う判定処理の詳細については後述する。   The determination unit 110 performs various determination processes. Details of the determination process performed by the determination unit 110 will be described later.

画像生成部120は、処理部100で行われる種々の処理(ゲーム処理、シミュレーション処理)の結果に基づいて描画処理を行い、これにより画像を生成し、表示部190に出力する。具体的には、座標変換(ワールド座標変換、カメラ座標変換)、クリッピング処理、透視変換、或いは光源処理等のジオメトリ処理が行われ、その処理結果に基づいて、描画データ(プリミティブ面の頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)が作成される。そして、この描画データ(プリミティブ面データ)に基づいて、透視変換後(ジオメトリ処理後)のオブジェクト(1又は複数プリミティブ面)を、描画バッファ178(フレームバッファ、ワークバッファ等のピクセル単位で画像情報を記憶できるバッファ)に描画する。これにより、オブジェクト空間内において仮想カメラ(所与の視点)から見える画像が生成される。なお、描画処理は頂点シェーダ処理やピクセルシェーダ処理等により実現することができる。   The image generation unit 120 performs drawing processing based on the results of various processing (game processing and simulation processing) performed by the processing unit 100, thereby generating an image and outputting the image to the display unit 190. Specifically, geometric processing such as coordinate transformation (world coordinate transformation, camera coordinate transformation), clipping processing, perspective transformation, or light source processing is performed. Based on the processing result, drawing data (the position of the vertex of the primitive surface) Coordinates, texture coordinates, color data, normal vector, α value, etc.) are created. Based on the drawing data (primitive surface data), the object (one or a plurality of primitive surfaces) after perspective transformation (after geometry processing) is converted into image information in units of pixels such as a drawing buffer 178 (frame buffer, work buffer, etc.). Draw in a buffer that can be stored. Thereby, an image that can be seen from the virtual camera (given viewpoint) in the object space is generated. Note that the rendering process can be realized by a vertex shader process, a pixel shader process, or the like.

音生成部130は、処理部100で行われる種々の処理の結果に基づいて音処理を行い、BGM、効果音、又は音声などのゲーム音を生成し、音出力部192に出力する。   The sound generation unit 130 performs sound processing based on the results of various processes performed by the processing unit 100, generates game sounds such as BGM, sound effects, or sounds, and outputs the game sounds to the sound output unit 192.

そして本実施形態では、移動体制御部106が、ボール、指示マーカ(音符)等の移動体の制御を行う。例えば移動体のオブジェクトをオブジェクト空間内で移動させる制御を行う。また判定部110が、移動体を用いたタイミング判定処理を行う。例えばプレーヤの入力タイミングと移動体の位置等に基づいて、野球ゲームや音楽ゲームなどの各種のゲームにおけるタイミング判定処理を行う。   In this embodiment, the moving body control unit 106 controls moving bodies such as balls and instruction markers (musical notes). For example, control is performed to move a moving object in the object space. Moreover, the determination part 110 performs the timing determination process using a moving body. For example, timing determination processing in various games such as a baseball game and a music game is performed based on the input timing of the player and the position of the moving body.

そして画像生成部120は立体視用画像を生成する。具体的には画像生成部120は、タイミング判定処理に用いられる判定基準エリアを移動体が通過する際に移動体の画像の視差が無くなるように、移動体が表示された立体視用画像を生成する。   Then, the image generation unit 120 generates a stereoscopic image. Specifically, the image generation unit 120 generates a stereoscopic image on which the moving body is displayed so that the parallax of the moving body image disappears when the moving body passes through the determination reference area used for the timing determination process. To do.

ここで立体視用画像は、2眼分離眼鏡方式等を例にとれば、左眼用画像、右眼用画像である。但し立体視用画像は、2眼分離眼鏡方式の左眼用画像、右眼用画像には限定されず、裸眼方式の立体視用画像であってもかまわない。裸眼方式には、裸眼2眼式のほか、多眼方式や、空間像方式等が含まれる。空間像方式としては、例えば「フラクショナル・ビュー方式」が提案されている。   Here, the stereoscopic image is an image for the left eye and an image for the right eye, taking a two-eye separation spectacle system as an example. However, the stereoscopic image is not limited to the left-eye image and the right-eye image of the two-eye separation spectacle method, and may be a naked-eye type stereoscopic image. The naked-eye method includes a multi-eye method, an aerial image method, and the like in addition to the naked-eye binocular method. As the aerial image method, for example, the “fractional view method” has been proposed.

また判定基準エリアは、移動体を用いたタイミング判定処理のために設定されるエリアである。判定基準エリアは、2次元図形のエリアであってもよいし、3次元図形のエリアであってもよい。或いは判定基準エリアは、判定基準となる位置であってもよい。   The determination reference area is an area set for timing determination processing using a moving object. The determination reference area may be a two-dimensional graphic area or a three-dimensional graphic area. Alternatively, the determination reference area may be a position serving as a determination reference.

また、移動体の画像の視差が無くなるとは、例えば移動体の画像の視差がゼロになることである。具体的には左眼用画像(広義には第1視点画像)のオブジェクトの基準スクリーン(透視投影面)での描画位置である第1描画位置と、右眼用画像(広義には第2視点画像)の対応するオブジェクトの基準スクリーンでの描画位置である第2描画位置とが一致することである。但し、移動体の画像の視差は完全にゼロである必要はなく、視差の値が所定しきい値以下である場合でもよい。例えば左眼用画像のオブジェクトの第1描画位置と右眼用画像の対応するオブジェクトの第2描画位置のずれ(差)が所定しきい値以下(例えば1ピクセル以下)である場合でもよい。また、この場合の視差(両眼視差)は、左眼(第1視点)と右眼(第2視点)で見る像の位置の差異のことであり、両眼像差(Binocular parallax)と呼ばれるものである。   Also, the loss of parallax of the moving body image means that the parallax of the moving body image becomes zero, for example. Specifically, the first drawing position, which is the drawing position on the reference screen (perspective projection plane) of the object of the image for the left eye (first viewpoint image in a broad sense), and the image for the right eye (second viewpoint in a broad sense). The second drawing position that is the drawing position on the reference screen of the corresponding object of (image) matches. However, the parallax of the image of the moving body does not have to be completely zero, and the parallax value may be a predetermined threshold value or less. For example, the deviation (difference) between the first drawing position of the object for the left eye image and the second drawing position of the corresponding object of the right eye image may be less than or equal to a predetermined threshold (for example, one pixel or less). Further, the parallax (binocular parallax) in this case is a difference in the positions of the images seen by the left eye (first viewpoint) and the right eye (second viewpoint), and is called a binocular parallax. Is.

なお画像生成部120は、タイミング判定処理に用いられる判定基準エリアを移動体が通過する際に移動体の画像の視差が所定視差になるように、移動体が表示された立体視用画像を生成するようにしてもよい。ここで、移動体の画像の視差が所定視差になるとは、移動体の画像の視差が、予め想定されている視差になることであり、例えば所定の視差範囲内になることである。具体的には左眼用画像(第1視点画像)のオブジェクトの基準スクリーンでの第1描画位置と、右眼用画像(第2視点画像)の対応するオブジェクトの基準スクリーンでの第2描画位置とのずれ(差)が、所定の基準値になったり、所定の基準範囲内になることである。この所定基準値や所定基準範囲のデータは例えば記憶部170に記憶される。   The image generation unit 120 generates a stereoscopic image on which the moving body is displayed so that the parallax of the moving body image becomes a predetermined parallax when the moving body passes through the determination reference area used for the timing determination process. You may make it do. Here, the parallax of the image of the moving body becomes a predetermined parallax means that the parallax of the image of the moving body becomes a parallax assumed in advance, for example, within a predetermined parallax range. Specifically, the first drawing position on the reference screen of the object of the left-eye image (first viewpoint image) and the second drawing position on the reference screen of the corresponding object of the right-eye image (second viewpoint image) The difference (difference) from the above becomes a predetermined reference value or falls within a predetermined reference range. The data of the predetermined reference value and the predetermined reference range is stored in the storage unit 170, for example.

例えば判定部110は、プレーヤの入力タイミングと移動体の判定基準エリアの通過タイミングとに基づいて、タイミング判定処理を行う。そして画像生成部120は、判定基準エリアの通過タイミングにおいて移動体の画像の視差が無くなるように(広義には所定視差になるように)、移動体が表示された立体視用画像(左眼用画像、右眼用画像)を生成する。例えばボールや指示マーカ等の移動体は、移動体制御部106の制御により例えばオブジェクト空間内で移動し、オブジェクト空間に設定された判定基準エリアを通過する。またプレーヤが操作部160を用いてタイミング判定のための操作を行うと、その操作の入力タイミング(操作を入力したフレーム)が取得される。そして判定部110は、プレーヤの入力タイミングと、移動体の判定基準エリアの通過タイミングとの一致判定処理(合致判定処理)を、タイミング判定処理として行う。この場合に画像生成部120は、ボールや指示マーカ等の移動体が、判定基準エリアの通過タイミングにおいてその画像の視差が無くなるように立体視用画像を生成する。例えば左眼用画像での移動体のオブジェクトの第1描画位置と右眼用画像での移動体のオブジェクトの第2描画位置とが、判定基準エリアの通過タイミングにおいて一致(略一致を含む)するように、左眼用画像、右眼用画像を生成する。   For example, the determination unit 110 performs timing determination processing based on the input timing of the player and the passage timing of the moving object determination reference area. The image generation unit 120 then displays the stereoscopic image (for the left eye) on which the moving body is displayed so that the parallax of the moving body image is eliminated at the passage timing of the determination reference area (so that the parallax is a predetermined parallax in a broad sense). Image, right eye image). For example, a moving body such as a ball or an instruction marker moves in the object space, for example, under the control of the moving body control unit 106 and passes through a determination reference area set in the object space. When the player performs an operation for timing determination using the operation unit 160, the input timing of the operation (the frame in which the operation is input) is acquired. Then, the determination unit 110 performs a coincidence determination process (match determination process) between the input timing of the player and the passage timing of the determination reference area of the moving object as the timing determination process. In this case, the image generation unit 120 generates a stereoscopic image so that a moving body such as a ball or an instruction marker has no parallax of the image at the passage timing of the determination reference area. For example, the first drawing position of the moving object in the left-eye image and the second drawing position of the moving object in the right-eye image match (including substantially matching) at the passage timing of the determination reference area. As described above, the left-eye image and the right-eye image are generated.

また判定部110は、タイミング判定処理として、入力タイミングと通過タイミングとのタイミング関係に基づく評価処理を行う。例えば入力タイミングと通過タイミングのタイミング差(時間差、フレーム差)に基づく評価処理を行う。するとゲーム演算部102は、評価処理の結果(良い評価か悪い評価か)に基づいて、ゲーム演算処理を行う。具体的には、プレーヤのゲーム成績の演算処理、移動体の表示制御処理、及びゲーム演出処理の少なくとも1つを、評価処理の結果に基づくゲーム演算処理として行う。   The determination unit 110 performs an evaluation process based on the timing relationship between the input timing and the passage timing as the timing determination process. For example, evaluation processing based on the timing difference (time difference, frame difference) between the input timing and the passage timing is performed. Then, the game calculation unit 102 performs a game calculation process based on the result of the evaluation process (whether good evaluation or bad evaluation). Specifically, at least one of the player's game result calculation process, the moving body display control process, and the game effect process is performed as a game calculation process based on the result of the evaluation process.

ここでゲーム成績の演算処理は、タイミング判定処理に基づくゲームにより獲得されたプレーヤの得点やポイントや操作評価の演算処理である。例えば入力タイミングと通過タイミングのタイミング差(時間差)が少ないほど、プレーヤに対して高い得点や高いポイントや高い操作評価が与えられる。また移動体の表示制御処理は、例えば入力タイミングと通過タイミングとに基づく判定処理後における移動体の表示制御処理である。例えば評価結果に基づいて、移動体の移動方向や移動速度や移動加速度や表示態様を変化させる処理である。またゲーム演出処理は、タイミング判定処理の結果を視覚的又は聴覚的に表現するための演出処理であり、評価結果に基づく映像効果やサウンド効果を、ゲーム演出のために発生させる処理である。   Here, the game score calculation processing is calculation processing of player scores, points, and operation evaluations acquired by the game based on the timing determination processing. For example, the smaller the timing difference (time difference) between the input timing and the passage timing, the higher score, high point, and high operation evaluation are given to the player. The mobile object display control process is a mobile object display control process after a determination process based on, for example, an input timing and a passage timing. For example, it is a process of changing the moving direction, moving speed, moving acceleration, or display mode of the moving body based on the evaluation result. The game effect process is an effect process for visually or audibly expressing the result of the timing determination process, and is a process for generating a video effect or a sound effect based on the evaluation result for the game effect.

また画像生成部120は、入力タイミングと通過タイミングとのタイミング差に応じて、移動体の画像の視差が変化する立体視用画像を生成する。例えば入力タイミングと通過タイミングとのタイミング差が大きくなるにつれて、移動体の画像の視差が大きくなったり、小さくなる立体視用画像を生成する。更に具体的には画像生成部120は、入力タイミングと通過タイミングとのタイミング差が大きくなるほど、移動体の画像の視差が大きくなる立体視用画像を生成する。例えば入力タイミングと通過タイミングとのタイミング差が大きい場合には、立体視において基準スクリーンから飛び出したり引っ込んで見えるような立体視用画像を生成する。   In addition, the image generation unit 120 generates a stereoscopic image in which the parallax of the moving object image changes according to the timing difference between the input timing and the passage timing. For example, as the timing difference between the input timing and the passage timing increases, a stereoscopic image is generated in which the parallax of the moving object image increases or decreases. More specifically, the image generation unit 120 generates a stereoscopic image in which the parallax of the moving object image increases as the timing difference between the input timing and the passage timing increases. For example, when the timing difference between the input timing and the passage timing is large, a stereoscopic image that appears to protrude or retract from the reference screen in the stereoscopic view is generated.

また判定部110は、タイミング判定処理として、判定基準エリアが設定される領域において、ヒット対象物である移動体がヒット体によってヒットされるヒット判定処理を行ってもよい。球技ゲームを例にとれば、ボール等の移動体が、キャラクタの所持物(バット等)や部位(足、手等)などのヒット体によってヒットされるヒット判定処理を行う。この場合には判定基準エリアは、移動体がヒット体によってヒットされることが想定される場所(例えば野球ゲームにおけるホームベースの位置)に配置設定される。   Further, the determination unit 110 may perform a hit determination process in which a mobile object that is a hit target is hit by a hit object in an area where a determination reference area is set as a timing determination process. Taking a ball game as an example, hit determination processing is performed in which a moving body such as a ball is hit by a hit body such as a character possession (such as a bat) or a part (such as a foot or hand). In this case, the determination reference area is arranged and set at a place where the moving body is assumed to be hit by the hit body (for example, the position of the home base in the baseball game).

具体的には判定部110は、判定基準エリアを含むヒット判定ボリュームを設定する。例えば判定基準エリアを内包したり、判定基準エリアを中心とするヒット判定ボリュームを設定する。そしてプレーヤの入力タイミングにおいてヒット判定ボリューム内に移動体が位置していた場合に、ヒット体によって移動体がヒットされたと判定する。そして例えばヒット方向に移動体を移動させる処理を行う。   Specifically, the determination unit 110 sets a hit determination volume including a determination reference area. For example, a determination reference area is included, or a hit determination volume centered on the determination reference area is set. Then, when the moving body is located in the hit determination volume at the input timing of the player, it is determined that the moving body has been hit by the hit body. For example, a process of moving the moving body in the hit direction is performed.

この場合に画像生成部120は、ヒット判定ボリューム内に移動体が位置する場合に、移動体の色、形状及び大きさの少なくとも1つが変化する立体視用画像を生成してもよい。例えば移動体の色、形状又はサイズを、ヒット判定ボリューム内に位置する期間では、ヒット判定ボリュームに位置しない期間とは異なった色、形状又はサイズに設定する。このようにすることで、ヒット判定処理の際の移動体の視認性が高くなり、プレーヤがタイミングを把握しやすいヒット判定処理を実現できる。   In this case, the image generation unit 120 may generate a stereoscopic image in which at least one of the color, shape, and size of the moving object changes when the moving object is positioned within the hit determination volume. For example, the color, shape, or size of the moving object is set to a color, shape, or size that is different from the period that is not located in the hit determination volume in the period that is located in the hit determination volume. By doing so, the visibility of the moving object at the time of the hit determination process is increased, and a hit determination process in which the player can easily grasp the timing can be realized.

更に具体的には判定部110は、判定基準エリアよりも視点側(仮想カメラ側)から見て手前側の第1のヒット判定ボリュームと、視点側から見て奥側の第2のヒット判定ボリュームを設定する。そしてプレーヤの入力タイミングにおいて移動体が第1のヒット判定ボリューム内に位置していた場合には、移動体のヒット方向を、第1の方向側に設定する。一方、プレーヤの入力タイミングにおいて移動体が第2のヒット判定ボリューム内に位置していた場合には、移動体のヒット方向を、第1の方向側とは異なる第2の方向側に設定する。例えば第1の方向側が左方向側であれば、第2の方向側は右方向側になり、第1の方向側が右方向側であれば、第2の方向側は左方向側になる。或いは第1の方向側が上方向側であれば、第2の方向側は下方向側になり、第1の方向側が下方向側であれば、第2の方向側は上方向側になる。   More specifically, the determination unit 110 includes a first hit determination volume on the near side when viewed from the viewpoint side (virtual camera side) with respect to the determination reference area, and a second hit determination volume on the back side when viewed from the viewpoint side. Set. If the moving body is located in the first hit determination volume at the player input timing, the hit direction of the moving body is set to the first direction side. On the other hand, when the moving body is located in the second hit determination volume at the input timing of the player, the hit direction of the moving body is set to the second direction side different from the first direction side. For example, if the first direction side is the left direction side, the second direction side is the right direction side, and if the first direction side is the right direction side, the second direction side is the left direction side. Alternatively, if the first direction side is the upward direction side, the second direction side is the downward direction side, and if the first direction side is the downward direction side, the second direction side is the upward direction side.

また判定部110は、判定基準エリアでの移動体の通過位置と、判定基準エリアでのプレーヤのヒット指示位置との位置関係に応じて、ヒット体によるヒット後の移動体の状態を決めるヒット結果パラメータを設定してもよい。ここで、ヒット結果パラメータは、ヒット後の移動体の状態を決めるパラメータであり、ヒットの強さを決めるヒット強さパラメータ、ヒット後の移動体の速度を決めるヒット速度パラメータ、或いはヒット後の移動体の加速を決めるヒット加速度パラメータなどである。例えばヒット結果パラメータがヒット強さパラメータである場合には、移動体の通過位置とプレーヤのヒット指示位置が近い場合には、ヒット強さを強くし、通過位置とヒット指示位置が遠い場合にはヒット強さを弱くする。   Further, the determination unit 110 determines the state of the mobile body after the hit by the hit body according to the positional relationship between the passing position of the mobile body in the determination reference area and the hit instruction position of the player in the determination reference area. Parameters may be set. Here, the hit result parameter is a parameter for determining the state of the moving object after the hit, the hit strength parameter for determining the strength of the hit, the hit speed parameter for determining the speed of the moving object after the hit, or the movement after the hit Hit acceleration parameters that determine body acceleration. For example, when the hit result parameter is a hit strength parameter, if the passing position of the moving object is close to the player's hit instruction position, the hit strength is increased, and if the passing position is far from the hit instruction position, Decrease the hit strength.

また画像生成部120は、プレーヤのヒット指示位置をプレーヤに知らせるための指示位置表示用オブジェクトが判定基準エリアの位置に表示された立体視用画像を生成する。例えば指示位置表示用オブジェクトが、判定基準エリアに対応する基準スクリーン(スクリーン面)の位置に配置され、この指示位置表示用オブジェクトの画像を含む立体視用画像(左眼用画像、右眼用画像)が生成される。   Further, the image generation unit 120 generates a stereoscopic image in which an instruction position display object for informing the player of the hit instruction position of the player is displayed at the position of the determination reference area. For example, the indication position display object is arranged at the position of the reference screen (screen surface) corresponding to the determination reference area, and the stereoscopic image including the image of the indication position display object (the image for the left eye and the image for the right eye). ) Is generated.

更に画像生成部120は、プレーヤがヒット指示位置を指示した入力タイミングでの移動体の位置(例えばオブジェクト空間での3次元座標)をプレーヤに知らせるための移動体位置表示用オブジェクトが表示された立体視用画像を生成してもよい。具体的には画像生成部120は、移動体の判定基準エリアの通過タイミングよりも入力タイミングの方が遅い場合には、判定基準エリアよりも視点側(仮想カメラ側)から見て手前側に移動体位置表示用オブジェクトが表示される立体視用画像を生成する。一方、移動体の判定基準エリアの通過タイミングよりも入力タイミングの方が早い場合には、判定基準エリアよりも視点側から見て奧側に移動体位置表示用オブジェクトが表示された立体視用画像を生成する。こうすることで、入力タイミングでの移動体の3次元的な位置をプレーヤに知らせることが可能になる。   Furthermore, the image generation unit 120 displays a three-dimensional object on which a moving body position display object is displayed for informing the player of the position of the moving body (for example, three-dimensional coordinates in the object space) at the input timing when the player instructs the hit instruction position. A visual image may be generated. Specifically, when the input timing is later than the passage timing of the moving object's determination reference area, the image generation unit 120 moves closer to the front side as viewed from the viewpoint side (virtual camera side) than the determination reference area. A stereoscopic image on which the body position display object is displayed is generated. On the other hand, when the input timing is earlier than the passage timing of the moving object judgment reference area, the stereoscopic image in which the moving object position display object is displayed on the heel side when viewed from the viewpoint side than the judgment reference area. Is generated. By doing so, it becomes possible to inform the player of the three-dimensional position of the moving body at the input timing.

また判定部110は、判定基準エリアの位置、方向及び形状の少なくとも1つを可変に設定してもよい。例えばオブジェクト空間内での判定基準エリアの配置位置や配置方向や、判定基準エリアの形やサイズ等を可変に設定する。この場合に判定部110は、プレーヤが操作するキャラクタの情報に基づいて、判定基準エリアの位置、方向及び形状の少なくとも1つを可変に設定してもよい。ここでキャラクタの情報は、例えばキャラクタの位置、方向或いはステータス情報などである。例えばキャラクタの位置や方向に追従するように判定基準エリアの位置や方向を設定する。或いはキャラクタのステータス情報に応じて、判定基準エリアの形状(サイズ等)を変化させる。   The determination unit 110 may variably set at least one of the position, direction, and shape of the determination reference area. For example, the arrangement position and orientation of the determination reference area in the object space, the shape and size of the determination reference area, and the like are variably set. In this case, the determination unit 110 may variably set at least one of the position, direction, and shape of the determination reference area based on information on the character operated by the player. Here, the character information is, for example, the character position, direction, or status information. For example, the position and direction of the determination reference area are set so as to follow the position and direction of the character. Alternatively, the shape (size, etc.) of the determination reference area is changed according to the character status information.

なお、判定部110の判定処理に用いられる移動体は、例えば球技ゲームにおけるボール(ボールを表すオブジェクト)である。そして判定部110は、球技ゲームに登場するキャラクタの所持物(バット、ラケット等)又は部位(足、手、頭等)によりボールがヒットされる領域に、判定基準エリアを設定する。例えば球技ゲームが野球ゲームである場合には、野球ゲームにおけるホームベース上に判定基準エリアを設定する。また球技ゲームがテニスゲームやサッカーゲームである場合には、ラケットの打点位置や足のキック位置に対応する場所に判定基準エリアを設定する。   The moving body used for the determination process of the determination unit 110 is, for example, a ball (an object representing a ball) in a ball game. Then, the determination unit 110 sets a determination reference area in a region where the ball is hit by the possession (bat, racket, etc.) or part (foot, hand, head, etc.) of the character appearing in the ball game. For example, when the ball game is a baseball game, a determination reference area is set on the home base in the baseball game. When the ball game is a tennis game or a soccer game, a determination reference area is set at a location corresponding to the hitting position of the racket or the kicking position of the foot.

また画像生成部120は、判定基準エリアに対応する位置に設定された基準スクリーンに対して移動体のオブジェクトを透視投影して描画することで、判定基準エリアを移動体が通過する際に移動体の画像の視差が無くなる立体視用画像を生成する。具体的には、基準スクリーンに対して移動体のオブジェクトを、左眼用仮想カメラの視点で透視投影して描画することで、左眼用画像を生成する。また基準スクリーンに対して移動体のオブジェクトを、右眼用仮想カメラの視点で透視投影して描画することで、右眼用画像を生成する。   Further, the image generation unit 120 perspectively projects and draws the moving object on the reference screen set at a position corresponding to the determination reference area, so that the moving object passes through the determination reference area. A stereoscopic image that eliminates the parallax of the image is generated. Specifically, a left-eye image is generated by perspectively drawing a moving object on the reference screen from the viewpoint of the left-eye virtual camera. Further, a right-eye image is generated by perspectively projecting and drawing a moving object on the reference screen from the viewpoint of the right-eye virtual camera.

例えば2眼分離眼鏡方式の場合には、画像生成部120は、左眼用画像生成部(広義には第1視点画像生成部)122、右眼用画像生成部(広義には第2視点画像生成部)124を含む。そして左眼用画像生成部122が、左眼用仮想カメラの視点(第1の視点)での画像である左眼用画像(第1視点画像)を生成する。また右眼用画像生成部124が、右眼用仮想カメラの視点(第2の視点)での画像である右眼用画像(第2視点画像)を生成する。   For example, in the case of the two-eye separation spectacle method, the image generation unit 120 includes a left-eye image generation unit (first viewpoint image generation unit in a broad sense) 122 and a right-eye image generation unit (second viewpoint image in a broad sense). Generating section) 124. Then, the left-eye image generation unit 122 generates a left-eye image (first viewpoint image) that is an image at the viewpoint (first viewpoint) of the left-eye virtual camera. The right-eye image generation unit 124 generates a right-eye image (second viewpoint image) that is an image at the viewpoint (second viewpoint) of the right-eye virtual camera.

なお仮想カメラ制御部108は、例えば左眼用、右眼用仮想カメラを設定するための基準となる基準仮想カメラの制御を行う。そして、得られた基準仮想カメラの位置情報、方向情報と、設定されたカメラ間距離の情報に基づいて、左眼用、右眼用仮想カメラの位置情報(視点位置)、方向情報(視線方向)を求める。なお仮想カメラ制御部108が、左眼用、右眼用仮想カメラを直接制御するようにしてもよい。   Note that the virtual camera control unit 108 controls a reference virtual camera serving as a reference for setting, for example, left-eye and right-eye virtual cameras. Then, based on the obtained position information and direction information of the reference virtual camera and information on the set inter-camera distance, position information (viewpoint position) and direction information (line-of-sight direction) of the left-eye and right-eye virtual cameras ) Note that the virtual camera control unit 108 may directly control the left-eye and right-eye virtual cameras.

また立体方式としては、2眼分離眼鏡方式や、パララックスバリアやレンチキュラや、その他、光線の方向を制御することができる光学素子を用いた裸眼方式などの様々な方式を想定できる。2眼分離眼鏡方式としては、例えば偏光眼鏡方式、継時分離方式、色分離方式などがある。偏光眼鏡方式では、例えば表示部190の奇数ラインと偶数ラインに左眼用画像と右眼用画像を交互に表示し、これを偏光眼鏡(例えば左眼に水平方向の偏光フィルタ、右眼に垂直方向の偏光フィルタを付けた眼鏡)で見ることで立体視を実現する。或いは左眼用画像と右眼用画像を特殊な偏光フィルタを有するプロジェクタで投影し、投影画像を偏光眼鏡で見ることで立体視を実現してもよい。また継時分離方式(ページ・フリップ方式)では、表示部190に左眼用画像、右眼用画像を所定期間毎(例えば1/120秒毎、1/60秒毎)に交互に表示する。そして、この表示の切り替えに連動して液晶シャッター付きの眼鏡の左眼、右眼の液晶シャッターを交互に開閉することで、立体視を実現する。色分離方式では、例えばアナグリフ画像を生成し、赤青眼鏡等で見ることで、立体視を実現する。   As a stereoscopic method, various methods such as a two-eye separation spectacle method, a parallax barrier, a lenticular, and a naked eye method using an optical element capable of controlling the direction of light can be assumed. Examples of the binocular separation glasses method include a polarization glasses method, a time separation method, and a color separation method. In the polarized glasses method, for example, the left-eye image and the right-eye image are alternately displayed on the odd-numbered and even-numbered lines of the display unit 190, and this is displayed on the polarized glasses (for example, the horizontal polarization filter for the left eye and the vertical for the right eye). Stereoscopic viewing is realized by viewing with a pair of spectacles with a directional polarizing filter. Alternatively, the stereoscopic image may be realized by projecting the image for the left eye and the image for the right eye with a projector having a special polarization filter and viewing the projection image with polarized glasses. In the continuous separation method (page-flip method), the left-eye image and the right-eye image are alternately displayed on the display unit 190 every predetermined period (for example, every 1/120 second or 1/60 second). In conjunction with the switching of the display, the left and right liquid crystal shutters of the glasses with the liquid crystal shutter are alternately opened and closed to realize stereoscopic viewing. In the color separation method, for example, an anaglyph image is generated and viewed with red-blue glasses or the like to realize stereoscopic viewing.

また左眼用画像と右眼用画像から立体用視画像を生成する機能は、画像生成部120に持たせてもよいし、表示部190(テレビ等)に持たせてもよい。例えば画像生成部120が、サイドバイサイド方式の画像信号を出力する。すると表示部190が、このサイドバイサイドの画像信号に基づいて、奇数ラインと偶数ラインに左眼用画像と右眼用画像が交互に割り当てられるフィールドシーケンシャル方式の画像を表示する。或いは、左眼用画像と右眼用画像が所定期間毎に交互に切り替えられるフレームシーケンシャル方式の画像を表示する。或いは画像生成部120の方が、フィールドシーケンシャル方式やフレームシーケンシャル方式の画像を生成して、表示部190に出力するようにしてもよい。   In addition, the function of generating a stereoscopic image from the left-eye image and the right-eye image may be provided in the image generation unit 120 or may be provided in the display unit 190 (such as a television). For example, the image generation unit 120 outputs a side-by-side image signal. Then, the display unit 190 displays a field sequential image in which left-eye images and right-eye images are alternately assigned to odd lines and even lines based on the side-by-side image signal. Alternatively, a frame sequential image in which the left-eye image and the right-eye image are alternately switched every predetermined period is displayed. Alternatively, the image generation unit 120 may generate a field sequential method or frame sequential method image and output the generated image to the display unit 190.

また画像生成部120は、判定基準エリアを移動体が通過する際に移動体の色、形状及びサイズの少なくとも1つが変化する立体視用画像を生成してもよい。例えば移動体の色、形状又はサイズを、判定基準エリアの通過タイミングにおいては、通過タイミング以外のタイミングとは異なった色、形状又はサイズに設定する。このようにすることで、判定基準エリアの通過タイミングでの移動体の視認性が高くなり、プレーヤがタイミングを把握しやすいタイミング判定処理を実現できる。   The image generation unit 120 may generate a stereoscopic image in which at least one of the color, shape, and size of the moving body changes when the moving body passes through the determination reference area. For example, the color, shape, or size of the moving body is set to a color, shape, or size that is different from the timing other than the passage timing at the passage timing of the determination reference area. By doing so, the visibility of the moving object at the passage timing of the judgment reference area is increased, and a timing judgment process in which the player can easily grasp the timing can be realized.

またゲーム音や効果音等の音を生成する音生成部130は、移動体の視差に応じて、音像定位が変化する音を生成してもよい。即ち移動体の立体視の度合いに応じて、音出力部192から出力される音の音像定位を変化させる。例えば移動体が画面から飛び出して見えるような視差(立体視用画像)の場合には、音の音像定位を画面よりも手前側(プレーヤ側)の位置に設定する。一方、移動体が画面の奥側に引っ込むような視差の場合には、音の音像定位を画面よりも奥側の位置に設定する。このようにすることで、立体視用画像における移動体の立体感と、音の音像定位による立体感とが連動するようになり、プレーヤが感じる立体感を向上できる。   The sound generation unit 130 that generates sound such as game sound or sound effect may generate sound whose sound image localization changes according to the parallax of the moving body. That is, the sound image localization of the sound output from the sound output unit 192 is changed according to the degree of stereoscopic vision of the moving body. For example, in the case of parallax (stereoscopic image) where the moving body appears to jump out of the screen, the sound image localization of the sound is set to a position on the near side (player side) of the screen. On the other hand, in the case of parallax such that the moving body retracts to the back side of the screen, the sound image localization of the sound is set to a position on the back side of the screen. By doing so, the stereoscopic effect of the moving object in the stereoscopic image and the stereoscopic effect due to the sound image localization of the sound are linked, and the stereoscopic effect felt by the player can be improved.

なお本実施形態の画像生成システムはサーバシステムにより実現してもよい。図27にサーバシステムにより実現する場合の構成例を示す。   Note that the image generation system of the present embodiment may be realized by a server system. FIG. 27 shows a configuration example when realized by a server system.

サーバシステム500は、端末装置TM1〜TMnとネットワーク510を介して通信接続される。例えばサーバシステム500はホストであり、端末装置TM1〜TMnはクライアントである。サーバシステム500は例えば1又は複数のサーバ(認証サーバ、ゲームサーバ、通信サーバ、課金サーバ等)により実現できる。ネットワーク510(配信網、通信回線)は、例えばインターネットや無線LAN等を利用した通信路であり、直接接続のための専用線(専用ケーブル)やイーサネット(登録商標)等によるLANの他、電話通信網やケーブル網や無線LAN等の通信網を含むことができる。また通信方法については有線/無線を問わない。   Server system 500 is communicatively connected to terminal apparatuses TM1 to TMn via network 510. For example, the server system 500 is a host, and the terminal devices TM1 to TMn are clients. The server system 500 can be realized by, for example, one or a plurality of servers (authentication server, game server, communication server, billing server, etc.). The network 510 (distribution network, communication line) is a communication path using, for example, the Internet or a wireless LAN. In addition to a LAN using a dedicated line (dedicated cable) or Ethernet (registered trademark) for direct connection, telephone communication is also possible. A communication network such as a network, a cable network, or a wireless LAN can be included. The communication method may be wired / wireless.

端末装置TM1〜TMnは、例えば携帯型ゲーム装置、据え置き型の家庭用ゲーム装置、或いは業務用ゲーム装置等により実現される。携帯型ゲーム装置は専用のゲーム装置であってもよいし、携帯電話機や携帯型情報端末などのゲームプログラムの実行が可能な汎用の装置であってもよい。   The terminal devices TM1 to TMn are realized by, for example, a portable game device, a stationary home game device, an arcade game device, or the like. The portable game device may be a dedicated game device or a general-purpose device capable of executing a game program such as a mobile phone or a portable information terminal.

サーバシステム500は、処理部600、記憶部670、情報記憶媒体680、通信部696を含む。処理部600は、ゲーム演算部602、オブジェクト空間設定部604、移動体制御部606、仮想カメラ制御部608、判定部610、画像生成用データ生成部620、音生成用データ生成部630を含む。なおこれらの各部(各ブロック)の機能、動作等は、図1の各部(各ブロック)と同様である。   The server system 500 includes a processing unit 600, a storage unit 670, an information storage medium 680, and a communication unit 696. The processing unit 600 includes a game calculation unit 602, an object space setting unit 604, a moving body control unit 606, a virtual camera control unit 608, a determination unit 610, an image generation data generation unit 620, and a sound generation data generation unit 630. The functions, operations, etc. of these units (blocks) are the same as those of the units (blocks) in FIG.

例えばサーバシステム500の移動体制御部606は、移動体の制御を行い、判定部610は、移動体を用いたタイミング判定処理を行う。そして画像生成用データ生成部620は、立体視用画像を生成するための画像生成用データデータを生成する。また音生成用データ生成部630は、音を生成するための音生成用データを生成する。   For example, the moving body control unit 606 of the server system 500 controls the moving body, and the determination unit 610 performs timing determination processing using the moving body. Then, the image generation data generation unit 620 generates image generation data data for generating a stereoscopic image. The sound generation data generation unit 630 generates sound generation data for generating a sound.

そして本実施形態では画像生成用データ生成部620は、タイミング判定処理に用いられる判定基準エリアを移動体が通過する際に移動体の画像の視差が無くなるように、移動体が表示された立体視用画像を生成するための画像生成用データを生成する。   In this embodiment, the image generation data generation unit 620 displays the stereoscopic image on which the moving object is displayed so that the parallax of the image of the moving object disappears when the moving object passes through the determination reference area used for the timing determination process. Image generation data for generating a production image is generated.

ここで、画像を生成するための画像生成用データとは、本実施形態の手法により生成された画像をTM1〜TMnの各端末装置において表示するためのデータであり、画像データそのものであってもよいし、各端末装置が画像を生成するために使用する各種データ(オブジェクトデータ、制御結果データ、判定結果データ又は表示画面の設定データ等)であってもよい。例えばサーバシステム500が、各端末装置の操作部からの操作情報を取得し、各種の制御処理や各種の判定処理を行い、画像を生成して、TM1〜TMnの各端末装置に配信(ストリーム配信等)する場合には、上述の画像生成用データは画像データそのものになる。一方、サーバシステム500が、各端末装置の操作部からの操作情報を取得し、各種の制御処理や各種の判定処理を行い、その制御結果や判定結果に基づいてTM1〜TMnの各端末装置が画像を生成する場合には、上述の画像生成用データは、制御結果データや判定結果データやオブジェクトデータなどになる。音生成用データ生成部630が生成する音生成用データについても同様である。   Here, the image generation data for generating the image is data for displaying the image generated by the method of the present embodiment on each of the terminal devices TM1 to TMn, and even the image data itself. It may be various data (object data, control result data, determination result data, display screen setting data, etc.) used by each terminal device to generate an image. For example, the server system 500 acquires operation information from the operation unit of each terminal device, performs various control processes and various determination processes, generates images, and distributes them to the terminal devices TM1 to TMn (stream distribution) Etc.), the image generation data described above is the image data itself. On the other hand, the server system 500 acquires operation information from the operation unit of each terminal device, performs various control processes and various determination processes, and the terminal devices TM1 to TMn are based on the control results and determination results. When an image is generated, the above-described image generation data is control result data, determination result data, object data, or the like. The same applies to the sound generation data generated by the sound generation data generation unit 630.

なおゲーム演算部602、オブジェクト空間設定部604、移動体制御部606、仮想カメラ制御部608、判定部610、画像生成用データ生成部620、記憶部670、情報記憶媒体680、通信部696等の詳細な機能、動作は図1で上述に説明したものと同様であるため、詳細な説明は省略する。   It should be noted that the game calculation unit 602, the object space setting unit 604, the moving body control unit 606, the virtual camera control unit 608, the determination unit 610, the image generation data generation unit 620, the storage unit 670, the information storage medium 680, the communication unit 696, etc. Detailed functions and operations are the same as those described above with reference to FIG.

2.本実施形態の手法
次に本実施形態の手法について具体的に説明する。
2. Next, the method of this embodiment will be described in detail.

2.1 判定基準エリアを用いたタイミング判定処理
まず、本実施形態の手法について説明する前に、立体視におけるビューボリュームの設定について説明する。図2に示すように、立体視用画像を生成するためには、所与のカメラ間距離だけ離れた位置に設定される左眼用仮想カメラVCLと右眼用仮想カメラVCRを用いる。
2.1 Timing Determination Processing Using Determination Criteria Area First, setting of a view volume in stereoscopic vision will be described before describing the method of the present embodiment. As shown in FIG. 2, in order to generate a stereoscopic image, a left-eye virtual camera VCL and a right-eye virtual camera VCR that are set at positions separated by a given inter-camera distance are used.

そして左眼用仮想カメラVCLに対応して左眼用ビューボリュームVVL(左眼用視錐台)が設定され、右眼用仮想カメラVCRに対応して右眼用ビューボリュームVVR(右眼用視錐台)が設定される。具体的には左眼用、右眼用仮想カメラVCL、VCRの位置や方向に基づいて、左眼用、右眼用ビューボリュームVVL、VVRの位置や方向が設定される。   Then, a left-eye view volume VVL (left-eye view frustum) is set corresponding to the left-eye virtual camera VCL, and a right-eye view volume VVR (right-eye view) corresponding to the right-eye virtual camera VCR. Frustum) is set. Specifically, the positions and directions of the left-eye and right-eye view volumes VVL and VVR are set based on the positions and directions of the left-eye and right-eye virtual cameras VCL and VCR.

この場合に左眼用仮想カメラVCLから見える画像である左眼用画像は、左眼用ビューボリュームVVL内に存在するオブジェクトをスクリーンSC(基準スクリーン)に透視投影して描画することで生成される。同様に右眼用仮想カメラVCRから見える画像である右眼用画像は、右眼用ビューボリュームVVR内に存在するオブジェクトをスクリーンSCに透視投影して描画することで生成される。   In this case, the left-eye image, which is an image that can be seen from the left-eye virtual camera VCL, is generated by perspectively projecting an object that exists in the left-eye view volume VVL onto the screen SC (reference screen). . Similarly, an image for the right eye, which is an image that can be viewed from the virtual camera for right eye VCR, is generated by perspectively projecting an object existing in the right-eye view volume VVR onto the screen SC and drawing it.

この場合、スクリーンSCに透視投影されない位置にあるオブジェクトは、描画対象にはならないため、これらのオブジェクトに対して透視投影変換処理を行うと、処理の無駄となる。このため、各左眼用、右眼用仮想カメラにおいてスクリーンSCに透視投影されない位置にあるオブジェクトがビューボリューム内に入らないように、図2に示すように左眼用、右眼用ビューボリュームVVL、VVRが設定される。なお図2において、CNL、CFLは、各々、左眼用ビューボリュームVVLの前方クリッピング面、後方クリッピング面であり、CNR、CFRは、各々、右眼用ビューボリュームVVRの前方クリッピング面、後方クリッピング面である。   In this case, since objects at positions that are not perspective-projected on the screen SC are not drawn, if perspective projection conversion processing is performed on these objects, processing is wasted. Therefore, as shown in FIG. 2, the left-eye and right-eye view volumes VVL are provided so that objects at positions that are not perspective-projected on the screen SC in the left-eye and right-eye virtual cameras do not enter the view volume. , VVR is set. In FIG. 2, CNL and CFL are the front clipping plane and the rear clipping plane of the left eye view volume VVL, respectively. CNR and CFR are the front clipping plane and the rear clipping plane of the right eye view volume VVR, respectively. It is.

以上のように左眼用画像、右眼用画像を生成して立体視を実現する手法では、左眼用画像と右眼用画像の視差により奥行き感を認識させている。   As described above, in the method of generating the left-eye image and the right-eye image to realize stereoscopic viewing, the sense of depth is recognized by the parallax between the left-eye image and the right-eye image.

例えば図2において、スクリーンSC上の点Aに位置するオブジェクトについての、左眼用画像での描画位置ALと、右眼用画像での描画位置ARは同じ位置になる。   For example, in FIG. 2, the drawing position AL in the left-eye image and the drawing position AR in the right-eye image for the object located at the point A on the screen SC are the same position.

これに対して、点Bに位置するオブジェクトは、左眼用画像では点BLの位置に描画され、右眼用画像では点BRの位置に描画される。そして、このように左眼用画像、右眼用画像の描画位置にズレを持たせることで、点Bに位置するオブジェクトが、画面からユーザの方に飛び出して見える立体視表現を実現できる。   On the other hand, the object located at the point B is drawn at the position of the point BL in the image for the left eye, and is drawn at the position of the point BR in the image for the right eye. Then, by providing a shift in the drawing positions of the left-eye image and the right-eye image in this way, it is possible to realize a stereoscopic expression in which the object located at the point B appears to jump out of the screen toward the user.

さて、このような立体視システムにおいて野球ゲームや音楽ゲームなどのタイミング判定処理を行った場合に、何ら工夫を施さないと、プレーヤのタイミングの取り方が難しくなるおそれがあることが判明した。   Now, when timing determination processing such as a baseball game and a music game is performed in such a stereoscopic vision system, it has been found that it is difficult to determine the timing of the player unless any measures are taken.

そこで本実施形態では、野球ゲームにおけるボールや音楽ゲームにおける指示マーカ(音符)などの移動体を用いてタイミング判定を行う場合に、タイミング判定の判定基準エリアにおいて移動体の画像の視差が無くなるように立体視用画像を生成する手法を採用している。このようにすることで、判定基準エリアを境にして移動体が飛び出たり引っ込む立体視用画像が生成され、この移動体を用いた判定処理が行われるようになる。従って、例えば判定基準エリアがベストな位置になるようなタイミング判定を実現することができ、立体視システムにおける適切なタイミング判定処理を実現できる。   Therefore, in the present embodiment, when timing determination is performed using a moving body such as a ball in a baseball game or an instruction marker (musical note) in a music game, the parallax of the image of the moving body is eliminated in the determination criterion area for timing determination. A technique for generating a stereoscopic image is employed. In this way, a stereoscopic image in which the mobile body pops out or retracts with the determination reference area as a boundary is generated, and determination processing using this mobile body is performed. Therefore, for example, it is possible to realize timing determination so that the determination reference area is at the best position, and it is possible to realize appropriate timing determination processing in the stereoscopic system.

例えば図3(A)では、ボールや指示マーカ等の移動体MOBが移動している。具体的には、例えば判定基準エリアARBに近づくように、オブジェクト空間内において視点側(仮想カメラ側)から見て奥側から手前側に移動体MOBが移動する。この場合に、移動体MOBの画像は視差のある画像になっている。具体的には、例えば判定基準エリアARBよりも奥側に移動体MOBが引っ込んだように見える立体視用画像が生成される。   For example, in FIG. 3A, a moving body MOB such as a ball or an instruction marker is moving. Specifically, for example, the moving body MOB moves from the back side to the near side when viewed from the viewpoint side (virtual camera side) in the object space so as to approach the determination reference area ARB. In this case, the image of the moving body MOB is an image with parallax. Specifically, for example, a stereoscopic image is generated in which the moving body MOB appears to be retracted behind the determination reference area ARB.

図3(B)では移動体MOBが判定基準エリアARBを通過している。図3(B)では判定基準エリアARBは鉛直方向に沿った2次元の平面(四角形)になっている。後述するように野球ゲームを例にとれば、ホームベース上に判定基準エリアARBが設定される。   In FIG. 3B, the mobile body MOB passes through the determination reference area ARB. In FIG. 3B, the determination reference area ARB is a two-dimensional plane (rectangle) along the vertical direction. As will be described later, taking a baseball game as an example, a determination reference area ARB is set on the home base.

そして図3(B)のように本実施形態では、タイミング判定処理に用いられる判定基準エリアARBを移動体MOBが通過する際に移動体の画像の視差が無くなるように、立体視用画像が生成される。   As shown in FIG. 3B, in this embodiment, the stereoscopic image is generated so that the parallax of the moving body image disappears when the moving body MOB passes through the determination reference area ARB used for the timing determination process. Is done.

その後、図3(C)に示すように、判定基準エリアMOBから遠ざかるように、視点側から見て手前側に移動体MOBは移動する。この場合に、移動体MOBの画像は視差のある画像になっている。具体的には、例えば判定基準エリアARBよりも手前側に移動体MOBが飛び出しているように見える立体視用画像が生成される。   Thereafter, as shown in FIG. 3C, the moving body MOB moves to the near side as viewed from the viewpoint side so as to move away from the determination reference area MOB. In this case, the image of the moving body MOB is an image with parallax. Specifically, for example, a stereoscopic image that appears as if the moving body MOB is popping out from the determination reference area ARB is generated.

そしてプレーヤは、図3(B)のように移動体MOBが判定基準エリアARBを通過するタイミングと、入力タイミングとが一致するように、ゲームの操作入力を行う。野球ゲームを例にとれば、ホームベース上に設定された判定基準エリアARBをボールが通過する際にバットがボールをヒットするような入力タイミングで、ゲームの操作入力を行う。そしてプレーヤの入力タイミングと移動体MOBの判定基準エリアARBの通過タイミングとに基づいて、タイミング判定処理が行われる。この際、移動体MOBは、判定基準エリアARBの通過タイミングにおいて視差の無い画像になる。   Then, as shown in FIG. 3B, the player inputs a game operation so that the timing at which the mobile body MOB passes the determination reference area ARB matches the input timing. Taking a baseball game as an example, a game operation input is performed at an input timing such that the bat hits the ball when the ball passes the determination reference area ARB set on the home base. Then, a timing determination process is performed based on the input timing of the player and the passing timing of the determination reference area ARB of the moving body MOB. At this time, the moving body MOB becomes an image having no parallax at the passage timing of the determination reference area ARB.

このようにすれば、プレーヤは、移動体MOBが視差の無い状態で判定基準エリアARBを通過するタイミングに合わせて、操作入力を行うことが可能になる。従って、操作入力のジャストのタイミングが、視差の無い移動体MOBの画像が表示された状態になるため、プレーヤの操作入力を容易化できる。即ち、判定基準エリアARBの場所は、立体視において移動体が飛び出して見えるか引っ込んで見えるかの境目の境界になる。従って、この判定基準エリアARBの位置を、タイミング判定のジャストの位置に設定することで、プレーヤの操作入力が容易化される。野球ゲームを例にとれば、ボールが判定基準エリアARBを通過する際には、視差の無い画像になり、プレーヤは、この視差の無い画像のボールをヒットするようにバッティング操作を行う。従って、プレーヤにとってタイミングのとりやすい野球ゲームを実現できる。なお、入力タイミングは、プレーヤが操作部160を実際に操作するタイミングには限定されず、プレーヤが操作部160を操作することで、タイミング判定処理においてプレーヤの入力タイミングであると見なされるタイミングであってもよい。野球ゲームを例にとれば、プレーヤが操作部160を操作することにより、キャラクタがバットを振る動作を行った場合に、そのバットが判定基準エリアARBを通過するタイミングを、プレーヤの入力タイミングとすることができる。   In this way, the player can perform an operation input in accordance with the timing when the moving body MOB passes through the determination reference area ARB with no parallax. Therefore, the operation input just timing is in a state in which an image of the moving body MOB having no parallax is displayed, so that the operation input of the player can be facilitated. That is, the location of the determination reference area ARB is a boundary between the moving body and the boundary of whether the moving object appears to protrude or retract in stereoscopic view. Accordingly, by setting the position of the determination reference area ARB to the position of the timing determination just, the player's operation input is facilitated. Taking a baseball game as an example, when the ball passes the determination reference area ARB, an image without parallax is obtained, and the player performs a batting operation so as to hit the ball with the image without parallax. Therefore, it is possible to realize a baseball game that is easy to take for the player. Note that the input timing is not limited to the timing at which the player actually operates the operation unit 160, but is the timing at which the player operates the operation unit 160 and is considered to be the input timing of the player in the timing determination process. May be. Taking a baseball game as an example, when the player performs an action of swinging the bat by operating the operation unit 160, the timing at which the bat passes the determination reference area ARB is set as the input timing of the player. be able to.

図4(A)、図4(B)は、立体視における画像の視差について説明する図である。図4(A)に示すように視差のある画像では、左眼用画像でのオブジェクトMOBLの描画位置と、右眼用画像でのオブジェクトMOBRの描画位置がずれている。例えば図2の点Bの位置にあるオブジェクトは、左眼用画像ではスクリーンSCの点BLの位置に描画され、右眼用画像ではスクリーンSC上の点BRの位置に描画されるからである。   4A and 4B are diagrams for describing parallax of an image in stereoscopic view. As shown in FIG. 4A, in the image with parallax, the drawing position of the object MOBL in the left-eye image is different from the drawing position of the object MOBR in the right-eye image. For example, the object at the position of the point B in FIG. 2 is drawn at the position of the point BL on the screen SC in the image for the left eye, and is drawn at the position of the point BR on the screen SC in the image for the right eye.

一方、図4(B)に示すように視差の無い画像では、左眼用画像でのオブジェクトMOBLの描画位置と、右眼用画像でのオブジェクトMOBRの描画位置は一致している。例えば図2の点Aの位置にあるオブジェクトは、左眼用画像でも右眼用画像でもスクリーンSC上の点Aの位置に描画されるからである。   On the other hand, as shown in FIG. 4B, in the image without parallax, the drawing position of the object MOBL in the left-eye image and the drawing position of the object MOBR in the right-eye image are the same. For example, the object at the position of the point A in FIG. 2 is drawn at the position of the point A on the screen SC in both the left-eye image and the right-eye image.

次に本実施形態のタイミング判定処理の詳細について説明する。本実施形態では、タイミング判定処理として、プレーヤの入力タイミングと、判定基準エリアの移動体の通過タイミングとのタイミング関係に基づく評価処理を行っている。   Next, details of the timing determination process of the present embodiment will be described. In the present embodiment, as the timing determination process, an evaluation process based on the timing relationship between the input timing of the player and the passing timing of the moving object in the determination reference area is performed.

例えば図5(A)では、プレーヤの入力タイミングと、判定基準エリアの移動体の通過タイミングは一致している。例えば図3(B)において、判定基準エリアARBを移動体MOBが通過するタイミングで、プレーヤが操作入力を行っており、通過タイミングと入力タイミングとが一致したと判定されている。そして、このタイミングでは、移動体MOBの画像は視差が無い画像になっている。   For example, in FIG. 5A, the input timing of the player coincides with the passing timing of the moving object in the determination reference area. For example, in FIG. 3B, it is determined that the player performs an operation input at the timing when the mobile unit MOB passes through the determination reference area ARB, and the passage timing and the input timing match. At this timing, the image of the moving body MOB is an image having no parallax.

そして本実施形態では、この入力タイミングと通過タイミングとのタイミング関係に基づく評価処理が行われ、評価処理の結果に基づいて、プレーヤのゲーム成績の演算処理、移動体の表示制御処理 或いはゲーム演出処理などのゲーム演算処理が行われる。   In this embodiment, an evaluation process based on the timing relationship between the input timing and the passage timing is performed, and based on the result of the evaluation process, the player's game result calculation process, the moving body display control process, or the game effect process Such as game calculation processing is performed.

例えば図5(A)では、プレーヤの入力タイミングと移動体の通過タイミングが一致したと評価されているため、プレーヤのゲーム成績(得点、ポイント)は高いゲーム成績となる。また、野球ゲームを例にとれば、移動体であるボールの移動方向が、真っ直ぐな方向であるセンター方向に設定される。また、プレーヤの入力操作の成功を表すようなゲーム演出処理が行われる。   For example, in FIG. 5A, since it is evaluated that the input timing of the player and the passage timing of the moving object coincide with each other, the game results (scores, points) of the player are high. Taking a baseball game as an example, the moving direction of the ball, which is a moving body, is set to the center direction, which is a straight direction. In addition, a game effect process is performed to indicate the success of the player's input operation.

一方、図5(B)、図5(C)では、プレーヤの入力タイミングと移動体の通過タイミングは一致しておらず、図5(B)では入力タイミングの方が通過タイミングよりも早くなっており、図5(C)では入力タイミングの方が通過タイミングよりも遅くなっている。この場合にも入力タイミングが、通過タイミングを基準(中心)に設定された許容期間TR内に収まっている。従って、プレーヤの入力操作は成功であると判断されて、プレーヤの入力操作に対する評価処理が行われる。そしてこの評価処理は、入力タイミングと通過タイミングのタイミング差や前後関係などのタイミング関係に基づいて行われる。   On the other hand, in FIG. 5B and FIG. 5C, the input timing of the player and the passing timing of the moving body do not match, and in FIG. 5B, the input timing is earlier than the passing timing. In FIG. 5C, the input timing is later than the passage timing. Also in this case, the input timing falls within the allowable period TR set with the passage timing as a reference (center). Therefore, it is determined that the player's input operation is successful, and an evaluation process for the player's input operation is performed. This evaluation process is performed based on a timing relationship such as a timing difference between the input timing and the passage timing and a front-rear relationship.

例えば入力タイミングと通過タイミングのタイミング差(時間差)が短くなるほど、プレーヤの入力操作に対する評価は高くなり、プレーヤに与えられるゲーム成績が高くなる。即ち図5(A)のようにタイミングが一致すると、図5(B)、図5(C)に比べてプレーヤの得点、ポイント等のゲーム成績は高くなる。またタイミング差が短くなるほど、ヒット後の移動体の速度や加速度が高くなるという移動体の表示制御を行ってもよい。或いはタイミング差が短くなるほど、ゲーム演出効果を高くするようにしてもよい。例えば図5(A)のように入力タイミングが通過タイミングに対してジャストタイミングである場合には、タイミング判定における高いゲーム演出効果の画像や音が出力される。一方、図5(B)、(C)のように入力タイミングと通過タイミングの間にずれがあると、図5(A)に比べて、ゲーム演出用表示物やゲーム演出音などで実現されるゲーム演出効果が低くなる。   For example, the shorter the timing difference (time difference) between the input timing and the passage timing, the higher the evaluation of the player's input operation, and the higher the game score given to the player. That is, when the timings coincide as shown in FIG. 5A, the player's score, points, and other game results become higher than those in FIGS. 5B and 5C. Moreover, you may perform display control of the moving body that the speed and acceleration of the moving body after a hit become high, so that a timing difference becomes short. Alternatively, the game effect may be enhanced as the timing difference becomes shorter. For example, as shown in FIG. 5A, when the input timing is just timing with respect to the passage timing, an image or sound having a high game effect effect in timing determination is output. On the other hand, when there is a difference between the input timing and the passage timing as shown in FIGS. 5B and 5C, it is realized by a game effect display object, a game effect sound, or the like as compared with FIG. The game effect is reduced.

またタイミング差ではなく、入力タイミングと通過タイミングの前後関係を評価してもよい。例えば図5(B)のように入力タイミングの方が通過タイミングよりも早い場合と図5(C)のように入力タイミングの方が通過タイミングよりも遅い場合とで、プレーヤに与えるゲーム成績を異ならせたり、ヒット後の移動体の移動方向を変化させる。或いは、入力タイミングが通過タイミングよりも早い場合と遅い場合とで、ゲーム演出用表示物やゲーム演出音などで実現されるゲーム演出効果を変化させてもよい。   Further, not the timing difference but the front-rear relationship between the input timing and the passage timing may be evaluated. For example, if the input timing is earlier than the passage timing as shown in FIG. 5B and the input timing is later than the passage timing as shown in FIG. Or change the direction of movement of the moving object after a hit. Or you may change the game production | presentation effect implement | achieved by the display thing for game productions, a game production sound, etc. with the case where an input timing is earlier than the passage timing.

また本実施形態では、プレーヤの入力タイミングと移動体の通過タイミングとのタイミング差に応じて、移動体の画像の視差が変化する立体視用画像が生成される。具体的には、例えばプレーヤの入力タイミングと移動体の通過タイミングとのタイミング差が大きくなるほど、移動体の画像の視差が大きくなる立体視用画像が生成される。例えば図5(D)に比べて図5(E)の方が、入力タイミングと通過タイミングのタイミング差は大きくなっているため、図5(D)よりも図5(E)の方が移動体の画像の視差が大きくなる。   In the present embodiment, a stereoscopic image in which the parallax of the image of the moving object is generated according to the timing difference between the input timing of the player and the passing timing of the moving object is generated. Specifically, for example, as the timing difference between the player input timing and the moving body passage timing increases, a stereoscopic image in which the parallax of the moving body image increases is generated. For example, in FIG. 5E, the timing difference between the input timing and the passage timing is larger than that in FIG. 5D. Therefore, FIG. 5E is more mobile than FIG. 5D. The parallax of the image becomes larger.

例えば図3(B)のように移動体MOBが判定基準エリアARBを通過するタイミングで、プレーヤが操作入力を行った場合には、移動体MOBの画像の視差はゼロになる。そして図3(C)のように、移動体MOBの判定基準エリアARBの通過タイミングから、時間的に遅れてプレーヤが操作入力を行った場合には、移動体MOBの画像の視差は大きくなる。即ち、移動体MOBの通過タイミングと入力タイミングのタイミング差が大きくなると、それにつれて移動体MOBの画像の視差が大きくなる。   For example, when the player performs an operation input at the timing when the mobile unit MOB passes the determination reference area ARB as shown in FIG. 3B, the parallax of the image of the mobile unit MOB becomes zero. Then, as shown in FIG. 3C, when the player performs an operation input with a time delay from the passing timing of the determination reference area ARB of the mobile MOB, the parallax of the image of the mobile MOB increases. That is, as the timing difference between the passage timing of the mobile unit MOB and the input timing increases, the parallax of the image of the mobile unit MOB increases accordingly.

このようにすれば移動体の画像の視差が無い状態のタイミングで、プレーヤが操作入力を行った場合には、プレーヤの操作に対して与えられる評価等が高くなり、移動体の画像の視差が大きくなった状態のタイミングで、プレーヤが操作入力を行った場合には、プレーヤの操作に対して与えられる評価等が低くなる。従って、移動体の画像の視差と、プレーヤの操作に対して与えられる評価の大小が連動するようになり、プレーヤにとって分かりやすく、立体視システムに好適な入力タイミングの評価処理を実現できるようになる。   In this way, when the player performs an operation input at a timing when there is no parallax of the moving body image, the evaluation given to the operation of the player becomes high, and the parallax of the moving body image is reduced. When the player performs an operation input at the timing of the increased state, the evaluation or the like given to the player's operation becomes low. Accordingly, the parallax of the image of the moving object and the magnitude of the evaluation given to the operation of the player are linked, so that the input timing evaluation process that is easy for the player to understand and suitable for the stereoscopic system can be realized. .

2.2 野球ゲームへの適用例
次に各種ゲームへの本実施形態の手法の適用例について説明する。まず、本実施形態が適用される携帯型ゲーム装置の構成例について、図6(A)、図6(B)を用いて説明する。
2.2 Application Example to Baseball Game Next, application examples of the method of the present embodiment to various games will be described. First, a configuration example of a portable game device to which this embodiment is applied will be described with reference to FIGS. 6 (A) and 6 (B).

この携帯型ゲーム装置は、メイン表示部190Mとサブ表示部190Sを有する。サブ表示部190Sは、例えばタッチパネル方式の液晶ディスプレイにより実現され、ゲーム装置の筐体10に設けられる。メイン表示部190Mは、サブ表示部190Sよりも例えば画素数が多いディスプレイとなっており、例えば液晶ディスプレイなどにより実現される。なお、メイン表示部190Mは、例えば裸眼の立体視画像を表示できるディスプレイになっており、ゲーム画像が立体視で表示される。   This portable game device has a main display portion 190M and a sub display portion 190S. The sub display unit 190S is realized by, for example, a touch panel type liquid crystal display, and is provided in the housing 10 of the game apparatus. The main display unit 190M is a display having, for example, a larger number of pixels than the sub display unit 190S, and is realized by, for example, a liquid crystal display. The main display unit 190M is a display that can display, for example, a stereoscopic image with naked eyes, and the game image is displayed in stereoscopic view.

携帯型ゲーム装置の筐体10と筐体20は回動自在に設けられており、筐体10には、方向指示キー12、アナログスティック(ジョイスティック)14、操作ボタン16が設けられている。また図6(B)に示すように、筐体20の背面側(メイン表示部190Mの反対側)には第1、第2のカメラCM1、CM2が設けられている。これらの第1、第2のカメラCM1、CM2を用いて被写体を撮影することで、視差のある左眼用画像と右眼用画像を得ることが可能になり、立体視表示が可能になる。   A case 10 and a case 20 of the portable game device are provided so as to be freely rotatable, and the case 10 is provided with a direction instruction key 12, an analog stick (joystick) 14, and operation buttons 16. Further, as shown in FIG. 6B, first and second cameras CM1 and CM2 are provided on the back side of the housing 20 (the side opposite to the main display portion 190M). By photographing the subject using the first and second cameras CM1 and CM2, it is possible to obtain a left-eye image and a right-eye image with parallax, and stereoscopic display is possible.

更に携帯型ゲーム装置には図示しないモーションセンサ(6軸センサ)が内蔵されている。そして、プレーヤが携帯型ゲーム装置を手に持って動かした場合に、このモーションセンサを用いることで、図6(A)のX軸、Y軸、Z軸方向での加速度や、X軸回り、Y軸回り、Z軸回りでの角速度を検出できる。   Further, the portable game device has a built-in motion sensor (6-axis sensor) not shown. Then, when the player moves the portable game device with his / her hand, using this motion sensor, the acceleration in the X-axis, Y-axis, and Z-axis directions in FIG. Angular velocities around the Y axis and Z axis can be detected.

図7〜図11は本実施形態の手法を野球ゲームに適用した場合に生成される画像の例である。図7、図8では、メイン表示部190Mには、投手キャラクタCHPが打者キャラクタCHBに対してボールBL(広義には移動体)を投げる場面の画像が表示されている。またメイン表示部190Mには、判定基準エリアARBも表示されており、サブ表示部190Sには、判定基準エリアARBに対応する操作入力エリアARIが表示されている。プレーヤは、この操作入力エリアARIのうち、ボールBLが飛んで来ると予想したコースの位置を、タッチペン30(広義にはポインティングデバイス)でタッチすることで、ボールBLを打つバッティング操作を行う。   7 to 11 are examples of images generated when the method of the present embodiment is applied to a baseball game. 7 and 8, an image of a scene in which the pitcher character CHP throws the ball BL (moving body in a broad sense) against the batter character CHB is displayed on the main display portion 190M. The main display portion 190M also displays a determination criterion area ARB, and the sub display portion 190S displays an operation input area ARI corresponding to the determination criterion area ARB. The player performs a batting operation of hitting the ball BL by touching the position of the course in which the ball BL is predicted to fly in the operation input area ARI with the touch pen 30 (pointing device in a broad sense).

判定基準エリアARBは例えばホームベース上に設定されており、タッチペン30によりポインティングされる操作入力エリアARIの各ポインティング位置は、判定基準エリアARBの各位置に対応している。例えば操作入力エリアARIの右上位置をタッチすると、判定基準エリアARBの右上位置が指示され、操作入力エリアARIの左下位置をタッチすると、判定基準エリアARBの左下位置が指示される。   The determination reference area ARB is set, for example, on the home base, and each pointing position of the operation input area ARI pointed by the touch pen 30 corresponds to each position of the determination reference area ARB. For example, when the upper right position of the operation input area ARI is touched, the upper right position of the determination reference area ARB is instructed, and when the lower left position of the operation input area ARI is touched, the lower left position of the determination reference area ARB is instructed.

そして図8のようにボールBLが判定基準エリアARBを通過する際に、ボールBLの画像は視差がゼロの画像になっている。このため、プレーヤの眼には、判定基準エリアARBを境として、ボールBLが、スクリーンの奥側に引っ込んでいる状態からスクリーンの手前側に飛び出して来るように見える。従って、プレーヤは、ボールBLの画像の視差の無い状態がジャストタイミングであることを認識することができ、ボールBLを打つタイミングを容易に把握することが可能になる。これにより、プレーヤの操作インターフェース環境を向上できる。   As shown in FIG. 8, when the ball BL passes through the determination reference area ARB, the image of the ball BL is an image with zero parallax. For this reason, it appears to the player's eyes that the ball BL jumps to the front side of the screen from the state of being retracted to the back side of the screen, with the determination reference area ARB as a boundary. Therefore, the player can recognize that the state without parallax in the image of the ball BL is the just timing, and can easily grasp the timing of hitting the ball BL. Thereby, the operation interface environment of the player can be improved.

なお図7、図8では判定基準エリアARBと操作入力エリアARIはほぼ同じサイズになっているが、本実施形態はこれに限定されない。例えば操作入力エリアARIのサイズを変化させることで、プレーヤの操作入力の難易度の設定を行ってもよい。例えば操作入力エリアARIのサイズを判定基準エリアARBよりも小さくすることで、プレーヤの操作入力の難易度が高難易度に設定されるようにする。   7 and 8, the determination reference area ARB and the operation input area ARI are substantially the same size, but the present embodiment is not limited to this. For example, the difficulty level of the player's operation input may be set by changing the size of the operation input area ARI. For example, by making the size of the operation input area ARI smaller than the determination reference area ARB, the difficulty level of the player's operation input is set to a high difficulty level.

図9ではプレーヤは、ボールBLのコースが内角高めであると予想して、A1に示すように、タッチペン30(或いは指)を用いて、サブ表示部190Sの操作入力エリアARIの右上の位置をタッチしている。また図9では、メイン表示部190MにはボールBLの通過後の画像が表示されており、プレーヤの指示位置表示用オブジェクトDOBと、ボール位置表示用オブジェクトPOBが表示されている。   In FIG. 9, the player expects the course of the ball BL to have a higher inner angle, and uses the touch pen 30 (or finger) to position the upper right position of the operation input area ARI of the sub display unit 190S as indicated by A1. Touching. In FIG. 9, an image after the ball BL has passed is displayed on the main display portion 190M, and the player's designated position display object DOB and the ball position display object POB are displayed.

指示位置表示用オブジェクトDOBは、プレーヤのヒット指示位置を知らせるためのオブジェクトであり、判定基準エリアARBの位置に表示される。即ち指示位置表示用オブジェクトDOBは、判定基準エリアARBと同じ奥行き位置(同じZ値)に配置されて表示される。そして図9ではプレーヤは、タッチペン30により、サブ表示部190Sの操作入力エリアARIの右上の位置をタッチしている。従って、メイン表示部190Mでは、判定基準エリアARBの右上の位置に指示位置表示用オブジェクトDOBが配置されて表示される。これによりプレーヤは、ボールBLの通過時に自分がどのコースをタッチしたのかを、指示位置表示用オブジェクトDOBを見ることで、事後的に確認できるようになる。   The designated position display object DOB is an object for informing the player's hit designated position, and is displayed at the position of the determination reference area ARB. That is, the indication position display object DOB is arranged and displayed at the same depth position (same Z value) as the determination reference area ARB. In FIG. 9, the player touches the upper right position of the operation input area ARI of the sub display unit 190 </ b> S with the touch pen 30. Therefore, in the main display portion 190M, the indicated position display object DOB is arranged and displayed at the upper right position of the determination reference area ARB. Thus, the player can later confirm which course he / she touched when passing the ball BL by looking at the indicated position display object DOB.

またボール位置表示用オブジェクトPOB(広義には移動体位置表示用オブジェクト)は、プレーヤがヒット指示位置を指示した入力タイミングでのボールBLの位置をプレーヤに知らせるためのオブジェクトである。例えばボール位置表示用オブジェクトPOBは、プレーヤの入力タイミングでのボールBLの位置に配置されて表示される。   The ball position display object POB (moving body position display object in a broad sense) is an object for informing the player of the position of the ball BL at the input timing when the player has indicated the hit instruction position. For example, the ball position display object POB is arranged and displayed at the position of the ball BL at the input timing of the player.

そして図9では、プレーヤがタッチペン30でヒット指示位置を指示した入力タイミングにおいて、ボールBLのコースは真ん中であり、判定基準エリアARBの真ん中付近をボールBLが通過している。従って、ボール位置表示用オブジェクトPOBは真ん中付近に配置されて表示される。これによりプレーヤは、自分が操作入力を行いバットを振ったタイミングでのボールBLの位置を、事後的に確認することが可能になる。   In FIG. 9, the course of the ball BL is in the middle at the input timing when the player designates the hit instruction position with the touch pen 30, and the ball BL passes through the middle of the determination reference area ARB. Accordingly, the ball position display object POB is arranged and displayed near the center. As a result, the player can later confirm the position of the ball BL at the timing when the player inputs the operation and swings the bat.

そしてプレーヤは、指示位置表示用オブジェクトDOBとボール位置表示用オブジェクトPOBの位置関係を見ることで、入力タイミングでのヒット位置とボール位置のズレを確認できる。例えば図9では、指示位置表示用オブジェクトDOBとボール位置表示用オブジェクトPOBの位置のずれは比較的大きい。これに対して図10では、タッチペン30によりA2に示す位置がタッチされており、指示位置表示用オブジェクトDOBは判定基準エリアARBの真ん中付近に表示され、指示位置表示用オブジェクトDOBとボール位置表示用オブジェクトPOBの位置のずれは小さい。従って、プレーヤは、図10では図9に比べて、自身の指示位置がボールBLのコースと合っていたことを事後的に確認することが可能になる。これにより、野球ゲームに好適なインターフェース環境をプレーヤに提供できる。   The player can confirm the shift between the hit position and the ball position at the input timing by looking at the positional relationship between the designated position display object DOB and the ball position display object POB. For example, in FIG. 9, the positional deviation between the indicated position display object DOB and the ball position display object POB is relatively large. On the other hand, in FIG. 10, the position indicated by A2 is touched by the touch pen 30, and the indicated position display object DOB is displayed near the center of the determination reference area ARB, and the indicated position display object DOB and the ball position display are displayed. The displacement of the position of the object POB is small. Accordingly, in FIG. 10, the player can confirm later that his / her designated position matches the course of the ball BL in FIG. Thereby, an interface environment suitable for a baseball game can be provided to the player.

また図9、図10では、判定基準エリアARBを含むヒット判定ボリュームHVが設定されている。そしてプレーヤがタッチペン30で操作入力エリアARIをタッチした入力タイミングにおいて、ヒット判定ボリュームHV内にボールBLが位置していた場合には、バッティングに成功してバットにボールが当たったと判定される。そして入力タイミングにおけるボールBLの位置や、操作入力エリアARIでのタッチ位置とボールBLの通過位置との関係に基づいて、ボールBLのヒット強さやヒット方向などが設定される。   9 and 10, a hit determination volume HV including the determination reference area ARB is set. When the ball BL is positioned in the hit determination volume HV at the input timing when the player touches the operation input area ARI with the touch pen 30, it is determined that the batting is successful and the ball hits the bat. Based on the position of the ball BL at the input timing and the relationship between the touch position in the operation input area ARI and the passing position of the ball BL, the hit strength and hit direction of the ball BL are set.

そして例えば野球のバッティング練習のゲームである場合には、図11に示すようにプレーヤのバッティング成績が表示される。例えばプレーヤの指示位置とボールBLの通過位置が図10のようにほぼ一致していた場合には、ホームラン等であると判定される。一方、プレーヤの指示位置とボールBLの通過位置が図9のようにあまり一致していない場合には、シングルベース等であると判定される。このようにして、プレーヤの指示位置とボールBLの通過位置の関係等に基づいてプレーヤのバッティング成績が演算されて、図11に示すようにメイン表示部190Mに表示されるようになる。   For example, in the case of a baseball batting practice game, the player's batting results are displayed as shown in FIG. For example, when the player's designated position and the passing position of the ball BL are substantially the same as shown in FIG. On the other hand, when the player's designated position and the passing position of the ball BL do not match as shown in FIG. 9, it is determined that the player is single base or the like. In this way, the player's batting result is calculated based on the relationship between the player's designated position and the passing position of the ball BL, and is displayed on the main display unit 190M as shown in FIG.

2.3 ヒット判定処理
次に図7〜図11で説明した野球ゲームのタイミング判定処理の詳細について説明する。本実施形態では、タイミング判定処理として、判定基準エリアARBが設定される領域において、ヒット対象物であるボールBL等の移動体が、バット等のヒット体によってヒットされるヒット判定処理を行っている。
2.3 Hit Determination Processing Details of the baseball game timing determination processing described with reference to FIGS. In the present embodiment, as timing determination processing, hit determination processing is performed in which a moving object such as a ball BL as a hit object is hit by a hit body such as a bat in an area where the determination reference area ARB is set. .

具体的には図12に示すように、判定基準エリアARBを含むヒット判定ボリュームHVが設定される。即ち判定基準エリアARBを基準としてヒット判定ボリュームHVが設定される。図12では判定基準エリアARBが真ん中の位置に設けられた、直方体形状のヒット判定ボリュームHVが設定されている。   Specifically, as shown in FIG. 12, a hit determination volume HV including a determination reference area ARB is set. That is, the hit determination volume HV is set based on the determination reference area ARB. In FIG. 12, a rectangular parallelepiped hit determination volume HV in which the determination reference area ARB is provided at the center position is set.

そして、プレーヤの入力タイミング(タッチペンのタッチタイミング)において、図12に示すようにヒット判定ボリュームHV内にボールBLが位置していた場合には、ヒット体であるバットによって移動体であるボールBLがヒットされたと判定する。そしてヒット強さやヒット方向などのヒット結果パラメータにより設定される強さやヒット方向で、ボールBLがバットにより打ち返されて移動する処理を行う。   When the ball BL is positioned within the hit determination volume HV at the player input timing (touch pen touch timing) as shown in FIG. 12, the ball BL as the moving body is moved by the bat as the hit body. Judge that it was hit. Then, a process is performed in which the ball BL is hit back by the bat and moved in the strength and hit direction set by hit result parameters such as hit strength and hit direction.

このようにすれば、判定基準エリアARBを中心としたヒット判定ボリュームHVを設定して、ボールBLがヒットされたか否かを適切に判定できるようになる。   In this way, it is possible to appropriately determine whether or not the ball BL has been hit by setting the hit determination volume HV centered on the determination reference area ARB.

更に具体的には本実施形態では図13(A)、図13(B)に示すように第1のヒット判定ボリュームHV1と第2のヒット判定ボリュームHV2を設定する。第1のヒット判定ボリュームHV1は、判定基準エリアARBよりも視点側から見て手前側に配置設定され、第2のヒット判定ボリュームHV2は、判定基準エリアARBよりも視点側から見て奥側に配置設定される。   More specifically, in the present embodiment, as shown in FIGS. 13A and 13B, a first hit determination volume HV1 and a second hit determination volume HV2 are set. The first hit determination volume HV1 is arranged and set on the near side when viewed from the viewpoint side with respect to the determination reference area ARB, and the second hit determination volume HV2 is positioned on the back side when viewed from the viewpoint side with respect to the determination reference area ARB. Placement is set.

そして図13(A)に示すように、プレーヤの入力タイミング(タッチタイミング)において、ボールBLが第1のヒット判定ボリュームHV1内に位置していた場合には、ボールBLのヒット方向を、第1の方向DR1側に設定する。これにより例えば図9、図10のように打者キャラクタCHBが左打ちである場合には、振り遅れであると判断されて、ボールBLのヒット方向は左方向側(広義には第1の方向DR1側)に設定される。即ちボールBLが左方向側に打ち返される。なお打者キャラクタCHBが右打ちである場合には、ボールBLは右方向側に打ち返される。   Then, as shown in FIG. 13A, when the ball BL is positioned in the first hit determination volume HV1 at the player input timing (touch timing), the hit direction of the ball BL is set to the first hit direction. Direction DR1 side. Thus, for example, as shown in FIGS. 9 and 10, when the batter character CHB is left-handed, it is determined that the ball BL is delayed, and the hit direction of the ball BL is on the left side (first direction DR1 in a broad sense). Side). That is, the ball BL is hit back to the left side. When the batter character CHB is right-handed, the ball BL is hit back in the right direction.

一方、図13(B)に示すように、プレーヤの入力タイミングにおいて、ボールBLが第2のヒット判定ボリュームHV2内に位置していた場合には、ボールBLのヒット方向を、第1の方向DR1とは異なる第2の方向DR2側に設定する。これにより打者キャラクタCHBが左打ちである場合には、早振りであると判断されて、ボールBLのヒット方向は右方向側(広義には第2の方向DR2側)に設定される。即ちボールBLが右方向側に打ち返される。なお打者キャラクタCHBが右打ちである場合には、ボールBLは左方向側に打ち返される。   On the other hand, as shown in FIG. 13B, when the ball BL is positioned in the second hit determination volume HV2 at the input timing of the player, the hit direction of the ball BL is set to the first direction DR1. Is set on the second direction DR2 side different from the above. Thus, when the batter character CHB is left-handed, it is determined that the batter character is fast swinging, and the hit direction of the ball BL is set to the right direction side (second direction DR2 side in a broad sense). That is, the ball BL is hit back to the right side. When the batter character CHB is hit right, the ball BL is hit back to the left side.

このようにすれば、判定基準エリアARBを中心に第1、第2のヒット判定ボリュームHV1、HV2を設定するだけで、振り遅れや早振りを判断することが可能になり、よりリアルなヒット判定処理を実現できる。   In this way, it is possible to determine a swing delay or a fast swing simply by setting the first and second hit determination volumes HV1 and HV2 around the determination reference area ARB, and a more realistic hit determination. Processing can be realized.

また本実施形態では判定基準エリアARBでのボールBLの通過位置と、判定基準エリアARBでのプレーヤのヒット指示位置との位置関係に応じて、ヒット体によるヒット後のボールBLの移動状態等を決定している。   In the present embodiment, the movement state of the ball BL after the hit by the hit body is determined according to the positional relationship between the passing position of the ball BL in the determination reference area ARB and the player's hit instruction position in the determination reference area ARB. Has been decided.

例えば図14(A)では、判定基準エリアARBでのボールBLの通過位置PPと、判定基準エリアARBでのプレーヤのヒット指示位置PDとは、近い位置関係になっている。従って、この場合にはヒット結果パラメータであるヒット強さパラメータが大きな値に設定されて、例えばホームラン等であると判定される。   For example, in FIG. 14A, the passing position PP of the ball BL in the determination reference area ARB and the hit instruction position PD of the player in the determination reference area ARB are close to each other. Therefore, in this case, the hit strength parameter, which is a hit result parameter, is set to a large value, and for example, it is determined that the hit is a home run or the like.

一方、図14(B)では、ボールBLの通過位置PPとプレーヤのヒット指示位置PDとは、図14(A)に比べて遠い位置関係になっている。従って、この場合にはヒット結果パラメータであるヒット強さパラメータが小さな値に設定されて、例えばツーベースヒット等であると判定される。   On the other hand, in FIG. 14B, the passing position PP of the ball BL and the hit instruction position PD of the player are in a positional relationship far from those in FIG. Accordingly, in this case, the hit strength parameter, which is a hit result parameter, is set to a small value, and for example, it is determined that the hit is a two-base hit or the like.

このようにボールBLの通過位置PPとプレーヤのヒット指示位置PDの位置関係に応じて、ヒット強さパラメータ等のヒット結果パラメータを設定して、ヒット後のボール等の移動体の移動を制御すれば、よりリアルで適切な移動体のヒット処理を実現できるようになる。   In this way, hit result parameters such as a hit strength parameter are set according to the positional relationship between the passing position PP of the ball BL and the hit instruction position PD of the player, and the movement of the moving body such as the ball after the hit is controlled. For example, more realistic and appropriate hit processing of a moving object can be realized.

なお図14(A)、図14(B)では、プレーヤの指示位置表示用オブジェクトDOBの同心円において、最も半径の小さな第1の円(半径=r1)の内側にボールBLの通過位置PPがある場合には、ホームランであると判定される。また第1の円の外側であり、且つ、第2の円(半径=r2>r1)の内側に通過位置PPがある場合には、スリーベースヒットであると判定される。また第2の円の外側であり、且つ、第3の円(半径=r3>r2)の内側に通過位置PPがある場合には、ツーベースヒットであると判定される。またヒットタイミングにおいてボールBLがヒット判定ボリュームHV内に位置するときに、指示位置表示用オブジェクトDOBの外側に通過位置PPがある場合には、シングルヒットであると判定される。   14A and 14B, the passing position PP of the ball BL is located inside the first circle having the smallest radius (radius = r1) in the concentric circle of the player's designated position display object DOB. In this case, it is determined that the home run. Further, when the passing position PP is outside the first circle and inside the second circle (radius = r2> r1), it is determined to be a three-base hit. If the passing position PP is outside the second circle and inside the third circle (radius = r3> r2), it is determined to be a two-base hit. Further, when the ball BL is positioned within the hit determination volume HV at the hit timing, if the passing position PP is outside the indicated position display object DOB, it is determined that the ball is a single hit.

図15(A)、図15(B)は、指示位置表示用オブジェクトDOBとボール位置表示用オブジェクトPOBの配置手法を説明する図である。   FIG. 15A and FIG. 15B are diagrams for explaining an arrangement method of the indicated position display object DOB and the ball position display object POB.

図15(A)、図15(B)に示すように本実施形態では、プレーヤのヒット指示位置を知らせるための指示位置表示用オブジェクトDOBは、判定基準エリアARBの位置に配置されて表示される。またプレーヤの入力タイミングでのボールBLの位置を知らせるためのボール位置表示用オブジェクトPOBがヒット判定ボリュームエリアHV内に配置されて表示される。   As shown in FIGS. 15A and 15B, in this embodiment, the designated position display object DOB for informing the hit designated position of the player is arranged and displayed at the position of the determination reference area ARB. . A ball position display object POB for informing the position of the ball BL at the input timing of the player is arranged and displayed in the hit determination volume area HV.

具体的には図15(A)に示すように、ボールBLの判定基準エリアARBの通過タイミングよりも入力タイミングの方が遅い場合には、判定基準エリアARBよりも手前側にボール位置表示用オブジェクトPOBが配置されて表示される。   Specifically, as shown in FIG. 15A, when the input timing is later than the passing timing of the determination reference area ARB of the ball BL, the object for displaying the ball position in front of the determination reference area ARB. The POB is arranged and displayed.

一方、図15(B)に示すように、ボールBLの判定基準エリアARBの通過タイミングよりも入力タイミングの方が早い場合には、判定基準エリアARBよりも奧側にボール位置表示用オブジェクトPOBが配置されて表示される。   On the other hand, as shown in FIG. 15B, when the input timing is earlier than the passing timing of the determination reference area ARB of the ball BL, the ball position display object POB is located on the heel side of the determination reference area ARB. Arranged and displayed.

このようにすれば、通過タイミングよりも入力タイミングが遅い場合には、図15(A)に示すように判定基準エリアARBよりも手前側にボール位置表示用オブジェクトPOBが表示されることで、プレーヤは、自身のバッティングが振り遅れであったことを容易に認識できる。この場合にボール位置表示用オブジェクトPOBは、立体視において判定基準エリアARBよりも手前側に飛び出して見えるため、プレーヤは、判定基準エリアARBの手前側にボール位置表示用オブジェクトPOBが位置することを容易に把握できるようになる。   In this way, when the input timing is later than the passage timing, the ball position display object POB is displayed in front of the determination reference area ARB as shown in FIG. Can easily recognize that his own batting was delayed. In this case, since the ball position display object POB appears to pop out in front of the determination reference area ARB in stereoscopic view, the player recognizes that the ball position display object POB is positioned in front of the determination reference area ARB. It becomes easy to grasp.

また、通過タイミングよりも入力タイミングが早い場合には、図15(B)に示すように判定基準エリアARBよりも奥側にボール位置表示用オブジェクトPOBが表示されることで、プレーヤは、自身のバッティングが早振りであったことを容易に認識できる。この場合にボール位置表示用オブジェクトPOBは、立体視において判定基準エリアARBよりも奥側に引っ込んで見えるため、プレーヤは、判定基準エリアARBの奧側にボール位置表示用オブジェクトPOBが位置することを容易に把握できるようになる。   Further, when the input timing is earlier than the passage timing, the ball position display object POB is displayed behind the determination reference area ARB as shown in FIG. It can be easily recognized that batting was fast swinging. In this case, since the ball position display object POB appears to be retracted from the determination reference area ARB in the stereoscopic view, the player recognizes that the ball position display object POB is positioned on the heel side of the determination reference area ARB. It becomes easy to grasp.

なお、以上では判定基準エリアARBの位置や方向や形状が固定される場合について説明したが、判定基準エリアARBの位置、方向及び形状の少なくとも1つが可変になるようにしてもよい。   Although the case where the position, direction, and shape of the determination reference area ARB are fixed has been described above, at least one of the position, direction, and shape of the determination reference area ARB may be variable.

例えば図16はテニスゲームへの本実施形態の手法の適用例であり、プレーヤはキャラクタCHを操作してテニスゲームを楽しむ。この場合に表示部190には、例えばプレーヤの一人称視点でのゲーム画像が表示される。   For example, FIG. 16 shows an application example of the method of this embodiment to a tennis game, and the player enjoys the tennis game by operating the character CH. In this case, for example, a game image from the first person viewpoint of the player is displayed on the display unit 190.

そして図16では、プレーヤが操作するキャラクタCHの位置、方向又はステータス等の情報に基づいて、判定基準エリアARBの位置、方向及び形状の少なくとも1つが可変に設定される。例えばキャラクタCHが移動すると、その移動に追従するように判定基準エリアARBも移動する。具体的には、キャラクタCHが移動した場合にも、キャラクタCHの打点位置に対応する場所に判定基準エリアARBが常に配置される。またキャラクタCHの向く方向が変化すると、その方向の変化に追従するように判定基準エリアARBの方向も変化する。具体的には、例えばボールの打球方向に判定基準エリアARBの面がほぼ直交するように、判定基準エリアARBの方向が設定される。   In FIG. 16, at least one of the position, direction and shape of the determination reference area ARB is variably set based on information such as the position, direction or status of the character CH operated by the player. For example, when the character CH moves, the determination reference area ARB also moves so as to follow the movement. Specifically, even when the character CH moves, the determination reference area ARB is always arranged at a location corresponding to the hit position of the character CH. When the direction in which the character CH is directed changes, the direction of the determination reference area ARB also changes so as to follow the change in the direction. Specifically, for example, the direction of the determination reference area ARB is set so that the surface of the determination reference area ARB is substantially orthogonal to the ball hitting direction.

そして、ボールの画像の視差は判定基準エリアARBにおいてゼロになる。こうすることでキャラクタCHが移動した場合にも、画像の視差がゼロになる場所がボールの打点位置になるため、プレーヤにとって分かりやすいゲーム操作を実現できる。   Then, the parallax of the ball image becomes zero in the determination reference area ARB. By doing so, even when the character CH moves, the place where the parallax of the image becomes zero becomes the ball hitting position, so that it is possible to realize a game operation that is easy for the player to understand.

或いは、キャラクタCHのステータス情報(体力、能力等のパラメータ)に基づいて、判定基準エリアARBの形状を変化させてもよい。例えばキャラクタCHの体力や能力が高い場合には、判定基準エリアARBのサイズが大きくなり、体力や能力が低い場合には、判定基準エリアARBのサイズが小さくなる。或いはキャラクタCHのタイプ等に応じて、判定基準エリアARBの図形的な形状を変化させてもよい。例えば第1のタイプのキャラクタCHについては、判定基準エリアARBの形状を第1の形状に設定し、第2のタイプのキャラクタCHについては、判定基準エリアARBの形状を第2の形状に設定する。   Alternatively, the shape of the determination reference area ARB may be changed based on the status information (parameters such as physical strength and ability) of the character CH. For example, when the physical strength and ability of the character CH are high, the size of the determination reference area ARB is large, and when the physical strength and ability are low, the size of the determination reference area ARB is small. Alternatively, the graphic shape of the determination reference area ARB may be changed according to the type of the character CH. For example, for the first type character CH, the shape of the determination reference area ARB is set to the first shape, and for the second type character CH, the shape of the determination reference area ARB is set to the second shape. .

このようにすれば、キャラクタCHのステータスやタイプに応じて判定基準エリアARBのサイズや図形的な形状が変化するようになるため、より多様なタイミング判定処理を実現できるようになる。   In this way, since the size and graphic shape of the determination reference area ARB change according to the status and type of the character CH, more various timing determination processes can be realized.

2.4 音楽ゲームへの適用例
次に音楽ゲームへの本実施形態の手法の適用例について説明する。図17、図18は本実施形態の手法を音楽ゲームに適用した場合に生成される画像の例である。なお、以下では音楽ゲームとして太鼓の演奏ゲームを例にとり説明するが、本実施形態の手法を適用できる音楽ゲームの分野はこれに限定されない。
2.4 Application Example to Music Game Next, an application example of the method of the present embodiment to a music game will be described. 17 and 18 are examples of images generated when the method of this embodiment is applied to a music game. In the following, a drum playing game will be described as an example of the music game, but the field of the music game to which the method of the present embodiment can be applied is not limited to this.

図17、図18では、メイン表示部190Mには、指示マーカMK1〜MK5、判定基準エリアARB、太鼓のキャラクタCHT、評価表示用オブジェクトSOB、ゲージGOBが表示されている。サブ表示部190Sには、プレーヤが叩く太鼓TOBの画像が表示されている。   In FIGS. 17 and 18, the indication markers MK1 to MK5, the determination reference area ARB, the drum character CHT, the evaluation display object SOB, and the gauge GOB are displayed on the main display portion 190M. The sub display unit 190S displays an image of the drum TOB that the player strikes.

指示マーカMK1〜MK5(広義には移動体)は、例えば視点側(仮想カメラ側)から見て奥側から手前側に移動して、判定基準エリアARBを通過する。プレーヤは、MK1〜MK5の各指示マーカが判定基準エリアARBを通過するタイミングで、サブ表示部190Sの画面を、タッチペン30(ポインティングデバイス)でタッチする。   The instruction markers MK1 to MK5 (moving bodies in a broad sense), for example, move from the back side to the near side when viewed from the viewpoint side (virtual camera side) and pass through the determination reference area ARB. The player touches the screen of the sub display unit 190S with the touch pen 30 (pointing device) at a timing when each of the indication markers MK1 to MK5 passes the determination reference area ARB.

具体的には、「ドン」の操作を指示する指示マーカMK1が判定基準エリアARBを通過するタイミングでは、図17のB1に示すように、サブ表示部190Sの画面のうち、太鼓TOBの画像の部分をタッチペン30でタッチする。これにより、太鼓の真ん中部分を叩いて「ドン」という音を出す太鼓の演奏を、プレーヤに疑似体験させることができる。   Specifically, at the timing when the instruction marker MK1 instructing the “don” operation passes through the determination reference area ARB, as shown in B1 of FIG. 17, the image of the drum TOB in the screen of the sub display unit 190S is displayed. The part is touched with the touch pen 30. Thereby, it is possible to make the player simulate the performance of playing a drum that hits the middle part of the drum and produces a “don” sound.

一方、「カツ」と表示される指示マーカMK2が判定基準エリアARBを通過するタイミングでは、図18のB2に示すように、サブ表示部190Sの画面のうち、太鼓TOBの画像以外の部分をタッチペン30でタッチする。これにより、太鼓の枠の部分を叩いて「カツ」という音を出す太鼓の演奏を、プレーヤに疑似体験させることができる。そして、プレーヤの太鼓を叩く操作が成功する毎に、ゲージGOBで表されるプレーヤの獲得ポイントが高くなって行く。   On the other hand, at the timing when the instruction marker MK2 displayed as “Katsu” passes through the determination reference area ARB, as shown in B2 of FIG. 18, a portion other than the image of the drum TOB is touched on the portion of the screen of the sub display unit 190S. Touch with 30. As a result, the player can simulate the performance of a drum that strikes the drum frame and produces a “cut” sound. Each time the player's drumming operation is successful, the player's earned points represented by gauge GOB increase.

図19(A)〜図19(C)に示すように、例えばMK1〜MK3の各指示マーカが判定基準エリアARBを通過する際には、各指示マーカの画像は視差が無い画像になっている。   As shown in FIGS. 19A to 19C, for example, when the indication markers MK1 to MK3 pass through the determination reference area ARB, the images of the indication markers are images having no parallax. .

例えば図19(A)では、指示マーカMK1〜MK3のいずれもが、判定基準エリアARBの奥側に位置するため、MK1〜MK3は視差のある画像になっている。   For example, in FIG. 19A, since all of the instruction markers MK1 to MK3 are located on the back side of the determination reference area ARB, MK1 to MK3 are images with parallax.

一方、図19(B)では、指示マーカMK1が判定基準エリアARBを通過しており、MK1の画像は視差が無い画像になっている。この時、指示マーカMK2、MK3は、判定基準エリアARBの奥側に位置するため、視差のある画像になっている。   On the other hand, in FIG. 19B, the instruction marker MK1 passes through the determination reference area ARB, and the image of MK1 is an image having no parallax. At this time, the instruction markers MK2 and MK3 are located on the far side of the determination reference area ARB, and thus have an image with parallax.

また図19(C)では、指示マーカMK2が判定基準エリアARBを通過しており、MK2の画像は視差が無い画像になっている。この時、指示マーカMK1は判定基準エリアARBの手前側に位置し、指示マーカMK3はARBの奥側に位置するため、MK1、MK3は視差のある画像になっている。具体的には指示マーカMK1は立体視において判定基準エリアARBから飛び出して見える画像になり、指示マーカMK3は判定基準エリアARBから引っ込んで見える画像になる。   In FIG. 19C, the instruction marker MK2 passes through the determination reference area ARB, and the image of MK2 is an image having no parallax. At this time, since the instruction marker MK1 is located on the front side of the determination reference area ARB and the instruction marker MK3 is located on the back side of the ARB, MK1 and MK3 are images having parallax. Specifically, the instruction marker MK1 is an image that appears to jump out of the determination reference area ARB in stereoscopic view, and the instruction marker MK3 is an image that appears to be retracted from the determination reference area ARB.

以上のようにすることで、プレーヤの眼には、判定基準エリアARBを境として、各指示マーカが、スクリーンの奥側に引っ込んでいる状態からスクリーンの手前側に飛び出して来るように見える。従って、プレーヤは、指示マーカの画像の視差の無い状態がジャストタイミングであることを認識することができ、指示マーカにより指示される操作(「ドン」、「カツ」の操作)を行うタイミングを容易に把握することが可能になる。これにより、プレーヤの操作インターフェース環境を向上できる。   By doing as described above, it appears to the player's eyes that each indication marker jumps to the near side of the screen from the state of being retracted to the far side of the screen, with the determination reference area ARB as a boundary. Therefore, the player can recognize that the state without parallax of the image of the indication marker is the just timing, and the timing for performing the operation (“don”, “cut” operation) indicated by the indication marker is easy. It becomes possible to grasp. Thereby, the operation interface environment of the player can be improved.

なお図17、図18では判定基準エリアARBは2次元の四角形状になっているが、本実施形態はこれに限定されない。例えば判定基準エリアARBは四角形状以外の形状であってもよいし、立体形状であってもよい。   In FIG. 17 and FIG. 18, the determination reference area ARB has a two-dimensional square shape, but the present embodiment is not limited to this. For example, the determination reference area ARB may have a shape other than a square shape or a three-dimensional shape.

次に図17〜図19(C)の音楽ゲームへの適用例におけるタイミング判定処理の詳細について説明する。   Next, details of the timing determination process in the application example to the music game of FIGS. 17 to 19C will be described.

図20(A)ではプレーヤの入力タイミングと、指示マーカMKの判定基準エリアARBの通過タイミングとが一致している。例えば図17において「ドン」の操作を指示する指示マーカMK(MK1)が判定基準エリアARBを通過するタイミングと同じタイミングで、プレーヤが、タッチペン30でサブ表示部190Sの太鼓TOBの画像をタッチしている。そして、このタイミングでは、指示マーカMKの画像は視差が無い画像になっている。   In FIG. 20A, the input timing of the player coincides with the passing timing of the instruction marker MK in the determination reference area ARB. For example, in FIG. 17, the player touches the image of the drum TOB on the sub display unit 190S with the touch pen 30 at the same timing as when the instruction marker MK (MK1) for instructing the “don” operation passes through the determination reference area ARB. ing. At this timing, the image of the instruction marker MK is an image having no parallax.

このようにプレーヤの入力タイミングと指示マーカの通過タイミングが一致していると判断されると、プレーヤの入力操作に対して非常に高い評価が与えられ、入力操作の評価が「良」であることを知らせる評価表示用オブジェクトSOBが表示される。   When it is determined that the input timing of the player matches the passing timing of the instruction marker in this way, a very high evaluation is given to the input operation of the player, and the evaluation of the input operation is “good”. An evaluation display object SOB for informing is displayed.

例えば図20(B)、図20(C)ではプレーヤの入力タイミングと、指示マーカMKの判定基準エリアARBの通過タイミングは一致しておらず、図20(B)では入力タイミングの方が通過タイミングよりも早くなっており、図20(C)では入力タイミングの方が通過タイミングよりも遅くなっている。この場合にも入力タイミングは、通過タイミングを基準(中心)に設定された許容期間TR内に収まっている。従って、プレーヤの入力操作はある程度成功していると判断されて、入力操作の評価が「可」であることを知らせる評価表示用オブジェクトSOBが表示される。   For example, in FIG. 20 (B) and FIG. 20 (C), the input timing of the player does not coincide with the passage timing of the determination marker area ARB of the instruction marker MK, and in FIG. 20B, the input timing is the passage timing. In FIG. 20C, the input timing is later than the passage timing. Also in this case, the input timing is within the allowable period TR set with the passage timing as a reference (center). Therefore, it is determined that the player's input operation has been successful to some extent, and the evaluation display object SOB is displayed informing that the evaluation of the input operation is “OK”.

以上のようにすることで、音楽ゲームにおいて、入力タイミングと指示マーカの通過タイミングのタイミング関係に応じた適正な評価を、プレーヤに対して与えることが可能になる。そして本実施形態では図20(A)のように指示マーカMKが判定基準エリアARBを通過するタイミングでプレーヤが操作入力を行った場合に、プレーヤに対して高い評価が与えられ、この時の指示マーカMKの画像は視差の無い画像になる。従って、プレーヤは、指示マーカMKの画像の視差が無くなるタイミングを判断して、操作入力を行えばよくなるため、プレーヤが直感的に把握しやすい操作インターフェース環境を提供できるようになる。   By doing as described above, in the music game, it is possible to give an appropriate evaluation according to the timing relationship between the input timing and the passing timing of the instruction marker to the player. In this embodiment, when the player performs an operation input at a timing when the instruction marker MK passes the determination reference area ARB as shown in FIG. 20A, the player is given high evaluation. The image of the marker MK is an image without parallax. Therefore, the player only has to determine the timing at which the parallax of the image of the instruction marker MK disappears and perform an operation input, so that it is possible to provide an operation interface environment that the player can easily grasp intuitively.

2.5 変形例
次に本実施形態の種々の変形例について説明する。
2.5 Modifications Next, various modifications of the present embodiment will be described.

例えば本実施形態では、判定基準エリアを移動体が通過する際に指示マーカ等の移動体の色、形状及びサイズの少なくとも1つが変化する立体視用画像を生成してもよい。   For example, in the present embodiment, a stereoscopic image in which at least one of the color, shape, and size of the moving body such as the pointing marker changes when the moving body passes through the determination reference area may be generated.

例えば図21(A)では、指示マーカMKが判定基準エリアARBに向かって移動している。そして図21(B)のように、判定基準エリアARBの通過タイミングにおいて、指示マーカMKの色、形状又はサイズ等が変化している。即ち、図21(B)では、指示マーカMKの色、形状又はサイズ等が、図21(A)とは異なった色、形状又はサイズになっている。   For example, in FIG. 21A, the instruction marker MK is moving toward the determination reference area ARB. As shown in FIG. 21B, the color, shape, size, or the like of the instruction marker MK changes at the passage timing of the determination reference area ARB. That is, in FIG. 21B, the color, shape, size, or the like of the instruction marker MK is different from that in FIG.

このようにすれば、例えばタイミング判定処理のジャストタイミングである指示マーカMKの通過タイミングにおいて、指示マーカMKの色、形状又はサイズ等が変化することで、指示マーカMKの視認性が高まる。これにより、プレーヤは、図21(B)のタイミングが指示マーカMKの通過タイミングであることを、指示マーカMKの視差の状態(視差の無い状態、所定視差の状態)のみならず、色、形状又はサイズの変化によっても、把握できるようになる。従って、プレーヤにとってタイミングを把握しやすいタイミング判定処理を実現できる。   In this way, for example, the color, shape, size, or the like of the instruction marker MK changes at the passage timing of the instruction marker MK, which is the just timing of the timing determination process, thereby increasing the visibility of the instruction marker MK. As a result, the player determines that the timing of FIG. 21B is the passing timing of the indication marker MK, not only the parallax state (the state without parallax, the state of the predetermined parallax) of the indication marker MK, Alternatively, it can be grasped by a change in size. Therefore, it is possible to realize a timing determination process in which the player can easily grasp the timing.

なお、指示マーカMK(移動体)の画像の変化は、その通過タイミングの視認性を高めることができるものであれば、色、形状、サイズの変化以外の表示態様の変化であってもよい。   Note that the change in the image of the instruction marker MK (moving body) may be a change in the display mode other than the change in color, shape, and size as long as the visibility of the passage timing can be improved.

また本実施形態では、ヒット判定ボリューム内に移動体が位置する場合に、移動体の色、形状及び大きさの少なくとも1つが変化する立体視用画像を生成してもよい。   In the present embodiment, when the moving object is located in the hit determination volume, a stereoscopic image in which at least one of the color, shape, and size of the moving object changes may be generated.

例えば図22(A)ではヒット判定ボリュームHVの外側に、移動体であるボールBLが位置している。この場合にはボールBLの色、形状又はサイズ等は変化しない。   For example, in FIG. 22A, the ball BL as a moving body is positioned outside the hit determination volume HV. In this case, the color, shape or size of the ball BL does not change.

一方、図22(B)ではヒット判定ボリュームHV内にボールBLが位置している。このようにボールBLがヒット判定ボリュームHV内に位置する場合には、図12〜図13(B)等で説明したヒット判定処理が行われる。そして、このようにボールBLがヒット判定ボリュームHV内に位置する場合には、ボールBLの色、形状又はサイズが変化する。これにより、プレーヤは、ボールBLがヒット判定ボリュームHV内に位置して、ヒット判定期間に入ったことを、ボールBLの色、形状、サイズ等の変化を見ることで、容易に確認できるようになる。   On the other hand, in FIG. 22B, the ball BL is positioned in the hit determination volume HV. When the ball BL is thus positioned in the hit determination volume HV, the hit determination process described with reference to FIGS. 12 to 13B and the like is performed. When the ball BL is thus positioned in the hit determination volume HV, the color, shape, or size of the ball BL changes. Thus, the player can easily confirm that the ball BL is located in the hit determination volume HV and has entered the hit determination period by observing changes in the color, shape, size, etc. of the ball BL. Become.

なお、ボールBL(移動体)の画像の変化は、そのヒットボリュームHVに位置する際の視認性を高めることができるものであれば、色、形状、サイズの変化以外の表示態様の変化であってもよい。   Note that the change in the image of the ball BL (moving body) is a change in the display mode other than the change in color, shape, and size as long as the visibility when positioned in the hit volume HV can be improved. May be.

またボールBLがヒット判定ボリュームHV内に入った後、判定基準エリアARBに近づくにつれて、ボールBLの色、形状又はサイズの変化量を増やすようにしてもよい。そして例えばボールBLが判定基準エリアARBを通過するタイミングで、色、形状又はサイズの変化量が最大値になるように制御する。   Further, after the ball BL enters the hit determination volume HV, the amount of change in the color, shape, or size of the ball BL may be increased as it approaches the determination reference area ARB. For example, at the timing when the ball BL passes through the determination reference area ARB, control is performed so that the amount of change in color, shape, or size becomes the maximum value.

このようにすることで、プレーヤは、ボールBLの色、形状又はサイズが変化するタイミングを、ボールBLがヒット判定ボリュームHV内に入ったタイミングであると認識できる共に、その変化量が最大値になったタイミングを、判定基準エリアARBの通過タイミングであると認識できるようになる。従って、プレーヤにとって把握しやすいヒット判定処理のインターフェース環境を実現できる。   In this way, the player can recognize that the timing at which the color, shape or size of the ball BL changes is the timing at which the ball BL enters the hit determination volume HV, and the amount of change is maximized. This timing can be recognized as the passage timing of the determination reference area ARB. Accordingly, it is possible to realize an interface environment for hit determination processing that is easy for the player to grasp.

また本実施形態では、移動体の視差に応じて、音像定位が変化する音を生成してもよい。即ち立体音響の音出力が、立体視の位置に合うような音を生成する。   Moreover, in this embodiment, you may produce | generate the sound from which sound image localization changes according to the parallax of a moving body. That is, a sound is generated so that the sound output of the stereophonic sound matches the position of the stereoscopic view.

例えば図23では、図6(A)の携帯型ゲーム装置の筺体20のメイン表示部190M側に、音出力部SP1、SP2(スピーカ)が設けられている。またメイン表示部190M(広義には表示部)の表示画面側空間には、指示マーカMK(移動体)に対応する仮想指示マーカMKV(広義には仮想移動体)が立体視表示されている。この仮想指示マーカMKVは、表示画面側空間に実在するものではなく、指示マーカMKの立体視用画像(左眼用画像、右眼用画像)に基づいて、プレーヤが、その位置に存在するかのように認識する仮想表示物である。   For example, in FIG. 23, sound output units SP1 and SP2 (speakers) are provided on the main display unit 190M side of the housing 20 of the portable game device of FIG. Further, a virtual instruction marker MKV (virtual moving object in a broad sense) corresponding to the instruction marker MK (moving object) is stereoscopically displayed in the display screen side space of the main display unit 190M (a display part in a broad sense). The virtual instruction marker MKV does not actually exist in the display screen side space, but based on the stereoscopic image (left-eye image, right-eye image) of the instruction marker MK, is the player present at that position? The virtual display object is recognized as follows.

そして、音出力部SP1、SP2からは、仮想指示マーカMKVの表示位置(仮想表示位置)に連動するような音像定位の音(ステレオ音)が出力される。例えば指示マーカMKの視差が、メイン表示部190Mの画面の手前側になるような視差であり、仮想指示マーカMKVが画面の手前側に仮想表示される場合には、音出力部SP1、SP2からの音により形成される音像定位も、画面の手前側の位置に設定される。   The sound output units SP1 and SP2 output sound image localization sound (stereo sound) that is linked to the display position (virtual display position) of the virtual instruction marker MKV. For example, when the parallax of the indication marker MK is such that the parallax of the main display unit 190M is on the near side of the screen, and the virtual indication marker MKV is virtually displayed on the near side of the screen, the sound output units SP1 and SP2 The sound image localization formed by the sound is also set at a position on the near side of the screen.

一方、指示マーカMKの視差が画面の奧側になるような視差であり、仮想指示マーカMKVが画面の奧側に仮想表示される場合には、音出力部SP1、SP2からの音により形成される音像定位も、画面の奥側の位置に設定される。   On the other hand, when the parallax of the indication marker MK is parallax on the heel side of the screen and the virtual indication marker MKV is virtually displayed on the heel side of the screen, the parallax is formed by sound from the sound output units SP1 and SP2. The sound image localization is also set to a position on the back side of the screen.

このようにすれば、例えば指示マーカ(仮想指示マーカ)が画面から手前側に飛び出して見えるような状況においては、音像の定位も画面から手前側に飛び出してくるように聞こえる定位になる。一方、指示マーカが画面から奥側に引っ込んで見えるような状況においては、音像の定位も画面から奥側に引っ込んでいるように聞こえる定位になる。これにより、立体視の効果を、より強調することが可能になり、ゲーム演出効果等を向上できる。   In this way, for example, in a situation where the pointing marker (virtual pointing marker) appears to jump out from the screen, the sound image is localized so that it sounds like it pops out from the screen. On the other hand, in a situation where the indication marker appears to be retracted from the screen, the sound image is localized so that it sounds like it is retracted from the screen. Thereby, it becomes possible to emphasize the effect of a stereoscopic vision more, and the game effect effect etc. can be improved.

なお、音の音像定位の設定手法としては、公知の種々の手法を採用できる。例えば音量差、時間差、周波数特性の変化、位相の変化、或いは残響の変化などによって、音像定位等の立体音響の制御が可能である。音量差を用いる場合には、例えば距離による音量の減衰や両耳間強度差により、音の音像定位を制御する。時間差を用いる場合には、音波が到達する時間差により、音の音像定位を制御すればよい。周波数特性の変化を用いる場合には、音波の伝達や遮断による周波数特性の変化により、音の音像定位を制御すればよい。位相の変化を用いる場合には、音波の伝達や遮断による位相の変化により、音の音像定位を制御すればよい。残響の変化を用いる場合には、残響特性により周辺環境の音場を再現することで、音の音像定位を制御すればよい。   Various known methods can be adopted as a method for setting the sound image localization of the sound. For example, it is possible to control stereophonic sound such as sound image localization by changing the volume, time difference, frequency characteristic, phase, or reverberation. When the volume difference is used, the sound image localization of the sound is controlled by, for example, the attenuation of the volume due to the distance or the intensity difference between both ears. When using the time difference, the sound image localization of the sound may be controlled by the time difference that the sound wave reaches. In the case of using a change in frequency characteristics, the sound image localization of the sound may be controlled by a change in the frequency characteristics due to transmission or interruption of sound waves. In the case of using a change in phase, the sound image localization of the sound may be controlled by a change in phase due to transmission or interruption of sound waves. In the case of using reverberation change, the sound image localization of the sound may be controlled by reproducing the sound field of the surrounding environment based on the reverberation characteristics.

2.6 詳細な処理例
次に本実施形態の詳細な処理例について図24〜図26のフローチャートを用いて説明する。
2.6 Detailed Processing Example Next, a detailed processing example of the present embodiment will be described with reference to the flowcharts of FIGS.

図24は、本実施形態の全体的な処理の詳細を説明するためのフローチャートである。   FIG. 24 is a flowchart for explaining details of the overall processing of this embodiment.

まず、プレーヤの入力タイミングTMIを取得する(ステップS1)。図9等を例にとれば、プレーヤがタッチペン30や指でサブ表示部190Sをタッチしたタイミングを取得する。またボール、指示マーカ等の移動体の移動処理を行う(ステップS2)。例えば視点側から見て奥側から手前側に移動体を移動させる処理を行う。   First, the player input timing TMI is acquired (step S1). Taking FIG. 9 as an example, the timing at which the player touches the sub display unit 190S with the touch pen 30 or a finger is acquired. Further, a moving process of a moving body such as a ball and an instruction marker is performed (step S2). For example, a process of moving the moving body from the back side to the near side when viewed from the viewpoint side is performed.

次に、移動体が判定基準エリアを通過したか否かを判断し(ステップS3)、通過した場合には判定基準エリアの通過タイミングTMPを取得する(ステップS4)。そして、TD=|TMP−TMI|≦TR/2であるか否かを判断する(ステップS5)。即ち図5(A)〜図5(C)等で説明したように、入力タイミングTMIが許容期間TR内に収まっているか否かを判断する。そして、TD=|TMP−TMI|≦TR/2である場合には、入力タイミングTMIが許容期間TR内に収まっていると判断して、入力成功と判定し、ゲーム成績演算処理、移動体の表示制御処理、ゲーム演出処理などのゲーム演算処理を実行する(ステップS6)。   Next, it is determined whether or not the mobile body has passed the determination reference area (step S3), and if it has passed, the passage timing TMP of the determination reference area is acquired (step S4). Then, it is determined whether or not TD = | TMP−TMI | ≦ TR / 2 (step S5). That is, as described with reference to FIGS. 5A to 5C, it is determined whether or not the input timing TMI is within the allowable period TR. When TD = | TMP−TMI | ≦ TR / 2, it is determined that the input timing TMI is within the allowable period TR, it is determined that the input is successful, the game result calculation process, Game calculation processing such as display control processing and game effect processing is executed (step S6).

次に、判断基準エリアに対応する基準スクリーンにオブジェクトを透視投影して描画することで、左眼用仮想カメラから見える左眼用画像を生成する(ステップS7)。また、判断基準エリアに対応する基準スクリーンにオブジェクトを透視投影して描画することで、右眼用仮想カメラから見える右眼用画像を生成する(ステップS8)。これにより、立体視用画像である左目用画像、右目用画像が生成される。このように判定基準エリアに対応する位置に設定された基準スクリーンに対して移動体のオブジェクトを透視投影して描画することで、判定基準エリアを移動体が通過する際に移動体の画像の視差が無くなる立体視用画像が生成されるようになる。   Next, an image for the left eye that can be seen from the virtual camera for the left eye is generated by perspectively projecting and drawing the object on the reference screen corresponding to the determination reference area (step S7). Further, the right eye image that can be seen from the virtual camera for the right eye is generated by perspectively drawing and drawing the object on the reference screen corresponding to the determination reference area (step S8). Thereby, a left-eye image and a right-eye image that are stereoscopic images are generated. The parallax of the image of the moving object when the moving object passes through the determination reference area by perspectively projecting and drawing the object of the moving object on the reference screen set at a position corresponding to the determination reference area. A stereoscopic image that eliminates the problem is generated.

図25、図26は、本実施形態の手法を野球ゲームに適用した場合の処理の詳細を説明するためのフローチャートである。   25 and 26 are flowcharts for explaining details of processing when the method of the present embodiment is applied to a baseball game.

まず、入力タイミング及びプレーヤの指示位置を取得する(ステップS11)。またボールの移動処理を行う(ステップS12)。例えば視点側から見て奥側である投手キャラクタの位置から手前側のホームベース付近に向かってボールを移動させる処理を行う。   First, the input timing and the player's designated position are acquired (step S11). Also, ball movement processing is performed (step S12). For example, a process of moving the ball from the position of the pitcher character on the back side when viewed from the viewpoint side toward the vicinity of the home base on the near side is performed.

次に、入力タイミングにおいてボールがヒット判定ボリューム内に位置するか否かを判断する(ステップS13)。そして図12で説明したようにボールがヒット判定ボリューム内に位置する場合には、ボールがバットによりヒットされたと判定する(ステップS14)。次に、入力タイミングにおいてボールが手前側の第1のヒット判定ボリューム内に位置するか否かを判断する(ステップS15)。そして第1のヒット判定ボリューム内に位置する場合には、図13(A)で説明したようにボールのヒット方向を第1の方向側に設定する(ステップS16)。一方、第1のヒット判定ボリューム内に位置しない場合には、ボールが第2のヒット判定ボリュームに位置すると判定して、図13(B)で説明したようにボールのヒット方向を第2の方向側に設定する(ステップS17)。   Next, it is determined whether or not the ball is positioned in the hit determination volume at the input timing (step S13). If the ball is located in the hit determination volume as described with reference to FIG. 12, it is determined that the ball has been hit by the bat (step S14). Next, it is determined whether or not the ball is positioned in the first hit determination volume on the near side at the input timing (step S15). If it is located within the first hit determination volume, the ball hit direction is set to the first direction as described with reference to FIG. 13A (step S16). On the other hand, if the ball is not located in the first hit determination volume, it is determined that the ball is located in the second hit determination volume, and the ball hit direction is set to the second direction as described with reference to FIG. (Step S17).

次に、判定基準エリアでのボールの通過位置を求める(ステップS18)。そして図14(A)、図14(B)で説明したように、判定基準エリアでのボールの通過位置とプレーヤの指示位置の位置関係に基づいて、ボールのヒット強さパラメータを設定する(ステップS19)。   Next, the passing position of the ball in the determination reference area is obtained (step S18). Then, as described in FIGS. 14A and 14B, the ball hit strength parameter is set based on the positional relationship between the ball passing position in the determination reference area and the player's designated position (step). S19).

次に、判定基準エリアでのプレーヤの指示位置に指示位置表示用オブジェクトを配置する(ステップS20)。そしてボールの通過タイミングよりもプレーヤの入力タイミングの方が遅いか否かを判断し(ステップS21)、遅い場合には図15(A)で説明したように、判定基準エリアよりも手前側にボール位置表示用オブジェクトを配置する(ステップS22)。一方、通過タイミングよりもプレーヤの入力タイミングの方が早い場合には、図15(B)で説明したように、判定基準エリアよりも、奥側にボール位置表示用オブジェクトを配置する(ステップS23)。   Next, an instruction position display object is arranged at the player's instruction position in the determination reference area (step S20). Then, it is determined whether or not the player's input timing is later than the ball passage timing (step S21). If it is later, as described with reference to FIG. 15A, the ball is placed in front of the determination reference area. A position display object is arranged (step S22). On the other hand, when the player input timing is earlier than the passage timing, as described in FIG. 15B, the ball position display object is arranged behind the determination reference area (step S23). .

なお、上記のように本実施形態について詳細に説明したが、本発明の新規事項および効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本発明の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語(第1視点画像、第2視点画像、移動体、所定視差の画像等)と共に記載された用語(左眼用画像、右眼用画像、ボール・指示マーカ、視差の無い画像等)は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。また、タイミング判定手法、ヒット判定手法、立体視用画像の生成手法、移動体の移動制御手法等も本実施形態で説明したものに限定されず、これらと均等な手法も本発明の範囲に含まれる。また本発明は種々のゲームに適用できる。また本発明は、業務用ゲームシステム、家庭用ゲームシステム、多数のプレーヤが参加する大型アトラクションシステム、シミュレータ、マルチメディア端末、ゲーム画像を生成するシステムボード、携帯電話等の種々の画像生成システムに適用できる。   Although the present embodiment has been described in detail as described above, it will be easily understood by those skilled in the art that many modifications can be made without departing from the novel matters and effects of the present invention. Accordingly, all such modifications are intended to be included in the scope of the present invention. For example, in the specification or the drawings, terms (left-eye image, right-hand image) that are described at least once together with different terms having a broader meaning or the same meaning (first viewpoint image, second viewpoint image, moving object, image of predetermined parallax, etc.) An ophthalmic image, a ball / indicator marker, an image without parallax, etc.) can be replaced by the different terminology anywhere in the specification or drawings. Further, the timing determination method, hit determination method, stereoscopic image generation method, moving object movement control method, and the like are not limited to those described in the present embodiment, and equivalent methods are also included in the scope of the present invention. It is. The present invention can be applied to various games. Further, the present invention is applied to various image generation systems such as a business game system, a home game system, a large attraction system in which a large number of players participate, a simulator, a multimedia terminal, a system board for generating a game image, and a mobile phone. it can.

ARB 判定基準エリア、MOB 移動体、ARI 操作入力エリア、
CHP 投手キャラクタ、CHB 打者キャラクタ、BL ボール、
DOB 指示位置表示用オブジェクト、POB ボール位置表示用オブジェクト、
HV ヒット判定ボリューム、HV1、HV2 第1、第2のヒット判定ボリューム、
DR1 第1の方向、DR2 第2の方向、MK、MK1〜MK5 指示マーカ、
SOB 評価表示用オブジェクト、GOB ゲージ CHT 太鼓キャラクタ、
TOB 太鼓、VCL 左眼用仮想カメラ、VCR 右眼用仮想カメラ、
SC スクリーン(基準スクリーン)、VVL 左眼用ビューボリューム、
VVR 右眼用ビューボリューム、CNL、CNR、CFL、CFR クリッピング面、
CM1、CM2 カメラ、
MKV 仮想指示マーカ、PL、プレーヤ、SP1、SP2 音出力部、
10 筺体、12 方向指示キー、14 アナログスティック、16 操作ボタン、
20 筺体、30 タッチペン、190M メイン表示部、190S サブ表示部、
100 処理部、102 ゲーム演算部、104 オブジェクト空間設定部、
106 移動体制御部、108 仮想カメラ制御部、110 判定部、
120 画像生成部、122 左眼用画像生成部、124 右眼用画像生成部、
170 記憶部、172 オブジェクトデータ記憶部、
178 描画バッファ、180 情報記憶媒体、190 表示部、192 音出力部、
194 補助記憶装置、196 通信部、
500 サーバシステム、510 ネットワーク、TM1〜TMn 端末装置、
600 処理部、602 ゲーム演算部、604 オブジェクト空間設定部、
606 移動体制御部、608 仮想カメラ制御部、610 判定部、
620 画像生成用データ生成部、630 音生成用データ生成部
ARB criteria area, MOB moving object, ARI operation input area,
CHP pitcher character, CHB batter character, BL ball,
DOB indication position display object, POB ball position display object,
HV hit determination volume, HV1, HV2 first and second hit determination volume,
DR1 first direction, DR2 second direction, MK, MK1 to MK5 indicating markers,
SOB evaluation display object, GOB gauge CHT drum character,
TOB drum, VCL virtual camera for left eye, VCR virtual camera for right eye,
SC screen (reference screen), VVL left eye view volume,
VVR Right eye view volume, CNL, CNR, CFL, CFR clipping plane,
CM1, CM2 camera,
MKV virtual instruction marker, PL, player, SP1, SP2 sound output unit,
10 housing, 12 direction instruction keys, 14 analog stick, 16 operation buttons,
20 housing, 30 touch pen, 190M main display section, 190S sub display section,
100 processing unit, 102 game calculation unit, 104 object space setting unit,
106 moving body control unit, 108 virtual camera control unit, 110 determination unit,
120 image generation units, 122 left-eye image generation units, 124 right-eye image generation units,
170 storage unit, 172 object data storage unit,
178 Drawing buffer, 180 information storage medium, 190 display unit, 192 sound output unit,
194 Auxiliary storage device, 196 communication unit,
500 server system, 510 network, TM1-TMn terminal device,
600 processing unit, 602 game calculation unit, 604 object space setting unit,
606 moving body control unit, 608 virtual camera control unit, 610 determination unit,
620 Image generation data generation unit, 630 Sound generation data generation unit

Claims (23)

移動体の制御を行う移動体制御部と、
前記移動体を用いたタイミング判定処理を行う判定部と、
立体視用画像を生成する画像生成部として、
コンピュータを機能させ、
前記画像生成部は、
前記タイミング判定処理に用いられる判定基準エリアを前記移動体が通過する際に前記移動体の画像の視差が無くなるように、前記移動体が表示された立体視用画像を生成することを特徴とするプログラム。
A moving body control unit for controlling the moving body;
A determination unit that performs a timing determination process using the moving body;
As an image generation unit that generates a stereoscopic image,
Make the computer work,
The image generation unit
Generating a stereoscopic image on which the moving object is displayed so that the parallax of the image of the moving object disappears when the moving object passes through a determination reference area used for the timing determination process. program.
請求項1において、
前記判定部は、
プレーヤの入力タイミングと前記移動体の前記判定基準エリアの通過タイミングとに基づいて、前記タイミング判定処理を行い、
前記画像生成部は、
前記判定基準エリアの前記通過タイミングにおいて前記移動体の画像の視差が無くなるように、前記移動体が表示された立体視用画像を生成することを特徴とするプログラム。
In claim 1,
The determination unit
Based on the input timing of the player and the passing timing of the moving object in the determination reference area, the timing determination process is performed,
The image generation unit
A program for generating a stereoscopic image on which the moving body is displayed so that parallax of the image of the moving body is eliminated at the passage timing of the determination reference area.
請求項2において、
ゲーム演算処理を行うゲーム演算部として、
コンピュータを機能させ、
前記判定部は、
前記タイミング判定処理として、前記入力タイミングと前記通過タイミングとのタイミング関係に基づく評価処理を行い、
前記ゲーム演算部は、
前記評価処理の結果に基づいて、前記ゲーム演算処理を行うことを特徴とするプログラム。
In claim 2,
As a game calculation unit for performing game calculation processing,
Make the computer work,
The determination unit
As the timing determination process, an evaluation process based on a timing relationship between the input timing and the passage timing is performed,
The game calculation unit
A program for performing the game calculation process based on a result of the evaluation process.
請求項3において、
前記ゲーム演算部は、
前記プレーヤのゲーム成績の演算処理、前記移動体の表示制御処理、及びゲーム演出処理の少なくとも1つを、前記評価処理の結果に基づく前記ゲーム演算処理として行うことを特徴とするプログラム。
In claim 3,
The game calculation unit
A program characterized in that at least one of a calculation process of game results of the player, a display control process of the moving body, and a game effect process is performed as the game calculation process based on the result of the evaluation process.
請求項3又は4において、
前記画像生成部は、
前記入力タイミングと前記通過タイミングとのタイミング差に応じて、前記移動体の画像の視差が変化する立体視用画像を生成することを特徴とするプログラム。
In claim 3 or 4,
The image generation unit
A program for generating a stereoscopic image in which a parallax of an image of the moving object changes according to a timing difference between the input timing and the passage timing.
請求項1乃至5のいずれかにおいて、
前記判定部は、
前記タイミング判定処理として、前記判定基準エリアが設定される領域において、ヒット対象物である前記移動体がヒット体によってヒットされるヒット判定処理を行うことを特徴とするプログラム。
In any one of Claims 1 thru | or 5,
The determination unit
As the timing determination process, a program for performing a hit determination process in which the moving object that is a hit object is hit by a hit object in an area where the determination reference area is set.
請求項6において、
前記判定部は、
前記判定基準エリアを含むヒット判定ボリュームを設定し、プレーヤの入力タイミングにおいて前記ヒット判定ボリューム内に前記移動体が位置していた場合に、前記ヒット体によって前記移動体がヒットされたと判定することを特徴とするプログラム。
In claim 6,
The determination unit
A hit determination volume including the determination reference area is set, and when the moving body is located in the hit determination volume at a player input timing, it is determined that the moving body has been hit by the hit body. A featured program.
請求項7において、
前記画像生成部は、
前記ヒット判定ボリューム内に前記移動体が位置する場合に、前記移動体の色、形状及び大きさの少なくとも1つが変化する立体視用画像を生成することを特徴とするプログラム。
In claim 7,
The image generation unit
A program for generating a stereoscopic image in which at least one of a color, a shape, and a size of the moving body changes when the moving body is located in the hit determination volume.
請求項7又は8において、
前記判定部は、
前記判定基準エリアよりも視点側から見て手前側の第1のヒット判定ボリュームと、視点側から見て奥側の第2のヒット判定ボリュームを設定し、
前記プレーヤの入力タイミングにおいて前記移動体が前記第1のヒット判定ボリューム内に位置していた場合には、前記移動体のヒット方向を第1の方向側に設定し、
前記プレーヤの前記入力タイミングにおいて前記移動体が前記第2のヒット判定ボリューム内に位置していた場合には、前記移動体の前記ヒット方向を前記第1の方向側とは異なる第2の方向側に設定することを特徴とするプログラム。
In claim 7 or 8,
The determination unit
Set a first hit determination volume on the near side as viewed from the viewpoint side with respect to the determination reference area and a second hit determination volume on the back side as viewed from the viewpoint side,
When the moving body is located in the first hit determination volume at the input timing of the player, the hit direction of the moving body is set to the first direction side,
If the moving body is located in the second hit determination volume at the input timing of the player, the second direction side of the hit direction of the moving body is different from the first direction side. The program characterized by setting to.
請求項6乃至9のいずれかにおいて、
前記判定部は、
前記判定基準エリアでの前記移動体の通過位置と、前記判定基準エリアでのプレーヤのヒット指示位置との位置関係に応じて、前記ヒット体によるヒット後の前記移動体の状態を決めるヒット結果パラメータを設定することを特徴とするプログラム。
In any one of Claims 6 thru | or 9.
The determination unit
Hit result parameter that determines the state of the mobile body after a hit by the hit body according to the positional relationship between the passing position of the mobile body in the determination reference area and the hit instruction position of the player in the determination reference area A program characterized by setting.
請求項6乃至10のいずれかにおいて、
前記画像生成部は、
前記プレーヤのヒット指示位置を知らせるための指示位置表示用オブジェクトが前記判定基準エリアの位置に表示された立体視用画像を生成することを特徴とするプログラム。
In any of claims 6 to 10,
The image generation unit
A program for generating a stereoscopic image in which an instruction position display object for informing a hit instruction position of the player is displayed at a position of the determination reference area.
請求項6乃至11のいずれかにおいて、
前記画像生成部は、
前記プレーヤが前記ヒット指示位置を指示した入力タイミングでの前記移動体の位置を知らせるための移動体位置表示用オブジェクトが表示された立体視用画像を生成することを特徴とするプログラム。
In any of claims 6 to 11,
The image generation unit
A program for generating a stereoscopic image on which a moving body position display object for informing a position of the moving body at an input timing at which the player indicates the hit instruction position is displayed.
請求項12において、
前記画像生成部は、
前記移動体の前記判定基準エリアの通過タイミングよりも前記入力タイミングの方が遅い場合には、前記判定基準エリアよりも視点側から見て手前側に前記移動体位置表示用オブジェクトが表示され、前記移動体の前記判定基準エリアの通過タイミングよりも前記入力タイミングの方が早い場合には、前記判定基準エリアよりも視点側から見て奧側に前記移動体位置表示用オブジェクトが表示された立体視用画像を生成することを特徴とするプログラム。
In claim 12,
The image generation unit
When the input timing is later than the passage timing of the moving object in the determination reference area, the moving object position display object is displayed on the near side as viewed from the viewpoint side than the determination reference area, When the input timing is earlier than the passage timing of the moving object in the determination reference area, the stereoscopic view in which the moving object position display object is displayed on the heel side as viewed from the viewpoint side than the determination reference area. A program characterized by generating an image for use.
請求項1乃至13のいずれかにおいて、
前記判定部は、
前記判定基準エリアの位置、方向及び形状の少なくとも1つを可変に設定することを特徴とするプログラム。
In any one of Claims 1 thru | or 13.
The determination unit
A program that variably sets at least one of a position, a direction, and a shape of the determination reference area.
請求項14において、
前記判定部は、
プレーヤが操作するキャラクタの情報に基づいて、前記判定基準エリアの位置、方向及び形状の少なくとも1つを可変に設定することを特徴とするプログラム。
In claim 14,
The determination unit
A program characterized in that at least one of the position, direction and shape of the determination reference area is variably set based on information of a character operated by a player.
請求項1乃至15のいずれかにおいて、
前記移動体は球技ゲームにおけるボールであり、
前記判定部は、
前記球技ゲームに登場するキャラクタの所持物又は部位により前記ボールがヒットされる領域に、前記判定基準エリアを設定することを特徴とするプログラム。
In any one of Claims 1 thru | or 15,
The moving body is a ball in a ball game,
The determination unit
A program characterized in that the determination reference area is set in an area where the ball is hit by the possession or part of a character appearing in the ball game.
請求項16において、
前記球技ゲームは野球ゲームであり、
前記判定部は、
前記野球ゲームにおけるホームベース上に前記判定基準エリアを設定することを特徴とするプログラム。
In claim 16,
The ball game is a baseball game,
The determination unit
A program for setting the determination reference area on a home base in the baseball game.
請求項1乃至17のいずれかにおいて、
前記画像生成部は、
前記判定基準エリアに対応する位置に設定された基準スクリーンに対して前記移動体のオブジェクトを透視投影して描画することで、前記判定基準エリアを前記移動体が通過する際に前記移動体の画像の視差が無くなる立体視用画像を生成することを特徴とするプログラム。
In any one of Claims 1 thru | or 17,
The image generation unit
An image of the moving object when the moving object passes through the determination reference area by perspectively projecting and drawing the object of the moving object on a reference screen set at a position corresponding to the determination reference area A program for generating a stereoscopic image that eliminates the parallax.
請求項1乃至18のいずれかにおいて、
前記画像生成部は、
前記判定基準エリアを前記移動体が通過する際に前記移動体の色、形状及びサイズの少なくとも1つが変化する立体視用画像を生成することを特徴とするプログラム。
In any one of Claims 1 thru | or 18.
The image generation unit
A program for generating a stereoscopic image in which at least one of a color, a shape, and a size of the moving body changes when the moving body passes through the determination reference area.
請求項1乃至19のいずれかにおいて、
音を生成する音生成部として、
コンピュータを機能させ、
前記音生成部は、
前記移動体の視差に応じて、音像定位が変化する音を生成することを特徴とするプログラム。
In any one of Claims 1 thru | or 19.
As a sound generator that generates sound,
Make the computer work,
The sound generator is
A program for generating a sound whose sound image localization changes according to the parallax of the moving body.
コンピュータ読み取り可能な情報記憶媒体であって、請求項1乃至20のいずれかに記載のプログラムを記憶したことを特徴とする情報記憶媒体。   A computer-readable information storage medium, wherein the program according to any one of claims 1 to 20 is stored. 移動体の制御を行う移動体制御部と、
前記移動体を用いたタイミング判定処理を行う判定部と、
立体視用画像を生成する画像生成部と、
を含み、
前記画像生成部は、
前記タイミング判定処理に用いられる判定基準エリアを前記移動体が通過する際に前記移動体の画像の視差が無くなるように、前記移動体が表示された立体視用画像を生成することを特徴とする画像生成システム。
A moving body control unit for controlling the moving body;
A determination unit that performs a timing determination process using the moving body;
An image generator for generating a stereoscopic image;
Including
The image generation unit
Generating a stereoscopic image on which the moving object is displayed so that the parallax of the image of the moving object disappears when the moving object passes through a determination reference area used for the timing determination process. Image generation system.
移動体の制御を行う移動体制御部と、
前記移動体を用いたタイミング判定処理を行う判定部と、
立体視用画像を生成するための画像生成用データを生成する画像生成用データ生成部と、
を含み、
前記画像生成用データ生成部は、
前記タイミング判定処理に用いられる判定基準エリアを前記移動体が通過する際に前記移動体の画像の視差が無くなるように、前記移動体が表示された立体視用画像を生成するための画像生成用データを生成することを特徴とするサーバシステム。
A moving body control unit for controlling the moving body;
A determination unit that performs a timing determination process using the moving body;
An image generation data generation unit for generating image generation data for generating a stereoscopic image;
Including
The image generation data generation unit includes:
For generating an image for generating a stereoscopic image on which the moving object is displayed so that the parallax of the image of the moving object disappears when the moving object passes through the determination reference area used for the timing determination process. A server system characterized by generating data.
JP2010294472A 2010-12-29 2010-12-29 Program, information storage medium, image generation system and server system Pending JP2012141820A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010294472A JP2012141820A (en) 2010-12-29 2010-12-29 Program, information storage medium, image generation system and server system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010294472A JP2012141820A (en) 2010-12-29 2010-12-29 Program, information storage medium, image generation system and server system

Publications (1)

Publication Number Publication Date
JP2012141820A true JP2012141820A (en) 2012-07-26

Family

ID=46678049

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010294472A Pending JP2012141820A (en) 2010-12-29 2010-12-29 Program, information storage medium, image generation system and server system

Country Status (1)

Country Link
JP (1) JP2012141820A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014079645A (en) * 2014-01-07 2014-05-08 Konami Digital Entertainment Co Ltd Game program and game device
WO2017170028A1 (en) * 2016-03-29 2017-10-05 株式会社コロプラ Game method and game program
JP2017176337A (en) * 2016-03-29 2017-10-05 株式会社コロプラ Game method and game program
JP2018130213A (en) * 2017-02-14 2018-08-23 株式会社コナミアミューズメント Game system and computer program used therefor
JP2020191969A (en) * 2019-05-24 2020-12-03 株式会社Cygames Information processing program, information processing method and information processor

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014079645A (en) * 2014-01-07 2014-05-08 Konami Digital Entertainment Co Ltd Game program and game device
WO2017170028A1 (en) * 2016-03-29 2017-10-05 株式会社コロプラ Game method and game program
JP2017176337A (en) * 2016-03-29 2017-10-05 株式会社コロプラ Game method and game program
JP2018130213A (en) * 2017-02-14 2018-08-23 株式会社コナミアミューズメント Game system and computer program used therefor
JP2020191969A (en) * 2019-05-24 2020-12-03 株式会社Cygames Information processing program, information processing method and information processor
WO2020241209A1 (en) * 2019-05-24 2020-12-03 株式会社Cygames Information processing program, information processing method and information processing device
US12102914B2 (en) 2019-05-24 2024-10-01 Cygames, Inc. Non-transitory computer readable medium, information processing method, and information processing device

Similar Documents

Publication Publication Date Title
JP5148652B2 (en) Program, information storage medium, and image generation system
JP4917664B1 (en) Image display device, game program, and game control method
JP5300777B2 (en) Program and image generation system
JP2018109835A (en) Simulation system and its program
JP2012212237A (en) Image generation system, server system, program, and information storage medium
JP2012059011A (en) Program, information storage medium and image generation device
JP2012068977A (en) Game processing program, device, system and method
WO2014050974A1 (en) Display device, control system, and control programme
JP2012141820A (en) Program, information storage medium, image generation system and server system
JP2011186566A (en) Game device, control method for game device, and program
JP2019139424A (en) Simulation system and program
JP2012181616A (en) Program, information storage medium, game device and server system
JP2012101025A (en) Program, information storage medium, game device, and server system
JP2012106005A (en) Image display device, game program, and game control method
US20220377313A1 (en) Information processing apparatus, information processing method, and program
JP2012141826A (en) Program, information storage medium, image generation system and server system
JP5649846B2 (en) Program and image generation system
JP2002300611A (en) Image generating device, program, and information recording medium
JP2012059008A (en) Program, information storage medium and image generation system
JP7044426B1 (en) Image compositing device, image compositing method, and program
JP6808896B2 (en) Display control device, display control system, and program
JP5816435B2 (en) Display control program, display control apparatus, display control system, and display control method
WO2022145414A1 (en) Image compositing device, image compositing method, and program
JP5002678B2 (en) Image generation apparatus, image generation method, and computer program used for image generation apparatus
JP5798334B2 (en) Display control program, display control apparatus, display control system, and display control method