Nothing Special   »   [go: up one dir, main page]

JP2012141826A - Program, information storage medium, image generation system and server system - Google Patents

Program, information storage medium, image generation system and server system Download PDF

Info

Publication number
JP2012141826A
JP2012141826A JP2010294528A JP2010294528A JP2012141826A JP 2012141826 A JP2012141826 A JP 2012141826A JP 2010294528 A JP2010294528 A JP 2010294528A JP 2010294528 A JP2010294528 A JP 2010294528A JP 2012141826 A JP2012141826 A JP 2012141826A
Authority
JP
Japan
Prior art keywords
timing
image
determination
parallax
moving body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010294528A
Other languages
Japanese (ja)
Inventor
Norio Egashira
規雄 江頭
Akio Onda
明生 恩田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bandai Namco Entertainment Inc
Original Assignee
Namco Bandai Games Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Bandai Games Inc filed Critical Namco Bandai Games Inc
Priority to JP2010294528A priority Critical patent/JP2012141826A/en
Publication of JP2012141826A publication Critical patent/JP2012141826A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a program, an information storage medium, an image generation system and a server system which can realize appropriate timing determination processing in a stereoscopic viewing system.SOLUTION: An image generation system includes a moving object control unit for performing control of a moving object, a determination unit for performing timing determination processing using the moving object, and an image generation unit for generating a stereoscopic viewing image. The image generation unit generates a stereoscopic viewing image in which the moving object is displayed so as to make an image parallax of the moving object a prescribed parallax at a determination criteria timing used for the timing determination processing.

Description

本発明は、プログラム、情報記憶媒体、画像生成システム及びサーバシステム等に関する。   The present invention relates to a program, an information storage medium, an image generation system, a server system, and the like.

近年、映画やゲーム等の分野において、より臨場感が溢れる画像を生成するシステムとして、立体視画像の生成システムが脚光を浴びている。例えば立体視画像生成システムの1つである2眼式の立体視画像生成システムでは、左眼用画像と右眼用画像を生成する。そしてプレーヤが立体視用の眼鏡を装着して、左眼は左眼用画像のみを見て、右眼は右眼用画像のみを見るようにすることで、立体視を実現する。このような立体視を実現する画像生成システムの従来技術としては、例えば特許文献1に開示される技術がある。また立体視方式としては、眼鏡式以外にも裸眼式がある。例えば、パララックスバリアによって、画素ごとに、「左眼には見えるが右眼には見えない」、「右眼には見えるが左眼には見えない」という状態を作り出すことで、裸眼の立体視システムを実現できる。また、レンチキュラ等の光学素子による光の屈折等を利用することで、画素ごとに光の方向を制御し、上記と同様の状態を作り出すことでも、裸眼の立体視システムを実現できる。   2. Description of the Related Art In recent years, stereoscopic image generation systems have been spotlighted as systems for generating images that are more realistic in the fields of movies and games. For example, in a binocular stereoscopic image generation system which is one of the stereoscopic image generation systems, a left-eye image and a right-eye image are generated. Then, the player wears stereoscopic glasses, the left eye sees only the left eye image, and the right eye sees only the right eye image, thereby realizing stereoscopic vision. As a conventional technique of an image generation system that realizes such a stereoscopic view, there is a technique disclosed in Patent Document 1, for example. Further, as a stereoscopic viewing method, there is a naked eye type in addition to the glasses type. For example, a parallax barrier creates a state of “visible to the left eye but not to the right eye” or “visible to the right eye but not to the left eye” for each pixel. Visual system can be realized. Also, by utilizing the refraction of light by an optical element such as a lenticular, the direction of the light is controlled for each pixel, and a state similar to the above can be created to realize a stereoscopic vision system with naked eyes.

一方、音楽ゲームや、野球ゲームなどの球技ゲームなどでは、音符(指示マーカ)やボールなどの移動体をゲーム画面上で移動させ、この移動体を用いて、プレーヤの入力タイミングが所定の判定基準内にあるか否かのタイミング判定処理を行う。   On the other hand, in a music game or a ball game such as a baseball game, a moving object such as a musical note (indicating marker) or a ball is moved on the game screen, and the input timing of the player is determined according to a predetermined criterion. A timing determination process is performed to determine whether or not it is within.

しかしながら、立体視システムにより実現される立体視ゲームにおいて、このようなタイミング判定処理を行う場合に、タイミング判定における移動体の表示状態が適正な表示状態でないと、適切なタイミング判定処理を実現できなくなるおそれがある。   However, in a stereoscopic game realized by a stereoscopic system, when such timing determination processing is performed, an appropriate timing determination processing cannot be realized unless the display state of the moving object in the timing determination is an appropriate display state. There is a fear.

特開2004−126902号公報JP 2004-126902 A

本発明の幾つかの態様によれば、立体視システムにおける適切なタイミング判定処理を実現できるプログラム、情報記憶媒体、画像生成システム及びサーバシステム等を提供できる。   According to some aspects of the present invention, it is possible to provide a program, an information storage medium, an image generation system, a server system, and the like that can realize appropriate timing determination processing in a stereoscopic vision system.

本発明の一態様は、移動体の制御を行う移動体制御部と、前記移動体を用いたタイミング判定処理を行う判定部と、立体視用画像を生成する画像生成部とを含み、前記画像生成部は、前記タイミング判定処理に用いられる判定基準タイミングにおいて前記移動体の画像の視差が所定視差になるように、前記移動体が表示された立体視用画像を生成する画像生成システムに関係する。また本発明は、上記各部としてコンピュータを機能させるプログラム、又は該プログラムを記憶したコンピュータ読み取り可能な情報記憶媒体に関係する。   One aspect of the present invention includes a moving body control unit that controls a moving body, a determination unit that performs a timing determination process using the moving body, and an image generation unit that generates a stereoscopic image. The generation unit relates to an image generation system that generates a stereoscopic image on which the moving body is displayed so that the parallax of the image of the moving body becomes a predetermined parallax at a determination reference timing used for the timing determination process. . The present invention also relates to a program that causes a computer to function as each of the above-described units, or a computer-readable information storage medium that stores the program.

本発明の一態様によれば、移動体制御部により制御される移動体を用いて、タイミング判定処理が行われる。そして、タイミング判定処理に用いられる判定基準タイミングにおいて、移動体の画像の視差が所定視差になるように立体視用画像が生成される。このようにすれば、判定基準タイミングにおいて画像の視差が所定視差になる移動体を用いて、タイミング判定処理が行われるようになるため、立体視システムにおける適切なタイミング判定処理を実現することが可能になる。   According to one aspect of the present invention, the timing determination process is performed using the moving body controlled by the moving body control unit. Then, at the determination reference timing used for the timing determination process, the stereoscopic image is generated so that the parallax of the image of the moving object becomes a predetermined parallax. In this way, since the timing determination process is performed using a moving object that has a predetermined parallax at the determination reference timing, it is possible to realize an appropriate timing determination process in the stereoscopic system. become.

また本発明の一態様では、前記判定基準タイミングのデータを記憶するタイミングデータ記憶部を含み(タイミングデータ記憶部としてとしてコンピュータを機能させ)、前記判定部は、前記タイミングデータ記憶部に記憶される前記判定基準タイミングのデータと、プレーヤの入力タイミングとに基づいて、前記タイミング判定処理を行ってもよい。   Further, according to one aspect of the present invention, a timing data storage unit that stores data of the determination reference timing is included (the computer functions as the timing data storage unit), and the determination unit is stored in the timing data storage unit. The timing determination process may be performed based on the determination reference timing data and the player input timing.

このようにすれば、タイミングデータ記憶部に記憶された判定基準タイミングのデータを用いてタイミング判定処理を行いながら、判定基準タイミングにおいて移動体の画像の視差が所定視差になる立体視用画像を生成できるようになる。   In this way, while performing the timing determination process using the data of the determination reference timing stored in the timing data storage unit, the stereoscopic image in which the parallax of the moving body image becomes the predetermined parallax at the determination reference timing is generated. become able to.

また本発明の一態様では、ゲーム演算処理を行うゲーム演算部を含み(ゲーム演算部としてコンピュータを機能させ)、前記判定部は、前記タイミング判定処理として、前記入力タイミングと前記判定基準タイミングとのタイミング関係に基づく評価処理を行い、前記ゲーム演算部は、前記評価処理の結果に基づいて、前記ゲーム演算処理を行ってもよい。   In one embodiment of the present invention, a game calculation unit that performs a game calculation process is included (a computer is caused to function as the game calculation unit), and the determination unit determines whether the input timing and the determination reference timing are as the timing determination process. An evaluation process based on the timing relationship may be performed, and the game calculation unit may perform the game calculation process based on a result of the evaluation process.

このようにすれば、判定基準タイミングにおいて画像の視差が所定視差になる移動体を用いてタイミング判定処理を実現できると共に、入力タイミングと判定基準タイミングとのタイミング関係に基づく評価処理の結果により、ゲーム演算処理を実行できる。従って、立体視システムにおける適切なタイミング判定処理を実現しながら、そのタイミング判定処理の評価処理の結果をゲーム演算処理に反映させることが可能になる。   In this way, the timing determination process can be realized using a moving object in which the parallax of the image becomes a predetermined parallax at the determination reference timing, and the game is determined based on the result of the evaluation process based on the timing relationship between the input timing and the determination reference timing Arithmetic processing can be executed. Therefore, it is possible to reflect the result of the evaluation process of the timing determination process in the game calculation process while realizing an appropriate timing determination process in the stereoscopic vision system.

また本発明の一態様では、前記ゲーム演算部は、前記プレーヤのゲーム成績の演算処理、前記移動体の表示制御処理、及びゲーム演出処理の少なくとも1つを、前記評価処理の結果に基づく前記ゲーム演算処理として行ってもよい。   In one aspect of the present invention, the game calculation unit performs at least one of a calculation process of a game result of the player, a display control process of the moving object, and a game effect process based on a result of the evaluation process. You may perform as arithmetic processing.

このようにすれば、タイミング判定処理の評価結果を、プレーヤのゲーム成績や移動体の表示制御やゲーム演出処理に反映させることが可能になる。   In this way, the evaluation result of the timing determination process can be reflected in the game result of the player, the display control of the moving body, and the game effect process.

また本発明の一態様では、前記画像生成部は、前記評価処理の結果を表示する評価表示用オブジェクトの画像として、前記評価結果に応じて視差の度合いが変化する画像が表示された立体視用画像を生成してもよい。   In the aspect of the invention, the image generation unit may be used for stereoscopic viewing in which an image whose degree of parallax changes according to the evaluation result is displayed as an image of the evaluation display object that displays the result of the evaluation process. An image may be generated.

このようにすれば、タイミング判定の評価処理の結果を、評価表示用オブジェクトの視差の度合いの変化により、プレーヤに伝えることができる。これにより、プレーヤは、評価表示用オブジェクトの視差の度合いによって、自身に与えられた評価を直感的に認識することが可能になる。   In this way, the result of the timing determination evaluation process can be transmitted to the player by the change in the degree of parallax of the evaluation display object. Thus, the player can intuitively recognize the evaluation given to the player according to the degree of parallax of the evaluation display object.

また本発明の一態様では、前記画像生成部は、前記タイミング判定処理に用いられる判定基準タイミングにおいて前記移動体の画像の視差が無くなるように、前記移動体が表示された立体視用画像を生成してもよい。   In one aspect of the present invention, the image generation unit generates a stereoscopic image on which the moving body is displayed so that the parallax of the image of the moving body is eliminated at the determination reference timing used in the timing determination process. May be.

このようにすれば、判定基準タイミングにおいて画像の視差が無くなる移動体を用いて、タイミング判定処理が行われるようになるため、立体視システムにおける適切なタイミング判定処理を実現することが可能になる。   In this way, since the timing determination process is performed using a moving body that has no image parallax at the determination reference timing, it is possible to realize an appropriate timing determination process in the stereoscopic system.

また本発明の一態様では、前記画像生成部は、前記入力タイミングと前記判定基準タイミングとのタイミング差に応じて、前記移動体の画像の視差が変化する立体視用画像を生成してもよい。   In the aspect of the invention, the image generation unit may generate a stereoscopic image in which parallax of the image of the moving body changes according to a timing difference between the input timing and the determination reference timing. .

このようにすれば、入力タイミングと判定基準タイミングとのタイミング差を、移動体の画像の視差の変化により表すことが可能になり、プレーヤがタイミングを把握しやすいタイミング判定処理を実現できるようになる。   In this way, the timing difference between the input timing and the determination reference timing can be expressed by a change in parallax of the moving object image, and a timing determination process in which the player can easily grasp the timing can be realized. .

また本発明の一態様では、前記画像生成部は、前記タイミング判定処理に用いられる判定基準タイミングにおいて前記移動体の画像の視差が無くなるように、前記移動体が表示された立体視用画像を生成すると共に、前記タイミング判定処理においてプレーヤの入力タイミングが前記判定基準タイミングと合致したと判定され、前記プレーヤの入力が成功であると判定された場合には、ゲーム演出効果表示用オブジェクトの画像として、視差のある画像が表示された立体視用画像を生成してもよい。   In one aspect of the present invention, the image generation unit generates a stereoscopic image on which the moving body is displayed so that the parallax of the image of the moving body is eliminated at the determination reference timing used in the timing determination process. In addition, when it is determined in the timing determination process that the input timing of the player matches the determination reference timing and it is determined that the input of the player is successful, an image of the game effect display object is obtained. A stereoscopic image on which an image with parallax is displayed may be generated.

このようにすれば、移動体が視差の無い画像になっている場合にも、ゲーム演出効果表示用オブジェクトが視差のある画像として表示されることで、ゲーム演出効果を向上できる。   In this way, even when the moving body is an image without parallax, the game effect effect can be improved by displaying the game effect effect display object as an image with parallax.

また本発明の一態様では、前記移動体は、プレーヤが入力すべきタイミングを指示する指示マーカであり、前記判定部は、前記指示マーカで指示されたタイミングで前記プレーヤが入力を行った場合に、前記プレーヤの入力タイミングと前記判定基準タイミングとの合致判定処理を、前記タイミング判定処理として行ってもよい。   In one aspect of the present invention, the moving body is an instruction marker that indicates a timing to be input by the player, and the determination unit is configured to input when the player inputs at the timing specified by the instruction marker. A match determination process between the input timing of the player and the determination reference timing may be performed as the timing determination process.

このようにすれば、プレーヤが、指示マーカで指示された操作の入力を行うと、その入力タイミングと判定基準タイミングとの合致判定処理が行われるようになる。そして、判定基準タイミングでは移動体の画像の視差が所定視差になるため(例えば視差が無くなるため)、プレーヤは、指示マーカで指示された操作を、判定基準タイミングにおいて容易に入力できるようになる。   In this way, when the player inputs an operation instructed by the instruction marker, a process for determining a match between the input timing and the determination reference timing is performed. Since the parallax of the image of the moving object becomes a predetermined parallax at the determination reference timing (for example, the parallax disappears), the player can easily input an operation instructed by the instruction marker at the determination reference timing.

また本発明の一態様では、前記画像生成部は、前記指示マーカについては、前記判定基準タイミングにおいて視差の無い画像が表示され、前記プレーヤの入力が行われたことを示す入力動作表示用オブジェクトについては、視差のある画像が表示された立体視用画像を生成してもよい。   In the aspect of the invention, the image generation unit may display an input action display object indicating that an image having no parallax is displayed at the determination reference timing and the player input is performed for the instruction marker. May generate a stereoscopic image on which an image with parallax is displayed.

このようにすれば、プレーヤは、入力動作表示用オブジェクトを見ることで、自身の入力動作が行われたことを確認できる。また、指示マーカが視差の無い画像であっても、それを補うように、入力動作表示用オブジェクトが視差のある画像になるため、あたかも指示マーカが視差のある画像として立体視表示されているかのように見える演出効果を実現できるようになる。   In this way, the player can confirm that his / her input operation has been performed by looking at the input operation display object. Also, even if the instruction marker is an image without parallax, the input operation display object becomes an image with parallax so as to compensate for it, so it is as if the instruction marker is stereoscopically displayed as an image with parallax. The production effect that looks like this can be realized.

また本発明の一態様では、前記移動体制御部は、視点側から見て奥側から手前側に前記移動体を移動させる制御を行ってもよい。   In the aspect of the invention, the moving body control unit may perform control to move the moving body from the back side to the near side when viewed from the viewpoint side.

このようにすれば、視点側から見て奥側から手前側に移動体を移動させ、判定基準タイミングにおいて、その移動体の画像の視差が所定視差になるような立体視用画像(例えば視差が無くなるような立体視用画像)を生成することで、移動体を用いた適切なタイミング判定処理を実現できるようになる。   In this way, the moving body is moved from the back side to the near side as viewed from the viewpoint side, and the stereoscopic image (for example, the parallax is such that the parallax of the moving body image becomes a predetermined parallax at the determination reference timing). By generating such a stereoscopic image that disappears, an appropriate timing determination process using a moving object can be realized.

また本発明の一態様では、前記移動体制御部は、前記判定基準タイミングにおいて、入力すべきタイミングをプレーヤに知らせるための判定基準エリアを前記移動体が通過するように、前記移動体を移動させる制御を行ってもよい。   In the aspect of the invention, the moving body control unit moves the moving body so that the moving body passes through a determination reference area for informing a player of a timing to be input at the determination reference timing. Control may be performed.

このようにすれば、判定基準タイミングにおいて移動体が判定基準エリアを通過し、その際の移動体の画像は視差が所定視差になる画像(例えば視差の無い画像)になる。従って例えばプレーヤは、判定基準エリアの通過タイミングにおいて視差が所定視差になる移動体の画像を見ながら、操作入力を行うことが可能になるため、立体視システムにおける適切なタイミング判定処理を実現できる。   In this way, the moving body passes through the determination reference area at the determination reference timing, and the image of the moving body at that time becomes an image in which the parallax becomes a predetermined parallax (for example, an image having no parallax). Accordingly, for example, the player can perform an operation input while viewing an image of a moving object having a parallax of a predetermined parallax at the passage timing of the determination reference area, and therefore, an appropriate timing determination process in the stereoscopic system can be realized.

また本発明の一態様では、前記画像生成部は、前記判定基準エリアに対応する位置に設定された基準スクリーンに対して前記移動体のオブジェクトを透視投影して描画することで、前記判定基準タイミングにおいて前記移動体の画像の視差が無くなる立体視用画像を生成してもよい。   In the aspect of the invention, the image generation unit may perform the projection of the moving object on the reference screen set at a position corresponding to the determination reference area, thereby drawing the determination reference timing. In the above, a stereoscopic image in which the parallax of the image of the moving body is eliminated may be generated.

このようにすれば、基準スクリーンへの移動体のオブジェクトの透視投影を行うことで、判定基準エリアを通過する判定基準タイミングにおいて視差が無くなるような移動体の画像を生成できるようになる。   In this way, by performing perspective projection of the moving object on the reference screen, it is possible to generate an image of the moving object that has no parallax at the determination reference timing passing through the determination reference area.

また本発明の一態様では、前記画像生成部は、前記判定基準タイミングにおいて前記移動体の色、形状及びサイズの少なくとも1つが変化する立体視用画像を生成してもよい。   In the aspect of the invention, the image generation unit may generate a stereoscopic image in which at least one of a color, a shape, and a size of the moving body changes at the determination reference timing.

このようにすれば、判定基準タイミングでの移動体の視認性が向上するようになり、プレーヤが把握しやすいタイミング判定処理等を実現できるようになる。   In this way, the visibility of the moving object at the determination reference timing is improved, and timing determination processing and the like that can be easily grasped by the player can be realized.

また本発明の一態様では、音を生成する音生成部を含み(音生成部としてコンピュータを機能させ)、前記音生成部は、前記移動体の視差に応じて、音像定位が変化する音を生成してもよい。   In one embodiment of the present invention, a sound generation unit that generates sound (a computer is caused to function as the sound generation unit), and the sound generation unit outputs a sound whose sound image localization changes according to parallax of the moving body. It may be generated.

このようにすれば、移動体の視差のみならず、移動体の視差に連動する音像定位も利用して、移動体の立体感をプレーヤに感じさせることが可能になる。   In this way, not only the parallax of the moving body but also the sound image localization linked to the parallax of the moving body can be used to make the player feel the stereoscopic effect of the moving body.

また本発明の一態様では、前記判定部は、前記移動体又はタイミング判定処理用の操作対象物に対応する仮想的な表示物であって前記立体視用画像に基づき表示部の表示画面側空間に仮想表示される仮想表示物と、現実空間の被ヒット体とのヒット判定処理を行ってよい。   In the aspect of the invention, the determination unit is a virtual display object corresponding to the moving object or the operation target for timing determination processing, and the display screen side space of the display unit is based on the stereoscopic image. A hit determination process between a virtual display object virtually displayed on the screen and a hit object in the real space may be performed.

このようにすれば、移動体又は操作対象物に対応する仮想表示物と、現実空間の被ヒット体とのヒット判定処理を行って、ヒット判定結果をゲーム結果等に反映させることが可能になる。   In this way, it is possible to perform hit determination processing between the virtual display object corresponding to the moving object or the operation target object and the hit object in the real space, and to reflect the hit determination result in the game result or the like. .

また本発明の一態様では、前記判定部は、前記仮想表示物と前記被ヒット体とのヒット判定処理を、プレーヤを撮影する撮像部からの撮像情報に基づいて行ってもよい。   In the aspect of the invention, the determination unit may perform a hit determination process between the virtual display object and the hit object based on imaging information from an imaging unit that images the player.

このようにすれば、撮像部からの撮像情報を利用して、仮想表示物と被ヒット体とのヒット判定処理を実現できるようになる。   In this way, it is possible to realize the hit determination process between the virtual display object and the hit object using the imaging information from the imaging unit.

また本発明の他の態様は、移動体の制御を行う移動体制御部と、前記移動体を用いたタイミング判定処理を行う判定部と、立体視用画像を生成するための画像生成用データを生成する画像生成用データ生成部とを含み、前記画像生成用データ生成部は、前記タイミング判定処理に用いられる判定基準タイミングにおいて前記移動体の画像の視差が所定視差になるように、前記移動体が表示された立体視用画像を生成するための画像生成用データを生成するサーバシステムに関係する。   According to another aspect of the present invention, a moving body control unit that controls a moving body, a determination unit that performs timing determination processing using the moving body, and image generation data for generating a stereoscopic image are provided. An image generation data generation unit for generating the image, and the image generation data generation unit generates the parallax of the image of the mobile object at a predetermined parallax at a determination reference timing used for the timing determination process. The present invention relates to a server system that generates image generation data for generating a stereoscopic image on which is displayed.

本実施形態の画像生成システムの構成例。1 is a configuration example of an image generation system according to the present embodiment. 立体視におけるオブジェクトの描画位置の説明図。Explanatory drawing of the drawing position of the object in stereoscopic vision. 図3(A)〜図3(C)は本実施形態の手法の説明図。FIG. 3A to FIG. 3C are explanatory diagrams of the method of this embodiment. 図4(A)、図4(B)は移動体の画像の視差についての説明図。4A and 4B are explanatory diagrams of parallax of an image of a moving object. タイミングデータ記憶部についての説明図。Explanatory drawing about a timing data storage part. 図6(A)〜図6(E)は入力タイミングの評価処理についての説明図。FIG. 6A to FIG. 6E are explanatory diagrams of input timing evaluation processing. 図7(A)、図7(B)は本実施形態が適用される携帯型ゲーム装置の構成例。7A and 7B are configuration examples of a portable game device to which the present embodiment is applied. 本実施形態を音楽ゲームに適用した場合に生成される画像の例。The example of the image produced | generated when this embodiment is applied to a music game. 本実施形態を音楽ゲームに適用した場合に生成される画像の例。The example of the image produced | generated when this embodiment is applied to a music game. 図10(A)〜図10(C)は本実施形態を音楽ゲームに適用した場合のタイミング判定手法の説明図。FIG. 10A to FIG. 10C are explanatory diagrams of a timing determination method when the present embodiment is applied to a music game. 図11(A)〜図11(C)は本実施形態を音楽ゲームに適用した場合の入力タイミングの評価手法の説明図。FIGS. 11A to 11C are explanatory diagrams of an input timing evaluation method when the present embodiment is applied to a music game. 図12(A)、図12(B)は評価表示用オブジェクトの表示制御手法の説明図。12A and 12B are explanatory diagrams of a display control method for an evaluation display object. 図13(A)、図13(B)も評価表示用オブジェクトの表示制御手法の説明図。FIGS. 13A and 13B are also explanatory diagrams of the display control method of the evaluation display object. 図14(A)、図14(B)も評価表示用オブジェクトの表示制御手法の説明図。FIGS. 14A and 14B are also explanatory diagrams of the display control method of the evaluation display object. 図15(A)、図15(B)はゲーム演出効果表示用オブジェクトの表示制御手法の説明図。FIG. 15A and FIG. 15B are explanatory diagrams of a display control method for a game effect display object. 図16(A)、図16(B)は入力動作表示用オブジェクトの表示制御手法の説明図。FIGS. 16A and 16B are explanatory diagrams of a display control method for an input action display object. 図17(A)、図17(B)は判定基準タイミングにおいて移動体の色、形状又はサイズを変化させる手法の説明図。FIGS. 17A and 17B are explanatory diagrams of a method of changing the color, shape, or size of the moving object at the determination reference timing. 移動体の視差に応じて音像定位が変化する音を生成する手法の説明図。Explanatory drawing of the method of producing | generating the sound from which sound image localization changes according to the parallax of a moving body. 図19(A)、図19(B)は仮想表示物とプレーヤの指等の被ヒット体とのヒット判定処理を行う手法の説明図。19A and 19B are explanatory diagrams of a technique for performing hit determination processing between a virtual display object and a hit target such as a finger of a player. 本実施形態を野球ゲームに適用した場合に生成される画像の例。The example of the image produced | generated when this embodiment is applied to a baseball game. 本実施形態を野球ゲームに適用した場合に生成される画像の例。The example of the image produced | generated when this embodiment is applied to a baseball game. 本実施形態の詳細な処理を説明するフローチャート。The flowchart explaining the detailed process of this embodiment. 本実施形態の詳細な処理を説明するフローチャート。The flowchart explaining the detailed process of this embodiment. 本実施形態のサーバシステムの構成例。The structural example of the server system of this embodiment.

以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。   Hereinafter, this embodiment will be described. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.

1.構成
図1に本実施形態の画像生成システム(ゲームシステム)のブロック図の例を示す。なお、本実施形態の画像生成システムの構成は図1に限定されず、その構成要素(各部)の一部を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。
1. Configuration FIG. 1 shows an example of a block diagram of an image generation system (game system) of the present embodiment. Note that the configuration of the image generation system of the present embodiment is not limited to that shown in FIG. 1, and various modifications may be made such as omitting some of the components (each unit) or adding other components. .

操作部160は、プレーヤが操作データを入力するためのものであり、その機能は、方向指示キー、操作ボタン、アナログスティック、レバー、各種センサ(角速度センサ、加速度センサ等)、マイク、或いはタッチパネル型ディスプレイなどにより実現できる。   The operation unit 160 is for a player to input operation data, and functions thereof are direction instruction keys, operation buttons, analog sticks, levers, various sensors (such as an angular velocity sensor and an acceleration sensor), a microphone, or a touch panel type. This can be realized with a display.

記憶部170は、処理部100や通信部196などのワーク領域となるもので、その機能はRAM(DRAM、VRAM)などにより実現できる。そしてゲームプログラムや、ゲームプログラムの実行に必要なゲームデータは、この記憶部170に保持される。   The storage unit 170 serves as a work area for the processing unit 100, the communication unit 196, and the like, and its function can be realized by a RAM (DRAM, VRAM) or the like. Then, the game program and game data necessary for executing the game program are held in the storage unit 170.

情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(DVD、CD等)、HDD(ハードディスクドライブ)、或いはメモリ(ROM等)などにより実現できる。処理部100は、情報記憶媒体180に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち情報記憶媒体180には、本実施形態の各部としてコンピュータ(操作部、処理部、記憶部、出力部を備える装置)を機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶される。   The information storage medium 180 (a computer-readable medium) stores programs, data, and the like, and functions as an optical disk (DVD, CD, etc.), HDD (hard disk drive), memory (ROM, etc.), etc. Can be realized. The processing unit 100 performs various processes of the present embodiment based on a program (data) stored in the information storage medium 180. That is, in the information storage medium 180, a program for causing a computer (an apparatus including an operation unit, a processing unit, a storage unit, and an output unit) to function as each unit of the present embodiment (a program for causing the computer to execute processing of each unit). Is memorized.

表示部190は、本実施形態により生成された画像を出力するものであり、その機能は、LCD、有機ELディスプレイ、CRT、タッチパネル型ディスプレイ、或いはHMD(ヘッドマウントディスプレイ)などにより実現できる。音出力部192は、本実施形態により生成された音を出力するものであり、その機能は、スピーカ、或いはヘッドフォンなどにより実現できる。   The display unit 190 outputs an image generated according to the present embodiment, and its function can be realized by an LCD, an organic EL display, a CRT, a touch panel display, an HMD (head mounted display), or the like. The sound output unit 192 outputs the sound generated by the present embodiment, and its function can be realized by a speaker, headphones, or the like.

補助記憶装置194(補助メモリ、2次メモリ)は、記憶部170の容量を補うために使用される記憶装置であり、SDメモリーカード、マルチメディアカードなどのメモリーカードなどにより実現できる。   The auxiliary storage device 194 (auxiliary memory, secondary memory) is a storage device used to supplement the capacity of the storage unit 170, and can be realized by a memory card such as an SD memory card or a multimedia card.

通信部196は、有線や無線のネットワークを介して外部(例えば他の画像生成システム、サーバ、ホスト装置)との間で通信を行うものであり、その機能は、通信用ASIC又は通信用プロセッサなどのハードウェアや、通信用ファームウェアにより実現できる。   The communication unit 196 communicates with the outside (for example, another image generation system, a server, or a host device) via a wired or wireless network, and functions as a communication ASIC, a communication processor, or the like. It can be realized by hardware and communication firmware.

なお本実施形態の各部としてコンピュータを機能させるためのプログラム(データ)は、サーバ(ホスト装置)が有する情報記憶媒体からネットワーク及び通信部196を介して情報記憶媒体180(あるいは記憶部170、補助記憶装置194)に配信してもよい。このようなサーバ(ホスト装置)による情報記憶媒体の使用も本発明の範囲内に含めることができる。   Note that a program (data) for causing a computer to function as each unit of the present embodiment is obtained from an information storage medium of a server (host device) via an information storage medium 180 (or storage unit 170, auxiliary storage) via a network and communication unit 196. May be distributed to the device 194). Use of an information storage medium by such a server (host device) can also be included in the scope of the present invention.

処理部100(プロセッサ)は、操作部160からの操作データやプログラムなどに基づいて、ゲーム処理、画像生成処理、或いは音生成処理などを行う。処理部100は記憶部170をワーク領域として各種処理を行う。この処理部100の機能は、各種プロセッサ(CPU、GPU等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムにより実現できる。   The processing unit 100 (processor) performs game processing, image generation processing, sound generation processing, and the like based on operation data from the operation unit 160, a program, and the like. The processing unit 100 performs various processes using the storage unit 170 as a work area. The functions of the processing unit 100 can be realized by hardware such as various processors (CPU, GPU, etc.), ASIC (gate array, etc.), and programs.

処理部100は、ゲーム演算部102、オブジェクト空間設定部104、移動体制御部106、仮想カメラ制御部108、判定部110、画像生成部120、音生成部130を含む。   The processing unit 100 includes a game calculation unit 102, an object space setting unit 104, a moving body control unit 106, a virtual camera control unit 108, a determination unit 110, an image generation unit 120, and a sound generation unit 130.

ゲーム演算部102はゲーム演算処理を行う。ここでゲーム演算としては、ゲーム開始条件が満たされた場合にゲームを開始する処理、ゲームを進行させる処理、ゲーム結果を演算する処理、或いはゲーム終了条件が満たされた場合にゲームを終了する処理などがある。   The game calculation unit 102 performs game calculation processing. Here, as a game calculation, a process for starting a game when a game start condition is satisfied, a process for advancing the game, a process for calculating a game result, or a process for ending a game when a game end condition is satisfied and so on.

オブジェクト空間設定部104は、複数のオブジェクトが配置されるオブジェクト空間の設定処理を行う。例えば、キャラクタ(人、動物、ロボット、車、船舶、飛行機等)、指示マーカ、ボール、マップ(地形)、建物、コース(道路)、樹木、壁などの表示物を表す各種オブジェクト(ポリゴン、自由曲面又はサブディビジョンサーフェイスなどのプリミティブ面で構成されるオブジェクト)をオブジェクト空間に配置設定する処理を行う。即ちワールド座標系でのオブジェクトの位置や回転角度(向き、方向と同義)を決定し、その位置(X、Y、Z)にその回転角度(X、Y、Z軸回りでの回転角度)でオブジェクトを配置する。具体的には、記憶部170のオブジェクトデータ記憶部172には、オブジェクト(パーツオブジェクト)の位置、回転角度、移動速度、移動方向等のデータであるオブジェクトデータがオブジェクト番号に対応づけて記憶される。オブジェクト空間設定部104は、例えば各フレーム毎にこのオブジェクトデータを更新する処理などを行う。   The object space setting unit 104 performs an object space setting process in which a plurality of objects are arranged. For example, various objects (polygon, freedom, etc.) representing display objects such as characters (people, animals, robots, cars, ships, airplanes, etc.), pointing markers, balls, maps (terrain), buildings, courses (roads), trees, walls, etc. A process of placing and setting (objects configured with a primitive surface such as a curved surface or a subdivision surface) in the object space is performed. In other words, the position and rotation angle of the object in the world coordinate system (synonymous with direction and direction) are determined, and the rotation angle (rotation angle around the X, Y, and Z axes) is determined at that position (X, Y, Z). Arrange objects. Specifically, the object data storage unit 172 of the storage unit 170 stores object data such as the position, rotation angle, moving speed, moving direction, etc. of the object (part object) in association with the object number. . The object space setting unit 104 performs a process of updating the object data for each frame, for example.

移動体制御部106は、指示マーカ、ボール、キャラクタ等の移動体を移動させるための制御処理を行う。また移動体(移動体オブジェクト)を動作させるための制御処理を行う。即ち操作部160によりプレーヤが入力した操作データや、プログラム(移動・動作アルゴリズム)や、各種データ(モーションデータ)などに基づいて、移動体(オブジェクト、モデルオブジェクト)をオブジェクト空間内で移動させたり、移動体を動作(モーション、アニメーション)させる制御処理を行う。具体的には、移動体の移動情報(位置、回転角度、速度、或いは加速度)や動作情報(パーツオブジェクトの位置、或いは回転角度)を、1フレーム(1/60秒)毎に順次求めるシミュレーション処理を行う。なおフレームは、移動体の移動・動作処理(シミュレーション処理)や画像生成処理を行う時間の単位である。   The moving body control unit 106 performs control processing for moving a moving body such as an instruction marker, a ball, and a character. Also, a control process for operating the moving body (moving body object) is performed. That is, based on operation data input by the player through the operation unit 160, a program (movement / motion algorithm), various data (motion data), etc., a moving body (object, model object) is moved in the object space, Performs control processing to move the moving body (motion, animation). Specifically, a simulation process for sequentially obtaining movement information (position, rotation angle, speed, or acceleration) and motion information (part object position or rotation angle) of a moving body for each frame (1/60 second). I do. A frame is a unit of time for performing a moving / movement process (simulation process) and an image generation process of a moving object.

仮想カメラ制御部108は、オブジェクト空間内の所与(任意)の視点から見える画像を生成するための仮想カメラ(視点、基準仮想カメラ)の制御処理を行う。具体的には、仮想カメラの位置(X、Y、Z)又は回転角度(X、Y、Z軸回りでの回転角度)を制御する処理(視点位置、視線方向あるいは画角を制御する処理)を行う。   The virtual camera control unit 108 performs control processing of a virtual camera (viewpoint, reference virtual camera) for generating an image that can be seen from a given (arbitrary) viewpoint in the object space. Specifically, processing for controlling the position (X, Y, Z) or rotation angle (rotation angle about the X, Y, Z axis) of the virtual camera (processing for controlling the viewpoint position, the line-of-sight direction or the angle of view) I do.

例えば仮想カメラによりキャラクタを後方から撮影する場合には、キャラクタの位置又は方向の変化に仮想カメラが追従するように、仮想カメラの位置(視点位置)や方向(視線方向)を制御する。この場合には、移動体制御部106で得られたキャラクタの位置、方向又は速度などの情報に基づいて、仮想カメラを制御できる。或いは、仮想カメラを、予め決められた回転角度で回転させたり、予め決められた移動経路で移動させる制御を行ってもよい。この場合には、仮想カメラの位置(移動経路)又は方向を特定するための仮想カメラデータに基づいて仮想カメラを制御する。   For example, when a character is photographed from behind using a virtual camera, the position (viewpoint position) and direction (gaze direction) of the virtual camera are controlled so that the virtual camera follows changes in the position or direction of the character. In this case, the virtual camera can be controlled based on information such as the position, direction, or speed of the character obtained by the moving body control unit 106. Alternatively, the virtual camera may be controlled to rotate at a predetermined rotation angle or to move along a predetermined movement path. In this case, the virtual camera is controlled based on virtual camera data for specifying the position (movement path) or direction of the virtual camera.

判定部110は各種の判定処理を行う。判定部110が行う判定処理の詳細については後述する。   The determination unit 110 performs various determination processes. Details of the determination process performed by the determination unit 110 will be described later.

画像生成部120は、処理部100で行われる種々の処理(ゲーム処理、シミュレーション処理)の結果に基づいて描画処理を行い、これにより画像を生成し、表示部190に出力する。具体的には、座標変換(ワールド座標変換、カメラ座標変換)、クリッピング処理、透視変換、或いは光源処理等のジオメトリ処理が行われ、その処理結果に基づいて、描画データ(プリミティブ面の頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)が作成される。そして、この描画データ(プリミティブ面データ)に基づいて、透視変換後(ジオメトリ処理後)のオブジェクト(1又は複数プリミティブ面)を、描画バッファ178(フレームバッファ、ワークバッファ等のピクセル単位で画像情報を記憶できるバッファ)に描画する。これにより、オブジェクト空間内において仮想カメラ(所与の視点)から見える画像が生成される。なお、描画処理は頂点シェーダ処理やピクセルシェーダ処理等により実現することができる。   The image generation unit 120 performs drawing processing based on the results of various processing (game processing and simulation processing) performed by the processing unit 100, thereby generating an image and outputting the image to the display unit 190. Specifically, geometric processing such as coordinate transformation (world coordinate transformation, camera coordinate transformation), clipping processing, perspective transformation, or light source processing is performed. Based on the processing result, drawing data (the position of the vertex of the primitive surface) Coordinates, texture coordinates, color data, normal vector, α value, etc.) are created. Based on the drawing data (primitive surface data), the object (one or a plurality of primitive surfaces) after perspective transformation (after geometry processing) is converted into image information in units of pixels such as a drawing buffer 178 (frame buffer, work buffer, etc.). Draw in a buffer that can be stored. Thereby, an image that can be seen from the virtual camera (given viewpoint) in the object space is generated. Note that the rendering process can be realized by a vertex shader process, a pixel shader process, or the like.

音生成部130は、処理部100で行われる種々の処理の結果に基づいて音処理を行い、BGM、効果音、又は音声などのゲーム音を生成し、音出力部192に出力する。   The sound generation unit 130 performs sound processing based on the results of various processes performed by the processing unit 100, generates game sounds such as BGM, sound effects, or sounds, and outputs the game sounds to the sound output unit 192.

そして本実施形態では、移動体制御部106が、指示マーカ(音符)、ボール等の移動体の制御を行う。例えば移動体のオブジェクトをオブジェクト空間内で移動させる制御を行う。また判定部110が、移動体を用いたタイミング判定処理を行う。例えばプレーヤの入力タイミングと移動体の位置等に基づいて、音楽ゲームや野球ゲームなどの各種のゲームにおけるタイミング判定処理を行う。   In this embodiment, the moving body control unit 106 controls moving bodies such as instruction markers (musical notes) and balls. For example, control is performed to move a moving object in the object space. Moreover, the determination part 110 performs the timing determination process using a moving body. For example, timing determination processing in various games such as a music game and a baseball game is performed based on the input timing of the player and the position of the moving body.

そして画像生成部120は立体視用画像を生成する。具体的には画像生成部120は、タイミング判定処理に用いられる判定基準タイミングにおいて移動体の画像の視差が所定視差になるように、移動体が表示された立体視用画像を生成する。例えば判定基準タイミングにおいて移動体の画像の視差が無くなるように、移動体が表示された立体視用画像を生成する。   Then, the image generation unit 120 generates a stereoscopic image. Specifically, the image generation unit 120 generates a stereoscopic image on which the moving body is displayed such that the parallax of the moving body image becomes a predetermined parallax at the determination reference timing used in the timing determination process. For example, the stereoscopic image on which the moving object is displayed is generated so that the parallax of the image of the moving object disappears at the determination reference timing.

ここで立体視用画像は、2眼分離眼鏡方式等を例にとれば、左眼用画像、右眼用画像である。但し立体視用画像は、2眼分離眼鏡方式の左眼用画像、右眼用画像には限定されず、裸眼方式の立体視用画像であってもかまわない。裸眼方式には、裸眼2眼式のほか、多眼方式や、空間像方式等が含まれる。空間像方式としては、例えば「フラクショナル・ビュー方式」が提案されている。   Here, the stereoscopic image is an image for the left eye and an image for the right eye, taking a two-eye separation spectacle system as an example. However, the stereoscopic image is not limited to the left-eye image and the right-eye image of the two-eye separation spectacle method, and may be a naked-eye type stereoscopic image. The naked-eye method includes a multi-eye method, an aerial image method, and the like in addition to the naked-eye binocular method. As the aerial image method, for example, the “fractional view method” has been proposed.

また判定基準タイミングは、移動体を用いたタイミング判定処理の基準となるタイミングであり、例えば判定基準フレームとして表される。   The determination reference timing is a timing that is a reference for timing determination processing using a moving object, and is represented as, for example, a determination reference frame.

また、移動体の画像の視差が所定視差になるとは、移動体の画像の視差が、予め想定されている視差になることであり、例えば所定の視差範囲内になることである。具体的には左眼用画像(広義には第1視点画像)のオブジェクトの基準スクリーン(透視投影面)での描画位置である第1描画位置と、右眼用画像(広義には第2視点画像)の対応するオブジェクトの基準スクリーンでの描画位置である第2描画位置とのずれ(差)が、所定の基準値になったり、所定の基準範囲内になることである。この所定基準値や所定基準範囲のデータは例えば記憶部170に記憶される。   In addition, the parallax of the moving body image being a predetermined parallax means that the parallax of the moving body image is a presumed parallax, for example, within a predetermined parallax range. Specifically, the first drawing position, which is the drawing position on the reference screen (perspective projection plane) of the object of the image for the left eye (first viewpoint image in a broad sense), and the image for the right eye (second viewpoint in a broad sense). The difference (difference) between the corresponding object (image) and the second drawing position, which is the drawing position on the reference screen, becomes a predetermined reference value or falls within a predetermined reference range. The data of the predetermined reference value and the predetermined reference range is stored in the storage unit 170, for example.

また移動体の画像の視差が無くなるとは、例えば移動体の画像の視差がゼロになることである。具体的には左眼用画像(第1視点画像)のオブジェクトの基準スクリーンでの第1描画位置と、右眼用画像(第2視点画像)の対応するオブジェクトの基準スクリーンでの第2描画位置が一致することである。但し、移動体の画像の視差は完全にゼロである必要はなく、視差の値が所定しきい値以下である場合でもよい。例えば左眼用画像のオブジェクトの第1描画位置と右眼用画像の対応するオブジェクトの第2描画位置のずれ(差)が所定しきい値以下(例えば1ピクセル以下)である場合でもよい。また、この場合の視差(両眼視差)は、左眼(第1視点)と右眼(第2視点)で見る像の位置の差異のことであり、両眼像差(Binocular parallax)と呼ばれるものである。   Also, the loss of parallax of the moving object image means, for example, that the parallax of the moving object image becomes zero. Specifically, the first drawing position on the reference screen of the object of the left-eye image (first viewpoint image) and the second drawing position on the reference screen of the corresponding object of the right-eye image (second viewpoint image) Is a match. However, the parallax of the image of the moving body does not have to be completely zero, and the parallax value may be a predetermined threshold value or less. For example, the deviation (difference) between the first drawing position of the object for the left eye image and the second drawing position of the corresponding object of the right eye image may be less than or equal to a predetermined threshold (for example, one pixel or less). Further, the parallax (binocular parallax) in this case is a difference in the positions of the images seen by the left eye (first viewpoint) and the right eye (second viewpoint), and is called a binocular parallax. Is.

例えば記憶部170のタイミングデータ記憶部174は、判定基準タイミングのデータを記憶する。即ち、複数の判定基準タイミングを例えば複数の判定基準フレームとして記憶する。そして判定部110は、タイミングデータ記憶部174に記憶される判定基準タイミングのデータと、プレーヤの入力タイミングとに基づいて、タイミング判定処理を行う。例えば判定基準タイミングとプレーヤの入力タイミングの比較処理を行うことで、タイミング判定処理を実現する。そして画像生成部120は、判定基準タイミングにおいて移動体の画像の視差が所定視差になるように(例えば視差が無くなるように)、移動体が表示された立体視用画像(左眼用画像、右眼用画像)を生成する。例えば指示マーカやボール等の移動体は、移動体制御部106の制御により例えばオブジェクト空間内で移動する。またプレーヤが操作部160を用いてタイミング判定のための操作を行うと、その操作の入力タイミング(操作を入力したフレーム)が取得される。そして判定部110は、プレーヤの入力タイミングと、判定基準タイミングとの一致判定処理(合致判定処理)を、タイミング判定処理として行う。この場合に画像生成部120は、指示マーカやボール等の移動体が、判定基準タイミングにおいてその画像の視差が所定視差になるように(視差が無くなるように)、立体視用画像を生成する。例えば左眼用画像での移動体のオブジェクトの第1描画位置と右眼用画像での移動体のオブジェクトの第2描画位置との差が、判定基準タイミングにおいて所定基準値や所定基準範囲内になったり、第1描画位置と第2描画位置が判定基準タイミングにおいて一致(略一致を含む)するように、左眼用画像、右眼用画像を生成する。   For example, the timing data storage unit 174 of the storage unit 170 stores determination reference timing data. That is, a plurality of determination reference timings are stored as a plurality of determination reference frames, for example. Then, the determination unit 110 performs a timing determination process based on the determination reference timing data stored in the timing data storage unit 174 and the input timing of the player. For example, the timing determination process is realized by comparing the determination reference timing with the input timing of the player. Then, the image generation unit 120 displays the stereoscopic image (left-eye image, right-side image) on which the moving body is displayed so that the parallax of the moving body image becomes a predetermined parallax at the determination reference timing (for example, the parallax is eliminated). Eye image). For example, a moving body such as an instruction marker or a ball moves in the object space, for example, under the control of the moving body control unit 106. When the player performs an operation for timing determination using the operation unit 160, the input timing of the operation (the frame in which the operation is input) is acquired. Then, the determination unit 110 performs a match determination process (match determination process) between the player input timing and the determination reference timing as the timing determination process. In this case, the image generation unit 120 generates a stereoscopic image so that the moving object such as the pointing marker or the ball has a predetermined parallax (no parallax) at the determination reference timing. For example, the difference between the first drawing position of the moving object in the left-eye image and the second drawing position of the moving object in the right-eye image is within a predetermined reference value or a predetermined reference range at the determination reference timing. The left eye image and the right eye image are generated so that the first drawing position and the second drawing position match (including substantially the same) at the determination reference timing.

また判定部110は、タイミング判定処理として、入力タイミングと判定基準タイミングとのタイミング関係に基づく評価処理を行う。例えば入力タイミングと判定基準タイミングのタイミング差(時間差、フレーム差)に基づく評価処理を行う。するとゲーム演算部102は、評価処理の結果(良い評価か悪い評価か)に基づいて、ゲーム演算処理を行う。具体的には、プレーヤのゲーム成績の演算処理、移動体の表示制御処理、及びゲーム演出処理の少なくとも1つを、評価処理の結果に基づくゲーム演算処理として行う。   Further, the determination unit 110 performs an evaluation process based on the timing relationship between the input timing and the determination reference timing as the timing determination process. For example, an evaluation process based on the timing difference (time difference, frame difference) between the input timing and the determination reference timing is performed. Then, the game calculation unit 102 performs a game calculation process based on the result of the evaluation process (whether good evaluation or bad evaluation). Specifically, at least one of the player's game result calculation process, the moving body display control process, and the game effect process is performed as a game calculation process based on the result of the evaluation process.

ここでゲーム成績の演算処理は、タイミング判定処理に基づくゲームにより獲得されたプレーヤの得点やポイントや操作評価の演算処理である。例えば入力タイミングと判定基準タイミングのタイミング差(時間差)が少ないほど、プレーヤに対して高い得点や高いポイントや高い操作評価が与えられる。また移動体の表示制御処理は、例えば入力タイミングと判定基準タイミングとに基づく判定処理後における移動体の表示制御処理である。例えば評価結果に基づいて、移動体の移動方向や移動速度や移動加速度や表示態様を変化させる処理である。またゲーム演出処理は、タイミング判定処理の結果を視覚的又は聴覚的に表現するための演出処理であり、評価結果に基づく映像効果やサウンド効果を、ゲーム演出のために発生させる処理である。   Here, the game score calculation processing is calculation processing of player scores, points, and operation evaluations acquired by the game based on the timing determination processing. For example, the smaller the timing difference (time difference) between the input timing and the determination reference timing, the higher the score, the higher points, and the higher the operation evaluation are given to the player. The moving body display control process is a moving body display control process after the determination process based on the input timing and the determination reference timing, for example. For example, it is a process of changing the moving direction, moving speed, moving acceleration, or display mode of the moving body based on the evaluation result. The game effect process is an effect process for visually or audibly expressing the result of the timing determination process, and is a process for generating a video effect or a sound effect based on the evaluation result for the game effect.

また画像生成部120は、評価処理の結果を表示する評価表示用オブジェクトの画像として、評価結果に応じて視差の度合いが変化する画像が表示された立体視用画像を生成する。例えば評価結果が第1の結果(例えば「良」)である場合には、視点側から見て基準スクリーンの手前側に見えるような視差を有する評価表示用オブジェクトを表示する。また評価結果が第2の結果(例えば「不可」)である場合には、例えば視点側から見て基準スクリーンの奥側に見えるような視差を有する評価表示用オブジェクトを表示する。また評価結果が第3の結果(例えば「可」)である場合には、例えば視差がゼロの評価表示用オブジェクトを表示する。   Further, the image generation unit 120 generates a stereoscopic image in which an image whose degree of parallax changes according to the evaluation result is displayed as an image of the evaluation display object that displays the result of the evaluation process. For example, when the evaluation result is the first result (for example, “good”), an evaluation display object having a parallax that can be seen in front of the reference screen when viewed from the viewpoint side is displayed. When the evaluation result is the second result (for example, “impossible”), for example, an evaluation display object having a parallax that can be seen on the back side of the reference screen when viewed from the viewpoint side is displayed. When the evaluation result is the third result (for example, “OK”), for example, an evaluation display object with zero parallax is displayed.

また画像生成部120は、入力タイミングと判定基準タイミングとのタイミング差に応じて、移動体の画像の視差が変化する立体視用画像を生成する。例えば入力タイミングと判定基準タイミングとのタイミング差が大きくなるにつれて、移動体の画像の視差が大きくなったり、小さくなる立体視用画像を生成する。更に具体的には画像生成部120は、入力タイミングと判定基準タイミングとのタイミング差が大きくなるほど、移動体の画像の視差が大きくなる立体視用画像を生成する。例えば入力タイミングと判定基準タイミングとのタイミング差が大きい場合には、立体視において基準スクリーンから飛び出したり引っ込んで見えるような立体視用画像を生成する。   In addition, the image generation unit 120 generates a stereoscopic image in which the parallax of the moving object image changes according to the timing difference between the input timing and the determination reference timing. For example, as the timing difference between the input timing and the determination reference timing increases, a stereoscopic image is generated in which the parallax of the moving object image increases or decreases. More specifically, the image generation unit 120 generates a stereoscopic image in which the parallax of the moving object image increases as the timing difference between the input timing and the determination reference timing increases. For example, when the timing difference between the input timing and the determination reference timing is large, a stereoscopic image that appears to protrude or retract from the reference screen in the stereoscopic view is generated.

また画像生成部120は、タイミング判定処理に用いられる判定基準タイミングにおいて移動体の画像の視差が無くなるように移動体が表示された立体視用画像を生成する。そしてタイミング判定処理においてプレーヤの入力タイミングが判定基準タイミングと合致したと判定され、プレーヤの入力が成功であると判定された場合には、ゲーム演出効果表示用オブジェクトの画像として、視差のある画像が表示された立体視用画像を生成する。例えば視差の無い画像の移動体の配置場所から、視差のある画像のゲーム演出効果表示用オブジェクトを発生させる処理などを行う。このようにすることで、移動体自身には視差が無くても、視差のあるゲーム演出効果表示用オブジェクトを用いて効果的なゲーム演出効果を実現できるようになる。   In addition, the image generation unit 120 generates a stereoscopic image in which the moving body is displayed so that the parallax of the image of the moving body is eliminated at the determination reference timing used for the timing determination process. In the timing determination process, when it is determined that the input timing of the player matches the determination reference timing and it is determined that the player input is successful, an image with parallax is displayed as the image of the game effect display object. The displayed stereoscopic image is generated. For example, processing for generating a game effect display object for an image with parallax is performed from the location of the moving object of the image without parallax. In this way, even if the moving body itself has no parallax, an effective game effect can be realized by using the game effect effect display object having the parallax.

また移動体は、例えばプレーヤが入力すべきタイミングを指示する指示マーカである。そして判定部110は、この指示マーカで指示されたタイミングでプレーヤが入力を行った場合に、プレーヤの入力タイミングと判定基準タイミングとの合致判定処理を、タイミング判定処理として行う。即ち、移動体である指示マーカは移動体制御部106の制御により移動し、この指示マーカが、プレーヤが入力すべきタイミングを指示する。そしてプレーヤが、指示されたタイミングで操作入力を行うと、その入力タイミングと判定基準タイミングとの合致判定処理(比較処理)が行われる。このようにすれば、指示マーカを用いた音楽ゲーム等のゲームを実現できるようになる。   The moving body is, for example, an instruction marker that instructs the timing to be input by the player. Then, when the player inputs at the timing instructed by the instruction marker, the determination unit 110 performs a match determination process between the player input timing and the determination reference timing as the timing determination process. That is, the instruction marker which is a moving body moves under the control of the moving body control unit 106, and this instruction marker instructs the timing to be input by the player. When the player performs an operation input at the instructed timing, a match determination process (comparison process) between the input timing and the determination reference timing is performed. In this way, a game such as a music game using the instruction marker can be realized.

この場合に画像生成部120は、指示マーカについては、判定基準タイミングにおいて視差の無い画像が表示され、プレーヤの入力が行われたことを示す入力動作表示用オブジェクトについては、視差のある画像が表示された立体視用画像を生成する。即ち、判定基準タイミングにおいて、指示マーカについては視差の無い画像が表示されている場合にも、入力動作表示用オブジェクトについては視差のある画像が表示されるようにする。このようにすること、プレーヤは、入力が適正に行われたか否かを、視差のある入力動作表示用オブジェクトにより容易に把握できるようになる。   In this case, the image generation unit 120 displays an image with no parallax at the determination reference timing for the instruction marker, and displays an image with parallax for the input action display object indicating that the player input has been performed. The generated stereoscopic image is generated. That is, at the determination reference timing, even when an image without parallax is displayed for the instruction marker, an image with parallax is displayed for the input action display object. By doing so, the player can easily grasp whether or not the input is properly performed by the input motion display object having parallax.

移動体制御部106は、視点側から見て奥側から手前側に移動体を移動させる制御を行う。例えば移動体の奥行き値が、視点側から見て奥側を示す奥行き値から、手前側を示す奥行き値に変化するように、移動体を移動させる。そして判定基準タイミングにおいては、移動体の視差が所定視差になるような画像(視差が無くなるような画像)を生成する。こうすることで、移動体を用いたタイミング判定処理として、プレーヤにとって分かりやすい判定処理を実現できる。   The moving body control unit 106 performs control to move the moving body from the back side to the near side when viewed from the viewpoint side. For example, the moving body is moved so that the depth value of the moving body changes from the depth value indicating the back side when viewed from the viewpoint side to the depth value indicating the near side. Then, at the determination reference timing, an image is generated such that the parallax of the moving body becomes a predetermined parallax (an image where the parallax disappears). By doing so, it is possible to realize a determination process that is easy for the player to understand as the timing determination process using the moving object.

なお、移動体は球技ゲームにおけるボール(ボールを表すオブジェクト)であってもよい。そして判定部110は、球技ゲームに登場するキャラクタの所持物(バット、ラケット等)又は部位(足、手、頭等)によりボールがヒットされるようなヒット判定処理を、タイミング判定処理として行う。球技ゲームとしては、例えば野球ゲーム、テニスゲーム、サッカーゲーム等の種々のゲームを想定できる。そして移動体制御部106は、判定基準タイミングにおいて、入力すべきタイミングをプレーヤに知らせるための判定基準エリアを移動体が通過するように、移動体を移動させる制御を行う。例えば移動体制御部106は、タイミングデータ記憶部174に記憶される判定基準タイミングのデータに基づいて、判定基準タイミングにおいて移動体が判定基準エリアを通過するように、移動体の移動を制御する。こうすることで、判定基準エリアの通過時に視差が所定視差になるような移動体の画像(視差がゼロになるような移動体の画像)を生成できるようになる。   The moving body may be a ball (an object representing a ball) in a ball game. Then, the determination unit 110 performs a hit determination process in which the ball is hit by the possession (bat, racket, etc.) or part (foot, hand, head, etc.) of the character appearing in the ball game as the timing determination process. As the ball game, various games such as a baseball game, a tennis game, and a soccer game can be assumed. Then, the moving body control unit 106 performs control to move the moving body so that the moving body passes through the determination reference area for informing the player of the timing to be input at the determination reference timing. For example, the moving body control unit 106 controls the movement of the moving body based on the determination reference timing data stored in the timing data storage unit 174 so that the moving body passes the determination reference area at the determination reference timing. By doing so, it is possible to generate a moving body image (a moving body image where the parallax is zero) such that the parallax becomes a predetermined parallax when passing through the determination reference area.

なお、タイミングデータ記憶部174に、判定基準タイミングのデータと、表示基準タイミングのデータの両方を記憶してもよい。そしてプレーヤの入力タイミングについてのタイミング判定処理については、判定基準タイミングのデータを用いて行い、移動体の移動制御処理については、表示基準タイミングのデータを用いて行う。この場合に、判定基準タイミングと表示基準タイミングは、そのタイミングが同期するようなデータとなっており、このように同期したデータを用いることで、判定基準エリアの通過時に視差が所定視差になるような移動体の画像(視差がゼロになるような移動体の画像)を生成できるようになる。   The timing data storage unit 174 may store both the determination reference timing data and the display reference timing data. The timing determination process for the input timing of the player is performed using the determination reference timing data, and the movement control process for the moving body is performed using the display reference timing data. In this case, the determination reference timing and the display reference timing are data in which the timings are synchronized. By using such synchronized data, the parallax becomes a predetermined parallax when passing through the determination reference area. It is possible to generate an image of a moving body (moving body image with parallax being zero).

また画像生成部120は、判定基準エリアに対応する位置に設定された基準スクリーンに対して移動体のオブジェクトを透視投影して描画することで、判定基準タイミングにおいて移動体の画像の視差が無くなる立体視用画像を生成する。具体的には、基準スクリーンに対して移動体のオブジェクトを、左眼用仮想カメラの視点で透視投影して描画することで、左眼用画像を生成する。また基準スクリーンに対して移動体のオブジェクトを、右眼用仮想カメラの視点で透視投影して描画することで、右眼用画像を生成する。   In addition, the image generation unit 120 performs perspective projection of a moving object on a reference screen set at a position corresponding to the determination reference area and draws it, thereby eliminating the parallax of the moving object image at the determination reference timing. A visual image is generated. Specifically, a left-eye image is generated by perspectively drawing a moving object on the reference screen from the viewpoint of the left-eye virtual camera. Further, a right-eye image is generated by perspectively projecting and drawing a moving object on the reference screen from the viewpoint of the right-eye virtual camera.

例えば2眼分離眼鏡方式の場合には、画像生成部120は、左眼用画像生成部(広義には第1視点画像生成部)122、右眼用画像生成部(広義には第2視点画像生成部)124を含む。そして左眼用画像生成部122が、左眼用仮想カメラの視点(第1の視点)での画像である左眼用画像(第1視点画像)を生成する。また右眼用画像生成部124が、右眼用仮想カメラの視点(第2の視点)での画像である右眼用画像(第2視点画像)を生成する。   For example, in the case of the two-eye separation spectacle method, the image generation unit 120 includes a left-eye image generation unit (first viewpoint image generation unit in a broad sense) 122 and a right-eye image generation unit (second viewpoint image in a broad sense). Generating section) 124. Then, the left-eye image generation unit 122 generates a left-eye image (first viewpoint image) that is an image at the viewpoint (first viewpoint) of the left-eye virtual camera. The right-eye image generation unit 124 generates a right-eye image (second viewpoint image) that is an image at the viewpoint (second viewpoint) of the right-eye virtual camera.

なお仮想カメラ制御部108は、例えば左眼用、右眼用仮想カメラを設定するための基準となる基準仮想カメラの制御を行う。そして、得られた基準仮想カメラの位置情報、方向情報と、設定されたカメラ間距離の情報に基づいて、左眼用、右眼用仮想カメラの位置情報(視点位置)、方向情報(視線方向)を求める。なお仮想カメラ制御部108が、左眼用、右眼用仮想カメラを直接制御するようにしてもよい。   Note that the virtual camera control unit 108 controls a reference virtual camera serving as a reference for setting, for example, left-eye and right-eye virtual cameras. Then, based on the obtained position information and direction information of the reference virtual camera and information on the set inter-camera distance, position information (viewpoint position) and direction information (line-of-sight direction) of the left-eye and right-eye virtual cameras ) Note that the virtual camera control unit 108 may directly control the left-eye and right-eye virtual cameras.

また立体方式としては、2眼分離眼鏡方式や、パララックスバリアやレンチキュラや、その他、光線の方向を制御することができる光学素子を用いた裸眼方式などの様々な方式を想定できる。2眼分離眼鏡方式としては、例えば偏光眼鏡方式、継時分離方式、色分離方式などがある。偏光眼鏡方式では、例えば表示部190の奇数ラインと偶数ラインに左眼用画像と右眼用画像を交互に表示し、これを偏光眼鏡(例えば左眼に水平方向の偏光フィルタ、右眼に垂直方向の偏光フィルタを付けた眼鏡)で見ることで立体視を実現する。或いは左眼用画像と右眼用画像を特殊な偏光フィルタを有するプロジェクタで投影し、投影画像を偏光眼鏡で見ることで立体視を実現してもよい。また継時分離方式(ページ・フリップ方式)では、表示部190に左眼用画像、右眼用画像を所定期間毎(例えば1/120秒毎、1/60秒毎)に交互に表示する。そして、この表示の切り替えに連動して液晶シャッター付きの眼鏡の左眼、右眼の液晶シャッターを交互に開閉することで、立体視を実現する。色分離方式では、例えばアナグリフ画像を生成し、赤青眼鏡等で見ることで、立体視を実現する。   As a stereoscopic method, various methods such as a two-eye separation spectacle method, a parallax barrier, a lenticular, and a naked eye method using an optical element capable of controlling the direction of light can be assumed. Examples of the binocular separation glasses method include a polarization glasses method, a time separation method, and a color separation method. In the polarized glasses method, for example, the left-eye image and the right-eye image are alternately displayed on the odd-numbered and even-numbered lines of the display unit 190, and this is displayed on the polarized glasses (for example, the horizontal polarization filter for the left eye and the vertical for the right eye). Stereoscopic viewing is realized by viewing with a pair of spectacles with a directional polarizing filter. Alternatively, the stereoscopic image may be realized by projecting the image for the left eye and the image for the right eye with a projector having a special polarization filter and viewing the projection image with polarized glasses. In the continuous separation method (page-flip method), the left-eye image and the right-eye image are alternately displayed on the display unit 190 every predetermined period (for example, every 1/120 second or 1/60 second). In conjunction with the switching of the display, the left and right liquid crystal shutters of the glasses with the liquid crystal shutter are alternately opened and closed to realize stereoscopic viewing. In the color separation method, for example, an anaglyph image is generated and viewed with red-blue glasses or the like to realize stereoscopic viewing.

また左眼用画像と右眼用画像から立体用視画像を生成する機能は、画像生成部120に持たせてもよいし、表示部190(テレビ等)に持たせてもよい。例えば画像生成部120が、サイドバイサイド方式の画像信号を出力する。すると表示部190が、このサイドバイサイドの画像信号に基づいて、奇数ラインと偶数ラインに左眼用画像と右眼用画像が交互に割り当てられるフィールドシーケンシャル方式の画像を表示する。或いは、左眼用画像と右眼用画像が所定期間毎に交互に切り替えられるフレームシーケンシャル方式の画像を表示する。或いは画像生成部120の方が、フィールドシーケンシャル方式やフレームシーケンシャル方式の画像を生成して、表示部190に出力するようにしてもよい。   In addition, the function of generating a stereoscopic image from the left-eye image and the right-eye image may be provided in the image generation unit 120 or may be provided in the display unit 190 (such as a television). For example, the image generation unit 120 outputs a side-by-side image signal. Then, the display unit 190 displays a field sequential image in which left-eye images and right-eye images are alternately assigned to odd lines and even lines based on the side-by-side image signal. Alternatively, a frame sequential image in which the left-eye image and the right-eye image are alternately switched every predetermined period is displayed. Alternatively, the image generation unit 120 may generate a field sequential method or frame sequential method image and output the generated image to the display unit 190.

また画像生成部120は、判定基準タイミングにおいて移動体の色、形状及びサイズの少なくとも1つが変化する立体視用画像を生成してもよい。例えば移動体の色、形状又はサイズを、判定基準タイミング(ジャストタイミング)においては、判定基準タイミング以外のタイミングとは異なった色、形状又はサイズに設定する。このようにすることで、判定基準タイミングでの移動体の視認性が高くなり、プレーヤがタイミングを把握しやすいタイミング判定処理を実現できる。   Further, the image generation unit 120 may generate a stereoscopic image in which at least one of the color, shape, and size of the moving object changes at the determination reference timing. For example, the color, shape, or size of the moving body is set to a color, shape, or size that is different from the timing other than the determination reference timing at the determination reference timing (just timing). By doing so, the visibility of the moving object at the determination reference timing is increased, and a timing determination process in which the player can easily grasp the timing can be realized.

またゲーム音や効果音等の音を生成する音生成部130は、移動体の視差に応じて、音像定位が変化する音を生成してもよい。即ち移動体の立体視の度合いに応じて、音出力部192から出力される音の音像定位を変化させる。例えば移動体が画面から飛び出して見えるような視差(立体視用画像)の場合には、音の音像定位を画面よりも手前側(プレーヤ側)の位置に設定する。一方、移動体が画面の奥側に引っ込むような視差の場合には、音の音像定位を画面よりも奥側の位置に設定する。このようにすることで、立体視用画像における移動体の立体感と、音の音像定位による立体感とが連動するようになり、プレーヤが感じる立体感を向上できる。   The sound generation unit 130 that generates sound such as game sound or sound effect may generate sound whose sound image localization changes according to the parallax of the moving body. That is, the sound image localization of the sound output from the sound output unit 192 is changed according to the degree of stereoscopic vision of the moving body. For example, in the case of parallax (stereoscopic image) where the moving body appears to jump out of the screen, the sound image localization of the sound is set to a position on the near side (player side) of the screen. On the other hand, in the case of parallax such that the moving body retracts to the back side of the screen, the sound image localization of the sound is set to a position on the back side of the screen. By doing so, the stereoscopic effect of the moving object in the stereoscopic image and the stereoscopic effect due to the sound image localization of the sound are linked, and the stereoscopic effect felt by the player can be improved.

また判定部110は、仮想表示物と、現実空間の被ヒット体とのヒット判定処理を行ってもよい。そして例えばゲーム演算部102が、このヒット判定処理の結果に基づいて、プレーヤの得点やポイント等のゲーム結果を演算するゲーム演算処理を行う。ここで、仮想表示物は、例えば移動体又はタイミング判定処理用の操作対象物に対応する仮想的な表示物であって、立体視用画像に基づき表示部190の表示画面側空間等に仮想表示されるものである。タイミング判定処理用の操作対象物とは、移動体を用いたタイミング判定処理において、プレーヤの操作対象となる表示物である。また被ヒット体は、現実空間の物体である。更に具体的には、判定部110は、仮想表示物と、プレーヤの部位(指、手等)やポインティングデバイス等の被ヒット体とのヒット判定処理を、プレーヤ(プレーヤの部位やポインティングデバイス)を撮影する撮像部(カメラ)からの撮像情報に基づいて行う。こうすることで、撮像部を利用した簡易な処理で、仮想表示物と被ヒット体とのヒット判定処理を実現できる。なお、撮像部の撮像センサとは異なるセンサ(人感センサ、光センサ、赤外線センサ等)からのセンサ情報に基づいて、仮想表示物と被ヒット体とのヒット判定処理を行ってもよい。   The determination unit 110 may perform a hit determination process between the virtual display object and the hit object in the real space. Then, for example, the game calculation unit 102 performs a game calculation process for calculating a game result such as a player's score or points based on the result of the hit determination process. Here, the virtual display object is a virtual display object corresponding to, for example, a moving object or an operation target object for timing determination processing, and is virtually displayed on the display screen side space of the display unit 190 based on the stereoscopic image. It is what is done. The operation target for the timing determination process is a display object that is the operation target of the player in the timing determination process using the moving body. The hit object is a physical object. More specifically, the determination unit 110 performs a hit determination process between the virtual display object and a hit object such as a player's part (finger, hand, etc.) or a pointing device, and the player (player's part or pointing device). This is performed based on imaging information from an imaging unit (camera) that performs imaging. By doing so, hit determination processing between the virtual display object and the hit object can be realized by simple processing using the imaging unit. In addition, you may perform the hit determination process of a virtual display thing and a to-be-hit object based on the sensor information from sensors (human sensor, an optical sensor, an infrared sensor, etc.) different from the imaging sensor of an imaging part.

なお本実施形態の画像生成システムはサーバシステムにより実現してもよい。図24にサーバシステムにより実現する場合の構成例を示す。   Note that the image generation system of the present embodiment may be realized by a server system. FIG. 24 shows a configuration example in the case of being realized by a server system.

サーバシステム500は、端末装置TM1〜TMnとネットワーク510を介して通信接続される。例えばサーバシステム500はホストであり、端末装置TM1〜TMnはクライアントである。サーバシステム500は例えば1又は複数のサーバ(認証サーバ、ゲームサーバ、通信サーバ、課金サーバ等)により実現できる。ネットワーク510(配信網、通信回線)は、例えばインターネットや無線LAN等を利用した通信路であり、直接接続のための専用線(専用ケーブル)やイーサネット(登録商標)等によるLANの他、電話通信網やケーブル網や無線LAN等の通信網を含むことができる。また通信方法については有線/無線を問わない。   Server system 500 is communicatively connected to terminal apparatuses TM1 to TMn via network 510. For example, the server system 500 is a host, and the terminal devices TM1 to TMn are clients. The server system 500 can be realized by, for example, one or a plurality of servers (authentication server, game server, communication server, billing server, etc.). The network 510 (distribution network, communication line) is a communication path using, for example, the Internet or a wireless LAN. In addition to a LAN using a dedicated line (dedicated cable) or Ethernet (registered trademark) for direct connection, telephone communication is also possible. A communication network such as a network, a cable network, or a wireless LAN can be included. The communication method may be wired / wireless.

端末装置TM1〜TMnは、例えば携帯型ゲーム装置、据え置き型の家庭用ゲーム装置、或いは業務用ゲーム装置等により実現される。携帯型ゲーム装置は専用のゲーム装置であってもよいし、携帯電話機や携帯型情報端末などのゲームプログラムの実行が可能な汎用の装置であってもよい。   The terminal devices TM1 to TMn are realized by, for example, a portable game device, a stationary home game device, an arcade game device, or the like. The portable game device may be a dedicated game device or a general-purpose device capable of executing a game program such as a mobile phone or a portable information terminal.

サーバシステム500は、処理部600、記憶部670、情報記憶媒体680、通信部696を含む。処理部600は、ゲーム演算部602、オブジェクト空間設定部604、移動体制御部606、仮想カメラ制御部608、判定部610、画像生成用データ生成部620、音生成用データ生成部630を含む。なおこれらの各部(各ブロック)の機能、動作等は、図1の各部(各ブロック)と同様である。   The server system 500 includes a processing unit 600, a storage unit 670, an information storage medium 680, and a communication unit 696. The processing unit 600 includes a game calculation unit 602, an object space setting unit 604, a moving body control unit 606, a virtual camera control unit 608, a determination unit 610, an image generation data generation unit 620, and a sound generation data generation unit 630. The functions, operations, etc. of these units (blocks) are the same as those of the units (blocks) in FIG.

例えばサーバシステム500の移動体制御部606は、移動体の制御を行い、判定部610は、移動体を用いたタイミング判定処理を行う。そして画像生成用データ生成部620は、立体視用画像を生成するための画像生成用データデータを生成する。また音生成用データ生成部630は、音を生成するための音生成用データを生成する。   For example, the moving body control unit 606 of the server system 500 controls the moving body, and the determination unit 610 performs timing determination processing using the moving body. Then, the image generation data generation unit 620 generates image generation data data for generating a stereoscopic image. The sound generation data generation unit 630 generates sound generation data for generating a sound.

そして本実施形態では画像生成用データ生成部620は、タイミング判定処理に用いられる判定基準タイミングにおいて移動体の画像の視差が所定視差になるように(例えば視差が無くなるように)、移動体が表示された立体視用画像を生成するための画像生成用データを生成する。   In this embodiment, the image generation data generation unit 620 displays the moving object so that the parallax of the image of the moving object becomes a predetermined parallax at the determination reference timing used in the timing determination process (for example, the parallax disappears). Image generation data for generating the stereoscopic image thus generated is generated.

ここで、画像を生成するための画像生成用データとは、本実施形態の手法により生成された画像をTM1〜TMnの各端末装置において表示するためのデータであり、画像データそのものであってもよいし、各端末装置が画像を生成するために使用する各種データ(オブジェクトデータ、制御結果データ、判定結果データ又は表示画面の設定データ等)であってもよい。例えばサーバシステム500が、各端末装置の操作部からの操作情報を取得し、各種の制御処理や各種の判定処理を行い、画像を生成して、TM1〜TMnの各端末装置に配信(ストリーム配信等)する場合には、上述の画像生成用データは画像データそのものになる。一方、サーバシステム500が、各端末装置の操作部からの操作情報を取得し、各種の制御処理や各種の判定処理を行い、その制御結果や判定結果に基づいてTM1〜TMnの各端末装置が画像を生成する場合には、上述の画像生成用データは、制御結果データや判定結果データやオブジェクトデータなどになる。音生成用データ生成部630が生成する音生成用データについても同様である。   Here, the image generation data for generating the image is data for displaying the image generated by the method of the present embodiment on each of the terminal devices TM1 to TMn, and even the image data itself. It may be various data (object data, control result data, determination result data, display screen setting data, etc.) used by each terminal device to generate an image. For example, the server system 500 acquires operation information from the operation unit of each terminal device, performs various control processes and various determination processes, generates images, and distributes them to the terminal devices TM1 to TMn (stream distribution) Etc.), the image generation data described above is the image data itself. On the other hand, the server system 500 acquires operation information from the operation unit of each terminal device, performs various control processes and various determination processes, and the terminal devices TM1 to TMn are based on the control results and determination results. When an image is generated, the above-described image generation data is control result data, determination result data, object data, or the like. The same applies to the sound generation data generated by the sound generation data generation unit 630.

なおゲーム演算部602、オブジェクト空間設定部604、移動体制御部606、仮想カメラ制御部608、判定部610、画像生成用データ生成部620、記憶部670、情報記憶媒体680、通信部696等の詳細な機能、動作は図1で上述に説明したものと同様であるため、詳細な説明は省略する。   It should be noted that the game calculation unit 602, the object space setting unit 604, the moving body control unit 606, the virtual camera control unit 608, the determination unit 610, the image generation data generation unit 620, the storage unit 670, the information storage medium 680, the communication unit 696, etc. Detailed functions and operations are the same as those described above with reference to FIG.

2.本実施形態の手法
次に本実施形態の手法について具体的に説明する。
2. Next, the method of this embodiment will be described in detail.

2.1 判定基準タイミングを用いたタイミング判定処理
まず、本実施形態の手法について説明する前に、立体視におけるビューボリュームの設定について説明する。図2に示すように、立体視用画像を生成するためには、所与のカメラ間距離だけ離れた位置に設定される左眼用仮想カメラVCLと右眼用仮想カメラVCRを用いる。
2.1 Timing Determination Processing Using Determination Reference Timing First, view volume setting in stereoscopic viewing will be described before describing the method of the present embodiment. As shown in FIG. 2, in order to generate a stereoscopic image, a left-eye virtual camera VCL and a right-eye virtual camera VCR that are set at positions separated by a given inter-camera distance are used.

そして左眼用仮想カメラVCLに対応して左眼用ビューボリュームVVL(左眼用視錐台)が設定され、右眼用仮想カメラVCRに対応して右眼用ビューボリュームVVR(右眼用視錐台)が設定される。具体的には左眼用、右眼用仮想カメラVCL、VCRの位置や方向に基づいて、左眼用、右眼用ビューボリュームVVL、VVRの位置や方向が設定される。   Then, a left-eye view volume VVL (left-eye view frustum) is set corresponding to the left-eye virtual camera VCL, and a right-eye view volume VVR (right-eye view) corresponding to the right-eye virtual camera VCR. Frustum) is set. Specifically, the positions and directions of the left-eye and right-eye view volumes VVL and VVR are set based on the positions and directions of the left-eye and right-eye virtual cameras VCL and VCR.

この場合に左眼用仮想カメラVCLから見える画像である左眼用画像は、左眼用ビューボリュームVVL内に存在するオブジェクトをスクリーンSC(基準スクリーン)に透視投影して描画することで生成される。同様に右眼用仮想カメラVCRから見える画像である右眼用画像は、右眼用ビューボリュームVVR内に存在するオブジェクトをスクリーンSCに透視投影して描画することで生成される。   In this case, the left-eye image, which is an image that can be seen from the left-eye virtual camera VCL, is generated by perspectively projecting an object that exists in the left-eye view volume VVL onto the screen SC (reference screen). . Similarly, an image for the right eye, which is an image that can be viewed from the virtual camera for right eye VCR, is generated by perspectively projecting an object existing in the right-eye view volume VVR onto the screen SC and drawing it.

この場合、スクリーンSCに透視投影されない位置にあるオブジェクトは、描画対象にはならないため、これらのオブジェクトに対して透視投影変換処理を行うと、処理の無駄となる。このため、各左眼用、右眼用仮想カメラにおいてスクリーンSCに透視投影されない位置にあるオブジェクトがビューボリューム内に入らないように、図2に示すように左眼用、右眼用ビューボリュームVVL、VVRが設定される。なお図2において、CNL、CFLは、各々、左眼用ビューボリュームVVLの前方クリッピング面、後方クリッピング面であり、CNR、CFRは、各々、右眼用ビューボリュームVVRの前方クリッピング面、後方クリッピング面である。   In this case, since objects at positions that are not perspective-projected on the screen SC are not drawn, if perspective projection conversion processing is performed on these objects, processing is wasted. Therefore, as shown in FIG. 2, the left-eye and right-eye view volumes VVL are provided so that objects at positions that are not perspective-projected on the screen SC in the left-eye and right-eye virtual cameras do not enter the view volume. , VVR is set. In FIG. 2, CNL and CFL are the front clipping plane and the rear clipping plane of the left eye view volume VVL, respectively. CNR and CFR are the front clipping plane and the rear clipping plane of the right eye view volume VVR, respectively. It is.

以上のように左眼用画像、右眼用画像を生成して立体視を実現する手法では、左眼用画像と右眼用画像の視差により奥行き感を認識させている。   As described above, in the method of generating the left-eye image and the right-eye image to realize stereoscopic viewing, the sense of depth is recognized by the parallax between the left-eye image and the right-eye image.

例えば図2において、スクリーンSC上の点Aに位置するオブジェクトについての、左眼用画像での描画位置ALと、右眼用画像での描画位置ARは同じ位置になる。   For example, in FIG. 2, the drawing position AL in the left-eye image and the drawing position AR in the right-eye image for the object located at the point A on the screen SC are the same position.

これに対して、点Bに位置するオブジェクトは、左眼用画像では点BLの位置に描画され、右眼用画像では点BRの位置に描画される。そして、このように左眼用画像、右眼用画像の描画位置にズレを持たせることで、点Bに位置するオブジェクトが、画面からユーザの方に飛び出して見える立体視表現を実現できる。   On the other hand, the object located at the point B is drawn at the position of the point BL in the image for the left eye, and is drawn at the position of the point BR in the image for the right eye. Then, by providing a shift in the drawing positions of the left-eye image and the right-eye image in this way, it is possible to realize a stereoscopic expression in which the object located at the point B appears to jump out of the screen toward the user.

さて、このような立体視システムにおいて音楽ゲームや野球ゲームなどのタイミング判定処理を行った場合に、何ら工夫を施さないと、プレーヤのタイミングの取り方が難しくなるおそれがあることが判明した。   Now, when timing determination processing such as a music game or a baseball game is performed in such a stereoscopic vision system, it has been found that it is difficult to determine the timing of the player unless any measures are taken.

そこで本実施形態では、音楽ゲームにおける指示マーカ(音符)や野球ゲームにおけるボールなどの移動体を用いてタイミング判定を行う場合に、タイミング判定の判定基準タイミングにおいて移動体の画像の視差が所定視差になるように立体視用画像を生成する手法を採用している。例えば判定基準タイミングにおいて移動体の画像の視差が無くなるように立体視用画像を生成する。このようにすることで、例えば判定基準タイミングを境にして移動体が飛び出たり引っ込む立体視用画像などが生成され、この移動体を用いた判定処理が行われるようになる。従って、例えば判定基準タイミングがベストなタイミングになるようなタイミング判定を実現することができ、立体視システムにおける適切なタイミング判定処理を実現できる。   Therefore, in this embodiment, when the timing determination is performed using a moving object such as an instruction marker (musical note) in a music game or a ball in a baseball game, the parallax of the image of the moving object becomes a predetermined parallax at the determination reference timing of the timing determination. Thus, a technique for generating a stereoscopic image is employed. For example, the stereoscopic image is generated so that the parallax of the image of the moving object disappears at the determination reference timing. By doing in this way, for example, a stereoscopic image or the like in which the mobile body pops out or retracts at the determination reference timing is generated, and determination processing using this mobile body is performed. Therefore, for example, it is possible to realize timing determination such that the determination reference timing is the best timing, and it is possible to realize appropriate timing determination processing in the stereoscopic system.

例えば図3(A)では、指示マーカ等の移動体MOB1、MOB2、MOB3が移動している。具体的には、例えばオブジェクト空間内において視点側(仮想カメラ側)から見て奥側から手前側に移動体MOB1〜MOB3が移動する。この場合に、移動体MOB1〜MOB3の画像は所定視差とは異なる視差の画像になっている。例えば移動体MOB1〜MOB3の画像は視差のある画像になっている。具体的には、例えば基準スクリーン(透視投影面)に対して奥側に移動体MOB1〜MOB3が引っ込んだように見える立体視用画像が生成される。   For example, in FIG. 3A, moving bodies MOB1, MOB2, and MOB3 such as instruction markers are moving. Specifically, for example, the moving bodies MOB1 to MOB3 move from the back side to the near side when viewed from the viewpoint side (virtual camera side) in the object space. In this case, the images of the mobile bodies MOB1 to MOB3 are parallax images different from the predetermined parallax. For example, the images of the mobile bodies MOB1 to MOB3 are images with parallax. Specifically, for example, a stereoscopic image that appears as if the moving bodies MOB1 to MOB3 are retracted on the back side with respect to the reference screen (perspective projection surface) is generated.

図3(B)では、判定基準タイミングTMB1において移動体MOB1の画像の視差が所定視差になるように、立体視用画像が生成される。例えば移動体MOB1の画像の視差が無くなるように、立体視用画像が生成される。この時、移動体MOB2、MOB3については、所定視差とは異なる視差の画像になっている。例えば視差のある画像になっている。   In FIG. 3B, the stereoscopic image is generated so that the parallax of the image of the moving body MOB1 becomes a predetermined parallax at the determination reference timing TMB1. For example, the stereoscopic image is generated so that the parallax of the image of the moving body MOB1 is eliminated. At this time, the mobile bodies MOB2 and MOB3 are parallax images different from the predetermined parallax. For example, the image has parallax.

その後、移動体MOB1〜MOB3は移動を続け、図3(C)に示すように、判定基準タイミングTMB2では、今度は移動体MOB2の画像の視差が所定視差になるように、立体視用画像が生成される。例えば移動体MOB2の画像の視差が無くなるように立体視用画像が生成される。この時、移動体MOB1、MOB3については所定視差とは異なる視差となっている。例えば視差のある画像になっている。具体的には、例えば移動体MOB1については基準スクリーンに対して手前側に飛び出して見え、移動体MOB3については基準スクリーンに対して奧側に引っ込んで見える立体視用画像が生成される。   Thereafter, the mobile bodies MOB1 to MOB3 continue to move, and as shown in FIG. 3C, at the determination reference timing TMB2, the stereoscopic image is now displayed so that the parallax of the image of the mobile body MOB2 becomes a predetermined parallax. Generated. For example, the stereoscopic image is generated so that the parallax of the image of the mobile object MOB2 is eliminated. At this time, the mobile bodies MOB1 and MOB3 have a parallax different from the predetermined parallax. For example, the image has parallax. Specifically, for example, a stereoscopic image that appears to pop out toward the near side with respect to the reference screen for the moving body MOB1 and that appears to retract toward the heel side with respect to the reference screen is generated for the moving body MOB3.

そしてプレーヤは、図3(B)の判定基準タイミングTMB1と入力タイミングとが一致するように、ゲームの操作入力を行う。音楽ゲームを例にとれば、移動体MOB1〜MOB3は、プレーヤの操作入力を指示する指示マーカとなる。プレーヤは、指示マーカとなる移動体MOB1により指示される操作入力を、判定基準タイミングTMB1において行う。この際、移動体MOB1は、判定基準タイミングTMB1において所定視差の画像(例えば視差の無い画像)になる。   Then, the player inputs a game operation so that the determination reference timing TMB1 in FIG. 3B matches the input timing. Taking a music game as an example, the mobile bodies MOB1 to MOB3 serve as instruction markers for instructing the player's operation input. The player performs an operation input instructed by the moving body MOB1 serving as an instruction marker at the determination reference timing TMB1. At this time, the moving body MOB1 becomes an image having a predetermined parallax (for example, an image having no parallax) at the determination reference timing TMB1.

またプレーヤは、図3(C)の判定基準タイミングTMB2と入力タイミングとが一致するように、ゲームの操作入力を行う。音楽ゲームを例にとれば、プレーヤは、指示マーカとなる移動体MOB2により指示される操作入力を、判定基準タイミングTMB2において行う。この際、移動体MOB2は、判定基準タイミングTMB2において所定視差の画像(例えば視差の無い画像)になる。   In addition, the player inputs a game operation so that the determination reference timing TMB2 in FIG. 3C matches the input timing. Taking a music game as an example, the player performs an operation input instructed by the moving body MOB2 serving as an instruction marker at the determination reference timing TMB2. At this time, the mobile unit MOB2 becomes an image with a predetermined parallax (for example, an image without parallax) at the determination reference timing TMB2.

このようにすれば、プレーヤは、移動体MOB1、MOB2の画像が所定視差の状態(視差の無い状態)になる判定基準タイミングTMB1、TMB2に合わせて、操作入力を行うことが可能になる。従って、操作入力のジャストのタイミングが、所定視差の移動体MOB1、MOB2の画像が表示された状態になるため、プレーヤの操作入力を容易化できる。即ち、例えば所定視差の状態が視差の無い状態である場合には、判定基準タイミングTMB1、TMB2は、立体視において移動体が飛び出して見えるか引っ込んで見えるかの境目のタイミングになる。従って、この判定基準タイミングを、タイミング判定のジャストのタイミングに設定することで、プレーヤの操作入力が容易化される。音楽ゲームを例にとれば、判定基準タイミングTMB1、TMB2では移動体MOB1、MOB2は視差の無い画像になり、プレーヤは、移動体MOB1、MOB2が視差が無くなるタイミングに合わせて、指示された操作入力を行う。従って、プレーヤにとってタイミングのとりやすい音楽ゲームを実現できる。なお、入力タイミングは、プレーヤが操作部160を実際に操作するタイミングには限定されず、プレーヤが操作部160を操作することで、タイミング判定処理においてプレーヤの入力タイミングであると見なされるタイミングであってもよい。楽器を演奏する音楽ゲームを例にとれば、プレーヤが操作部160を操作することにより楽器が演奏される場合に、実際に楽器から音が出るタイミング等を、プレーヤの入力タイミングとしてもよい。   In this way, the player can perform an operation input in accordance with the determination reference timings TMB1 and TMB2 at which the images of the mobile bodies MOB1 and MOB2 are in a predetermined parallax state (a state without parallax). Therefore, the operation input just timing is in a state in which the images of the mobile bodies MOB1 and MOB2 having a predetermined parallax are displayed, so that the operation input of the player can be facilitated. That is, for example, when the predetermined parallax state is a state without parallax, the determination reference timings TMB1 and TMB2 are timings at which the moving body appears to pop out or retract in stereoscopic view. Therefore, the operation input by the player is facilitated by setting the determination reference timing to a timing determination just timing. Taking a music game as an example, at the determination reference timings TMB1 and TMB2, the moving bodies MOB1 and MOB2 become images having no parallax, and the player inputs the operation input instructed at the timing when the moving bodies MOB1 and MOB2 have no parallax. I do. Therefore, it is possible to realize a music game that is easy for the player to take timing. Note that the input timing is not limited to the timing at which the player actually operates the operation unit 160, but is the timing at which the player operates the operation unit 160 and is considered to be the input timing of the player in the timing determination process. May be. Taking a music game for playing an instrument as an example, when the instrument is played by operating the operation unit 160 by the player, the timing at which sound is actually output from the instrument may be used as the input timing of the player.

図4(A)、図4(B)は、立体視における画像の視差について説明する図である。図4(A)に示すように視差のある画像では、左眼用画像でのオブジェクトMOBLの描画位置と、右眼用画像でのオブジェクトMOBRの描画位置がずれている。例えば図2の点Bの位置にあるオブジェクトは、左眼用画像ではスクリーンSCの点BLの位置に描画され、右眼用画像ではスクリーンSC上の点BRの位置に描画されるからである。   4A and 4B are diagrams for describing parallax of an image in stereoscopic view. As shown in FIG. 4A, in the image with parallax, the drawing position of the object MOBL in the left-eye image is different from the drawing position of the object MOBR in the right-eye image. For example, the object at the position of the point B in FIG. 2 is drawn at the position of the point BL on the screen SC in the image for the left eye, and is drawn at the position of the point BR on the screen SC in the image for the right eye.

一方、図4(B)に示すように視差の無い画像では、左眼用画像でのオブジェクトMOBLの描画位置と、右眼用画像でのオブジェクトMOBRの描画位置は一致している。例えば図2の点Aの位置にあるオブジェクトは、左眼用画像でも右眼用画像でもスクリーンSC上の点Aの位置に描画されるからである。   On the other hand, as shown in FIG. 4B, in the image without parallax, the drawing position of the object MOBL in the left-eye image and the drawing position of the object MOBR in the right-eye image are the same. For example, the object at the position of the point A in FIG. 2 is drawn at the position of the point A on the screen SC in both the left-eye image and the right-eye image.

図5は、タイミングデータについて説明する図である。例えば図1のタイミングデータ記憶部174は、判定基準タイミングTMB1〜TMB5のデータを記憶する。これらの判定基準タイミングTMB1〜TMB5のデータはタイミングデータ記憶部174に記憶される。   FIG. 5 is a diagram for explaining timing data. For example, the timing data storage unit 174 in FIG. 1 stores data of the determination reference timings TMB1 to TMB5. Data of these determination reference timings TMB1 to TMB5 is stored in the timing data storage unit 174.

そして図5に示すように、移動体MOB1は判定基準タイミングTMB1において画像の視差が所定視差になるように制御される(視差が無くなるように制御される)。同様に、移動体MOB2〜MOB5は判定基準タイミングTMB2〜TMB5において画像の視差が所定視差になるように制御される(視差が無くなるように制御される)。具体的には、移動体MOB1は、判定基準タイミングTMB1において判定基準エリアを通過するように制御される。同様に移動体MOB2〜MOB5は、判定基準タイミングTMB2〜TMB5において判定基準エリアを通過するように制御される。   Then, as shown in FIG. 5, the mobile unit MOB1 is controlled so that the parallax of the image becomes a predetermined parallax at the determination reference timing TMB1 (the parallax is controlled so that the parallax is eliminated). Similarly, the mobile bodies MOB2 to MOB5 are controlled so that the parallax of the image becomes a predetermined parallax at the determination reference timings TMB2 to TMB5 (the parallax is controlled so that the parallax is eliminated). Specifically, the mobile unit MOB1 is controlled to pass through the determination reference area at the determination reference timing TMB1. Similarly, the mobile units MOB2 to MOB5 are controlled to pass through the determination reference area at the determination reference timings TMB2 to TMB5.

ここで判定基準エリアは、入力すべきタイミングをプレーヤに知らせるためのエリアである。判定基準エリアは、2次元図形のエリアであってもよいし、3次元図形のエリアであってもよい。或いは判定基準エリアは、判定基準となる位置であってもよい。   Here, the determination reference area is an area for notifying the player of the timing to be input. The determination reference area may be a two-dimensional graphic area or a three-dimensional graphic area. Alternatively, the determination reference area may be a position serving as a determination reference.

例えば、MOB1〜MOB5の各移動体は、タイミングデータ記憶部174に記憶されるタイミングデータに基づいて制御される。即ち、TMB1〜TMB5の各判定基準タイミングにおいて、MOB1〜MOB5の各移動体が判定基準エリアを通過するように制御される。そしてMOB1〜MOB5の各移動体は、判定基準エリアを通過する際に、その画像の視差が所定視差になるように(視差が無くなるように)、立体視用画像が生成される。これにより、TMB1〜TMB5の各判定基準タイミングにおいて、MOB1〜MOB5の各移動体の視差が所定視差になる画像(視差が無くなる画像)が生成されるようになる。   For example, each of the mobile bodies MOB1 to MOB5 is controlled based on timing data stored in the timing data storage unit 174. That is, at each determination reference timing of TMB1 to TMB5, each mobile body of MOB1 to MOB5 is controlled to pass through the determination reference area. When each of the mobile bodies MOB1 to MOB5 passes through the determination reference area, a stereoscopic image is generated so that the parallax of the image becomes a predetermined parallax (no parallax). Thereby, at each determination reference timing of TMB1 to TMB5, an image in which the parallax of each moving body of MOB1 to MOB5 becomes a predetermined parallax (an image with no parallax) is generated.

なお、プレーヤの入力タイミングのタイミング判定処理については、判定基準タイミングのデータに基づいて判定を行い、MOB1〜MOB5の各移動体の移動制御については、この判定基準タイミングのデータに同期するように作成された表示基準タイミングのデータに基づき制御することが望ましい。例えば表示基準タイミングのデータは、図5のTMB1〜TMB5の各判定基準タイミングにおいて、MOB1〜MOB5の各移動体が、例えば判定基準エリア(判定基準位置)を通過するように制御するためのデータである。この場合に、プレーヤの入力タイミングについては、1フレーム内において複数回サンプリングできる。従って、判定基準タイミングのデータについては、例えばmsec単位のデータにする一方で、表示基準タイミングのデータについては、フレーム単位のデータにすることが望ましい。   Note that the timing determination process of the player input timing is determined based on the determination reference timing data, and the movement control of each of the mobile bodies MOB1 to MOB5 is created in synchronization with the determination reference timing data. It is desirable to control based on the displayed display reference timing data. For example, the display reference timing data is data for controlling the mobile bodies MOB1 to MOB5 to pass, for example, a determination reference area (determination reference position) at the determination reference timings TMB1 to TMB5 in FIG. is there. In this case, the player input timing can be sampled multiple times within one frame. Accordingly, it is desirable that the determination reference timing data is, for example, data in msec units, while the display reference timing data is in frame units.

次に本実施形態のタイミング判定処理の詳細について説明する。本実施形態では、タイミング判定処理として、プレーヤの入力タイミングと、判定基準タイミングとのタイミング関係に基づく評価処理を行っている。なお、以下では、移動体の視差が所定視差である状態が、視差が無い状態であるとして、説明を行う。   Next, details of the timing determination process of the present embodiment will be described. In the present embodiment, as the timing determination process, an evaluation process based on the timing relationship between the player input timing and the determination reference timing is performed. In the following description, it is assumed that the state where the parallax of the moving body is the predetermined parallax is a state where there is no parallax.

例えば図6(A)では、プレーヤの入力タイミングと、判定基準タイミングは一致している。例えば図3(B)において、移動体MOB1に対応する判定基準タイミングTMB1において、プレーヤが操作入力を行っており、判定基準タイミングTMB1と入力タイミングとが一致したと判定されている。そして、このタイミングでは、移動体MOB1の画像は視差が無い画像になっている。   For example, in FIG. 6A, the input timing of the player coincides with the determination reference timing. For example, in FIG. 3B, at the determination reference timing TMB1 corresponding to the mobile object MOB1, the player has made an operation input, and it is determined that the determination reference timing TMB1 matches the input timing. At this timing, the image of the moving body MOB1 has no parallax.

具体的には、プレーヤの入力タイミングを、例えばmsec単位の時間間隔(表示基準タイミングよりも短い時間間隔)でサンプリングして取得する。そして、取得された入力タイミングの近傍に、判定基準タイミングが存在するか否かを検索する。そして、入力タイミングとのタイミング差が例えば1フレーム以内(広義には所定しきい値以下)である判定基準タイミングが検索された場合には、その判定基準タイミングと入力タイミングとが一致したと判定する。   Specifically, the input timing of the player is sampled and acquired, for example, at a time interval in units of msec (a time interval shorter than the display reference timing). Then, it is searched whether or not the determination reference timing exists in the vicinity of the acquired input timing. Then, when a determination reference timing whose timing difference from the input timing is within, for example, one frame (or less than a predetermined threshold in a broad sense) is searched, it is determined that the determination reference timing matches the input timing. .

そして本実施形態では、この入力タイミングと判定基準タイミングとのタイミング関係に基づく評価処理が行われ、評価処理の結果に基づいて、プレーヤのゲーム成績の演算処理、移動体の表示制御処理、或いはゲーム演出処理などのゲーム演算処理が行われる。   In this embodiment, an evaluation process based on the timing relationship between the input timing and the determination reference timing is performed, and based on the result of the evaluation process, a player's game result calculation process, a moving body display control process, or a game Game calculation processing such as effect processing is performed.

例えば図6(A)では、プレーヤの入力タイミングと判定基準タイミングが一致したと評価されているため、プレーヤのゲーム成績(得点、ポイント)は高いゲーム成績となる。また、野球ゲームを例にとれば、移動体であるボールの移動方向が、真っ直ぐな方向であるセンター方向に設定される。また、プレーヤの入力操作の成功を表すようなゲーム演出処理が行われる。   For example, in FIG. 6A, since it is evaluated that the input timing of the player and the determination reference timing coincide with each other, the game score (score, point) of the player is high. Taking a baseball game as an example, the moving direction of the ball, which is a moving body, is set to the center direction, which is a straight direction. In addition, a game effect process is performed to indicate the success of the player's input operation.

一方、図6(B)、図6(C)では、プレーヤの入力タイミングと判定基準タイミングは一致しておらず、図6(B)では入力タイミングの方が判定基準タイミングよりも早くなっており、図6(C)では入力タイミングの方が判定基準タイミングよりも遅くなっている。この場合にも入力タイミングは、判定基準タイミングを基準(中心)に設定される許容期間TR内に収まっている。従って、プレーヤの入力操作は成功であると判断されて、プレーヤの入力操作に対する評価処理が行われる。そしてこの評価処理は、入力タイミングと判定基準タイミングのタイミング差や前後関係などのタイミング関係に基づいて行われる。   On the other hand, in FIG. 6 (B) and FIG. 6 (C), the player input timing does not coincide with the determination reference timing, and in FIG. 6B, the input timing is earlier than the determination reference timing. In FIG. 6C, the input timing is later than the determination reference timing. Also in this case, the input timing is within the allowable period TR set with the determination reference timing as a reference (center). Therefore, it is determined that the player's input operation is successful, and an evaluation process for the player's input operation is performed. This evaluation process is performed based on a timing relationship such as a timing difference or a front-rear relationship between the input timing and the determination reference timing.

例えば入力タイミングと判定基準タイミングのタイミング差(時間差)が短くなるほど、プレーヤの入力操作に対する評価は高くなり、プレーヤに与えられるゲーム成績が高くなる。即ち図6(A)のようにタイミングが一致すると、図6(B)、図6(C)に比べてプレーヤの得点、ポイント等のゲーム成績は高くなる。またタイミング差が短くなるほど、ヒット後の移動体の速度や加速度が高くなるという移動体の表示制御を行ってもよい。或いはタイミング差が短くなるほど、ゲーム演出効果を高くするようにしてもよい。例えば図6(A)のように入力タイミングが判定基準タイミングに対してジャストタイミングである場合には、タイミング判定における高いゲーム演出効果の画像や音が出力される。一方、図6(B)、(C)のように入力タイミングと判定基準タイミングの間にずれがあると、図6(A)に比べて、ゲーム演出用表示物やゲーム演出音などで実現されるゲーム演出効果が低くなる。   For example, the shorter the timing difference (time difference) between the input timing and the determination reference timing, the higher the evaluation of the player's input operation, and the higher the game score given to the player. That is, when the timings coincide as shown in FIG. 6A, the player's score, points, and other game results become higher than those in FIGS. 6B and 6C. Moreover, you may perform display control of the moving body that the speed and acceleration of the moving body after a hit become high, so that a timing difference becomes short. Alternatively, the game effect may be enhanced as the timing difference becomes shorter. For example, when the input timing is just timing with respect to the determination reference timing as shown in FIG. 6A, an image or sound having a high game effect effect in timing determination is output. On the other hand, when there is a difference between the input timing and the determination reference timing as shown in FIGS. 6B and 6C, it is realized by a game effect display object, a game effect sound, or the like as compared with FIG. The game effect is reduced.

またタイミング差ではなく、入力タイミングと判定基準タイミングの前後関係を評価してもよい。例えば図6(B)のように入力タイミングの方が判定基準タイミングよりも早い場合と図6(C)のように入力タイミングの方が判定基準タイミングよりも遅い場合とで、プレーヤに与えるゲーム成績を異ならせたり、ヒット後の移動体の移動方向を変化させる。或いは、入力タイミングが判定基準タイミングよりも早い場合と遅い場合とで、ゲーム演出用表示物やゲーム演出音などで実現されるゲーム演出効果を変化させてもよい。   Moreover, you may evaluate not only a timing difference but the back-and-forth relationship between input timing and determination reference timing. For example, the game results given to the player when the input timing is earlier than the determination reference timing as shown in FIG. 6B and when the input timing is later than the determination reference timing as shown in FIG. Or change the moving direction of the moving object after the hit. Or you may change the game production | presentation effect implement | achieved by the display thing for game productions, a game production sound, etc. by the case where input timing is earlier than the determination reference | standard timing.

また本実施形態では、プレーヤの入力タイミングと判定基準タイミングとのタイミング差に応じて、移動体の画像の視差が変化する立体視用画像が生成される。具体的には、例えばプレーヤの入力タイミングと判定基準タイミングとのタイミング差が大きくなるほど、移動体の画像の視差が大きくなる立体視用画像が生成される。例えば図6(D)に比べて図6(E)の方が、入力タイミングと判定基準タイミングのタイミング差は大きくなっているため、図6(D)よりも図6(E)の方が移動体の画像の視差が大きくなる。   In the present embodiment, a stereoscopic image in which the parallax of the moving body image changes according to the timing difference between the input timing of the player and the determination reference timing is generated. Specifically, for example, as the timing difference between the player input timing and the determination reference timing increases, a stereoscopic image in which the parallax of the moving object image increases is generated. For example, in FIG. 6E, the timing difference between the input timing and the determination reference timing is larger than that in FIG. 6D, so that FIG. 6E moves more than FIG. 6D. The parallax of the body image increases.

例えば図3(B)のように判定基準タイミングTMB1で、プレーヤが操作入力を行った場合には、移動体MOB1の画像の視差はゼロになる。一方、判定基準タイミングTMB1から、時間的に遅れてプレーヤが操作入力を行った場合には、移動体MOB1の画像の視差は大きくなる。即ち、判定基準タイミングと入力タイミングのタイミング差が大きくなると、それにつれて移動体MOB1の画像の視差が大きくなる。   For example, as shown in FIG. 3B, when the player performs an operation input at the determination reference timing TMB1, the parallax of the image of the moving body MOB1 becomes zero. On the other hand, when the player performs an operation input with a time delay from the determination reference timing TMB1, the parallax of the image of the moving body MOB1 increases. That is, as the timing difference between the determination reference timing and the input timing increases, the parallax of the image of the moving body MOB1 increases accordingly.

このようにすれば移動体の画像の視差が無い状態のタイミングで、プレーヤが操作入力を行った場合には、プレーヤの操作に対して与えられる評価等が高くなり、移動体の画像の視差が大きくなった状態のタイミングで、プレーヤが操作入力を行った場合には、プレーヤの操作に対して与えられる評価等が低くなる。従って、移動体の画像の視差と、プレーヤの操作に対して与えられる評価の大小が連動するようになり、プレーヤにとって分かりやすく、立体視システムに好適な入力タイミングの評価処理を実現できるようになる。   In this way, when the player performs an operation input at a timing when there is no parallax of the moving body image, the evaluation given to the operation of the player becomes high, and the parallax of the moving body image is reduced. When the player performs an operation input at the timing of the increased state, the evaluation or the like given to the player's operation becomes low. Accordingly, the parallax of the image of the moving object and the magnitude of the evaluation given to the operation of the player are linked, so that the input timing evaluation process that is easy for the player to understand and suitable for the stereoscopic system can be realized. .

2.2 音楽ゲームへの適用例
次に各種ゲームへの本実施形態の手法の適用例について説明する。まず、本実施形態が適用される携帯型ゲーム装置の構成例について、図7(A)、図7(B)を用いて説明する。なお、以下においても、移動体の視差が所定視差である状態が、移動体の視差の無い状態であるとして、説明を行う、本実施形態はこれに限定されるものではない。
2.2 Application Examples to Music Games Next, application examples of the method of the present embodiment to various games will be described. First, a configuration example of a portable game device to which the present embodiment is applied will be described with reference to FIGS. 7A and 7B. In the following description, the present embodiment is not limited to this, assuming that the state where the parallax of the moving body is the predetermined parallax is the state where the parallax of the moving body is not present.

この携帯型ゲーム装置は、メイン表示部190Mとサブ表示部190Sを有する。サブ表示部190Sは、例えばタッチパネル方式の液晶ディスプレイにより実現され、ゲーム装置の筐体10に設けられる。メイン表示部190Mは、サブ表示部190Sよりも例えば画素数が多いディスプレイとなっており、例えば液晶ディスプレイなどにより実現される。なお、メイン表示部190Mは、例えば裸眼の立体視画像を表示できるディスプレイになっており、ゲーム画像が立体視で表示される。   This portable game device has a main display portion 190M and a sub display portion 190S. The sub display unit 190S is realized by, for example, a touch panel type liquid crystal display, and is provided in the housing 10 of the game apparatus. The main display unit 190M is a display having, for example, a larger number of pixels than the sub display unit 190S, and is realized by, for example, a liquid crystal display. The main display unit 190M is a display that can display, for example, a stereoscopic image with naked eyes, and the game image is displayed in stereoscopic view.

携帯型ゲーム装置の筐体10と筐体20は回動自在に設けられており、筐体10には、方向指示キー12、アナログスティック(ジョイスティック)14、操作ボタン16が設けられている。また図7(B)に示すように、筐体20の背面側(メイン表示部190Mの反対側)には第1、第2のカメラCM1、CM2が設けられている。これらの第1、第2のカメラCM1、CM2を用いて被写体を撮影することで、視差のある左眼用画像と右眼用画像を得ることが可能になり、立体視表示が可能になる。   A case 10 and a case 20 of the portable game device are provided so as to be freely rotatable, and the case 10 is provided with a direction instruction key 12, an analog stick (joystick) 14, and operation buttons 16. Further, as shown in FIG. 7B, first and second cameras CM1 and CM2 are provided on the rear side of the housing 20 (the side opposite to the main display portion 190M). By photographing the subject using the first and second cameras CM1 and CM2, it is possible to obtain a left-eye image and a right-eye image with parallax, and stereoscopic display is possible.

また筺体20の正面側(メイン表示部190側)には、カメラCM3(広義には撮像部)が設けられている。このようなカメラCM3を設けることで、携帯型ゲーム装置を持ってプレイしているプレーヤの画像を撮影することが可能になる。   In addition, a camera CM3 (an imaging unit in a broad sense) is provided on the front side (the main display unit 190 side) of the housing 20. By providing such a camera CM3, it is possible to take an image of a player who is playing with a portable game device.

更に携帯型ゲーム装置には図示しないモーションセンサ(6軸センサ)が内蔵されている。そして、プレーヤが携帯型ゲーム装置を手に持って動かした場合に、このモーションセンサを用いることで、図7(A)のX軸、Y軸、Z軸方向での加速度や、X軸回り、Y軸回り、Z軸回りでの角速度を検出できる。   Further, the portable game device has a built-in motion sensor (6-axis sensor) not shown. When the player moves the portable game device with his / her hand, using this motion sensor, acceleration in the X-axis, Y-axis, and Z-axis directions in FIG. Angular velocities around the Y axis and Z axis can be detected.

次に音楽ゲームへの本実施形態の手法の適用例について説明する。図8、図9は本実施形態の手法を音楽ゲームに適用した場合に生成される画像の例である。なお、以下では音楽ゲームとして太鼓の演奏ゲームを例にとり説明するが、本実施形態の手法を適用できる音楽ゲームの分野はこれに限定されない。   Next, an application example of the method of the present embodiment to a music game will be described. 8 and 9 are examples of images generated when the method of the present embodiment is applied to a music game. In the following, a drum playing game will be described as an example of the music game, but the field of the music game to which the method of the present embodiment can be applied is not limited to this.

図8、図9では、メイン表示部190Mには、指示マーカMK1〜MK5、判定基準エリアARB、太鼓のキャラクタCHT、評価表示用オブジェクトSOB、ゲージGOBが表示されている。サブ表示部190Sには、プレーヤが叩く太鼓TOBの画像が表示されている。   In FIGS. 8 and 9, the indication markers MK1 to MK5, the determination reference area ARB, the drum character CHT, the evaluation display object SOB, and the gauge GOB are displayed on the main display portion 190M. The sub display unit 190S displays an image of the drum TOB that the player strikes.

指示マーカMK1〜MK5(広義には移動体)は、例えば視点側(仮想カメラ側)から見て奥側から手前側に移動して、判定基準エリアARBを通過する。具体的には、MK1〜MK5の各指示マーカは、図5等で説明したように、TMB1〜TMB5の各判定基準タイミングで判定基準エリアARBを通過する。例えば図8では、判定基準タイミングTMB1で指示マーカMK1が判定基準ARBを通過する。また図9では、判定基準タイミングTMB2で指示マーカMK2が判定基準ARBを通過する。プレーヤは、これらの各指示マーカが判定基準ARBを通過するタイミングである各判定基準タイミングで、サブ表示部190Sの画面を、タッチペン30(ポインティングデバイス)でタッチする。   The instruction markers MK1 to MK5 (moving bodies in a broad sense), for example, move from the back side to the near side when viewed from the viewpoint side (virtual camera side) and pass through the determination reference area ARB. Specifically, each of the indication markers MK1 to MK5 passes through the determination reference area ARB at each determination reference timing of TMB1 to TMB5 as described with reference to FIG. For example, in FIG. 8, the instruction marker MK1 passes the determination reference ARB at the determination reference timing TMB1. In FIG. 9, the instruction marker MK2 passes the determination reference ARB at the determination reference timing TMB2. The player touches the screen of the sub display unit 190S with the touch pen 30 (pointing device) at each determination reference timing, which is a timing at which each of these instruction markers passes the determination reference ARB.

具体的には、「ドン」の操作を指示する指示マーカMK1が判定基準エリアARBを通過する判定基準タイミングTMB1では、プレーヤは、図8のB1に示すように、サブ表示部190Sの画面のうち、太鼓TOBの画像の部分をタッチペン30でタッチする。これにより、太鼓の真ん中部分を叩いて「ドン」という音を出す太鼓の演奏を、プレーヤに疑似体験させることができる。   Specifically, at the determination reference timing TMB1 at which the instruction marker MK1 for instructing the “don” operation passes through the determination reference area ARB, the player, among the screens of the sub-display unit 190S, as shown at B1 in FIG. Then, the image portion of the drum TOB is touched with the touch pen 30. Thereby, it is possible to make the player simulate the performance of playing a drum that hits the middle part of the drum and produces a “don” sound.

一方、「カツ」と表示される指示マーカMK2が判定基準エリアARBを通過するタイミングである判定基準タイミングTMB2では、図9のB2に示すように、サブ表示部190Sの画面のうち、太鼓TOBの画像以外の部分をタッチペン30でタッチする。これにより、太鼓の枠の部分を叩いて「カツ」という音を出す太鼓の演奏を、プレーヤに疑似体験させることができる。そして、プレーヤの太鼓を叩く操作が成功する毎に、ゲージGOBで表されるプレーヤの獲得ポイントが高くなって行く。   On the other hand, at the determination reference timing TMB2, which is the timing at which the indication marker MK2 displayed as “Katsu” passes through the determination reference area ARB, as shown in B2 of FIG. A part other than the image is touched with the touch pen 30. As a result, the player can simulate the performance of a drum that strikes the drum frame and produces a “cut” sound. Each time the player's drumming operation is successful, the player's earned points represented by gauge GOB increase.

そして本実施形態では、各指示マーカが判定基準エリアARBを通過する各判定基準タイミングでは、各指示マーカの画像は視差が無い画像(広義には所定視差の画像)になっている。   In this embodiment, at each determination reference timing at which each indication marker passes through the determination reference area ARB, the image of each indication marker is an image having no parallax (an image with a predetermined parallax in a broad sense).

例えば図10(A)では、指示マーカMK1〜MK3のいずれもが、判定基準エリアARBを通過せずに、判定基準エリアARBの奥側に位置するため、MK1〜MK3は視差のある画像になっている。   For example, in FIG. 10A, since all of the instruction markers MK1 to MK3 do not pass through the determination reference area ARB and are located on the back side of the determination reference area ARB, MK1 to MK3 are parallax images. ing.

一方、図10(B)では、指示マーカMK1が判定基準タイミングTMB1で判定基準エリアARBを通過しており、MK1の画像は視差が無い画像になっている。この時、指示マーカMK2、MK3は、判定基準エリアARBを通過せずに、判定基準エリアARBの奥側に位置するため、視差のある画像になっている。   On the other hand, in FIG. 10B, the instruction marker MK1 passes through the determination reference area ARB at the determination reference timing TMB1, and the image of MK1 is an image having no parallax. At this time, the instruction markers MK2 and MK3 do not pass through the determination reference area ARB, and are positioned on the back side of the determination reference area ARB, so that the images have parallax.

また図10(C)では、指示マーカMK2が判定基準タイミングTMB2で判定基準エリアARBを通過しており、MK2の画像は視差が無い画像になっている。この時、指示マーカMK1は判定基準エリアARBの手前側に位置し、指示マーカMK3はARBの奥側に位置するため、MK1、MK3は視差のある画像になっている。具体的には指示マーカMK1は立体視において判定基準エリアARBから飛び出して見える画像になり、指示マーカMK3は判定基準エリアARBから引っ込んで見える画像になる。   In FIG. 10C, the instruction marker MK2 passes the determination reference area ARB at the determination reference timing TMB2, and the image of MK2 is an image having no parallax. At this time, since the instruction marker MK1 is located on the front side of the determination reference area ARB and the instruction marker MK3 is located on the back side of the ARB, MK1 and MK3 are images having parallax. Specifically, the instruction marker MK1 is an image that appears to jump out of the determination reference area ARB in stereoscopic view, and the instruction marker MK3 is an image that appears to be retracted from the determination reference area ARB.

以上のようにすることで、プレーヤの眼には、各判定基準タイミングを境として、各指示マーカが、スクリーンの奥側に引っ込んでいる状態からスクリーンの手前側に飛び出して来るように見える。従って、プレーヤは、指示マーカの画像の視差の無い状態がジャストタイミングであることを認識することができ、指示マーカにより指示される操作(「ドン」、「カツ」の操作)を行うタイミングを容易に把握することが可能になる。これにより、プレーヤの操作インターフェース環境を向上できる。   By doing as described above, it appears to the player's eyes that each indication marker jumps to the near side of the screen from the state of being retracted to the far side of the screen, with each judgment reference timing as a boundary. Therefore, the player can recognize that the state without parallax of the image of the indication marker is the just timing, and the timing for performing the operation (“don”, “cut” operation) indicated by the indication marker is easy. It becomes possible to grasp. Thereby, the operation interface environment of the player can be improved.

なお図8〜図10(C)では判定基準エリアARBは2次元の四角形状になっているが、本実施形態はこれに限定されない。例えば判定基準エリアARBは四角形状以外の形状であってもよいし、立体形状であってもよい。   In FIG. 8 to FIG. 10C, the determination reference area ARB has a two-dimensional square shape, but the present embodiment is not limited to this. For example, the determination reference area ARB may have a shape other than a square shape or a three-dimensional shape.

また例えば図10(A)〜図10(C)において、指示マーカMK1〜MK3の移動経路に沿ったレーン表示物(音符等の指示マーカが流れてくるラインを表す表示物)を表示するようにしてもよい。この場合には、レーン表示物と、指示マーカMK1〜MK3(移動体)との立体視度合いを変えることが望ましい。例えば判定基準タイミング(判定基準エリア)に近づくにつれて、MK1〜MK3の各指示マーカが、レーン表示物から浮き上がって見えるような立体視表示を行うようにしてもよい。   Also, for example, in FIGS. 10A to 10C, lane display objects (display objects representing lines through which instruction markers such as musical notes flow) along the movement path of the instruction markers MK1 to MK3 are displayed. May be. In this case, it is desirable to change the degree of stereoscopic vision between the lane display object and the instruction markers MK1 to MK3 (moving bodies). For example, as the determination reference timing (determination reference area) approaches, each of the indication markers MK1 to MK3 may be displayed in a stereoscopic manner so as to appear to rise from the lane display object.

次に図8〜図10(C)の音楽ゲームへの適用例におけるタイミング判定処理の詳細について説明する。   Next, details of the timing determination process in the application example to the music game in FIGS. 8 to 10C will be described.

図11(A)ではプレーヤの入力タイミングTMIと、指示マーカMKの判定基準タイミングTMBとが一致している。例えば図8において「ドン」の操作を指示する指示マーカMK(MK1)が判定基準エリアARBを通過する判定基準タイミングTMB(TMB1)と同じタイミングで、プレーヤが、タッチペン30でサブ表示部190Sの太鼓TOBの画像をタッチしている。そして、このタイミングでは、指示マーカMKの画像は視差が無い画像になっている。   In FIG. 11A, the input timing TMI of the player coincides with the determination reference timing TMB of the instruction marker MK. For example, in FIG. 8, at the same timing as the determination reference timing TMB (TMB1) at which the instruction marker MK (MK1) for instructing the “don” operation passes through the determination reference area ARB, the player uses the touch pen 30 to play the drum of the sub display unit 190S. Touching the TOB image. At this timing, the image of the instruction marker MK is an image having no parallax.

このようにプレーヤの入力タイミングと判定基準タイミングが一致していると判断されると、プレーヤの入力操作に対して非常に高い評価が与えられ、入力操作の評価が「良」であることを知らせる評価表示用オブジェクトSOBが表示される。   When it is determined that the input timing of the player matches the determination reference timing in this way, a very high evaluation is given to the input operation of the player, and the evaluation of the input operation is notified as “good”. An evaluation display object SOB is displayed.

例えば図11(B)、図11(C)ではプレーヤの入力タイミングと、指示マーカMKが判定基準エリアARBを通過する判定基準タイミングTMBは一致しておらず、図11(B)では入力タイミングの方が判定基準タイミングよりも早くなっており、図11(C)では入力タイミングの方が判定基準タイミングよりも遅くなっている。この場合にも入力タイミングは、判定基準タイミングを基準(中心)に設定された許容期間TR内に収まっている。従って、プレーヤの入力操作はある程度成功していると判断されて、入力操作の評価が「可」であることを知らせる評価表示用オブジェクトSOBが表示される。   For example, in FIG. 11B and FIG. 11C, the input timing of the player and the determination reference timing TMB at which the instruction marker MK passes the determination reference area ARB do not match. In FIG. This is earlier than the determination reference timing, and in FIG. 11C, the input timing is later than the determination reference timing. Also in this case, the input timing is within the allowable period TR set with the determination reference timing as a reference (center). Therefore, it is determined that the player's input operation has been successful to some extent, and the evaluation display object SOB is displayed informing that the evaluation of the input operation is “OK”.

以上のようにすることで、音楽ゲームにおいて、入力タイミングと判定基準タイミングのタイミング関係に応じた適正な評価を、プレーヤに対して与えることが可能になる。そして本実施形態では図11(A)のように判定基準タイミングTMBでプレーヤが操作入力を行った場合に、プレーヤに対して高い評価が与えられ、この時の指示マーカMKの画像は視差の無い画像になる。従って、プレーヤは、指示マーカMKの画像の視差が無くなるタイミングを判断して、操作入力を行えばよくなるため、プレーヤが直感的に把握しやすい操作インターフェース環境を提供できるようになる。   By doing as described above, it is possible to give the player an appropriate evaluation according to the timing relationship between the input timing and the determination reference timing in the music game. In this embodiment, when the player inputs an operation at the determination reference timing TMB as shown in FIG. 11A, the player is highly evaluated, and the image of the instruction marker MK at this time has no parallax. Become an image. Therefore, the player only has to determine the timing at which the parallax of the image of the instruction marker MK disappears and perform an operation input, so that it is possible to provide an operation interface environment that the player can easily grasp intuitively.

2.3 各種オブジェクトの表示制御
本実施形態では、図8、図9に示すように、操作入力の評価処理の結果を表示する評価表示用オブジェクトSOBを表示する。具体的には、評価表示用オブジェクトSOBの画像として、評価結果に応じて視差の度合いが変化する画像を表示する。
2.3 Display Control of Various Objects In this embodiment, as shown in FIGS. 8 and 9, an evaluation display object SOB for displaying the result of the operation input evaluation process is displayed. Specifically, an image in which the degree of parallax changes according to the evaluation result is displayed as the image of the evaluation display object SOB.

例えば図12(A)では判定基準タイミングTMBにおいて指示マーカMKが判定基準エリアARBを通過しており、プレーヤは、指示マーカMKが判定基準エリアARBを通過する判定基準タイミングTMBで、「ドン」の操作を指示する操作入力を行っている。従って、図12(B)に示すように、入力タイミングTMIと判定基準タイミングTMBは一致しており、プレーヤに対しては、高い評価結果である「良」の評価が与えられる。このため、「良」の評価結果をプレーヤに知らせる評価表示用オブジェクトSOBが表示される。   For example, in FIG. 12A, the instruction marker MK passes the determination reference area ARB at the determination reference timing TMB, and the player sets the “don” at the determination reference timing TMB at which the instruction marker MK passes the determination reference area ARB. An operation input for instructing the operation is performed. Accordingly, as shown in FIG. 12B, the input timing TMI and the judgment reference timing TMB coincide with each other, and the player is given a “good” evaluation, which is a high evaluation result. Therefore, the evaluation display object SOB for informing the player of the evaluation result of “good” is displayed.

この場合に、評価表示用オブジェクトSOBは、図12(B)に示すように、判定基準エリアARBに対応する基準スクリーンSC(透視投影面)よりも手前側に配置される。従って、図12(A)に示すように、評価表示用オブジェクトSOBが画面から飛び出して見える立体視用画像が生成されて、プレーヤに表示されるようになる。即ち、指示マーカMKについては、基準スクリーンSC(判定基準エリア)の位置にあり、視差の無い画像になっている一方で、評価表示用オブジェクトSOBについては、視差のある画像になっており、画面から手前側に飛び出して見える画像になっている。   In this case, as shown in FIG. 12B, the evaluation display object SOB is arranged in front of the reference screen SC (perspective projection plane) corresponding to the determination reference area ARB. Accordingly, as shown in FIG. 12A, a stereoscopic image in which the evaluation display object SOB appears to pop out from the screen is generated and displayed on the player. That is, the instruction marker MK is at the position of the reference screen SC (judgment reference area) and has no parallax, while the evaluation display object SOB has an image with parallax. The image appears to jump out from the front.

一方、図13(A)、図13(B)では、プレーヤは、指示マーカMKが判定基準エリアARBを通過した後に、「ドン」の操作を指示する操作入力を行っており、プレーヤの入力タイミングTMIの方が、判定基準タイミングTMBよりも遅れている。そして、入力タイミングTMIは、判定基準タイミングTMBを基準に設定された許容期間TR内に収まっているため、プレーヤに対しては、「可」の評価が与えられる。このため、「可」の評価結果をプレーヤに知らせる評価表示用オブジェクトSOBが表示される。   On the other hand, in FIG. 13A and FIG. 13B, the player performs an operation input instructing an operation of “don” after the instruction marker MK passes the determination reference area ARB, and the input timing of the player The TMI is later than the determination reference timing TMB. Since the input timing TMI is within the allowable period TR set based on the determination reference timing TMB, the player is given an evaluation of “OK”. For this reason, the evaluation display object SOB for informing the player of the evaluation result of “OK” is displayed.

そして、この「可」を表す評価表示用オブジェクトSOBは、図13(B)に示すように、判定基準エリアARBに対応する基準スクリーンSCの位置に配置される。従って、評価表示用オブジェクトSOBは視差の無い画像になる。また、指示マーカMKは判定基準エリアARBを通過しているため、指示マーカMKの画像は、画面から飛び出して見える画像になっている。   Then, the evaluation display object SOB representing “OK” is arranged at the position of the reference screen SC corresponding to the determination reference area ARB, as shown in FIG. 13B. Therefore, the evaluation display object SOB becomes an image having no parallax. Moreover, since the instruction marker MK passes through the determination reference area ARB, the image of the instruction marker MK is an image that appears to jump out of the screen.

また、図14(A)、図14(B)では、プレーヤの入力タイミングTMIの方が判定基準タイミングTMBよりも遅れており、且つ、入力タイミングTMIは許容期間TR内に収まっていない。従って、プレーヤに対しては、「不可」の評価が与えられ、「不可」の評価結果をプレーヤに知らせる評価表示用オブジェクトSOBが表示される。   In FIGS. 14A and 14B, the player input timing TMI is later than the determination reference timing TMB, and the input timing TMI is not within the allowable period TR. Therefore, an evaluation of “impossible” is given to the player, and an evaluation display object SOB for notifying the player of the evaluation result of “impossible” is displayed.

そして、この「不可」を表す評価表示用オブジェクトSOBは、図14(B)に示すように、基準スクリーンSCの奥側の位置に配置される。従って、評価表示用オブジェクトSOBが画面の奥側に引っ込んで見える立体視用画像が生成されて、プレーヤに表示されるようになる。   Then, the evaluation display object SOB representing “impossible” is arranged at a position on the back side of the reference screen SC as shown in FIG. Accordingly, a stereoscopic image in which the evaluation display object SOB appears to be retracted to the back side of the screen is generated and displayed on the player.

このように図12(A)〜図14(B)では、評価表示用オブジェクトSOBは、評価結果に応じてその視差の度合いが変化する画像になっている。即ち図12(A)、図12(B)のように評価結果が「良」である場合には、評価表示用オブジェクトSOBは画面から手前側に飛び出して見える画像になり、図13(A)、図13(B)のように評価結果が「可」である場合には、視差の無い画像になる。そして図14(A)、図14(B)のように評価結果が「不可」である場合には、評価表示用オブジェクトSOBは、画面から奥側に引っ込んで見える画像になる。   As described above, in FIGS. 12A to 14B, the evaluation display object SOB is an image in which the degree of parallax changes according to the evaluation result. That is, when the evaluation result is “good” as shown in FIGS. 12A and 12B, the evaluation display object SOB becomes an image that appears to protrude from the screen to the near side, and FIG. When the evaluation result is “OK” as shown in FIG. 13B, the image has no parallax. When the evaluation result is “impossible” as shown in FIGS. 14A and 14B, the evaluation display object SOB becomes an image that is seen to be retracted from the screen.

従って、プレーヤは、評価表示用オブジェクトSOBの視差の度合いによって、自身に与えられた評価を直感的に認識することが可能になる。即ち、プレーヤは、評価表示用オブジェクトSOBが画面から飛び出し見える場合には、操作入力が良い評価であったと認識し、評価表示用オブジェクトSOBが画面から引っ込んで見える場合には、操作入力が悪い評価であったと認識することができる。従って、評価結果を、直感的に分かりやすくプレーヤに伝えることが可能になる。   Therefore, the player can intuitively recognize the evaluation given to the player according to the degree of parallax of the evaluation display object SOB. In other words, the player recognizes that the operation input is a good evaluation when the evaluation display object SOB appears to pop out from the screen, and the player input recognizes that the operation input is bad when the evaluation display object SOB appears to retract from the screen. Can be recognized. Therefore, the evaluation result can be transmitted to the player intuitively and easily.

また本実施形態では、プレーヤの入力が成功であると判定された場合に、ゲーム演出効果表示用オブジェクトの画像を表示すると共に、このゲーム演出効果表示用オブジェクトとして、視差のある画像を表示している。   In this embodiment, when it is determined that the player's input is successful, an image of the game effect effect display object is displayed, and an image with parallax is displayed as the game effect effect display object. Yes.

例えば図15(A)では、太鼓のキャラクタCHTにより、太鼓を連打することが指示されている。そして、この連打の操作入力に成功している場合には、図15(A)に示すようなゲーム演出効果表示用オブジェクトEOB1、EOB2、EOB3の画像を表示する。具体的には図15(B)に示すように、ゲーム演出効果表示用オブジェクトEOB1、EOB2、EOB3は、指示マーカMKの位置から画面の手前側に向かって放出されるように移動する。従って、指示マーカMKについては視差の無い画像になっている一方で、ゲーム演出効果表示用オブジェクトEOB1、EOB2、EOB3については、画面の手前側に次々と飛び出し見える立体視用画像が生成されるようになる。このため、指示マーカMKが視差の無い画像になっている場合に、ゲーム演出効果表示用オブジェクトEOB1、EOB2、EOB3が立体視的に画面から飛び出して見えるようになることで、これらのオブジェクトEOB1、EOB2、EOB3による演出効果を格段に向上できる。   For example, in FIG. 15A, the drum character CHT is instructed to continuously strike the drum. When the operation input for the continuous hitting is successful, the images of the game effect display objects EOB1, EOB2, and EOB3 as shown in FIG. 15A are displayed. Specifically, as shown in FIG. 15B, the game effect display objects EOB1, EOB2, and EOB3 move so as to be emitted toward the front side of the screen from the position of the instruction marker MK. Therefore, while the instruction marker MK is an image having no parallax, for the game effect display objects EOB1, EOB2, and EOB3, a stereoscopic image that appears to pop out one after another on the front side of the screen is generated. become. For this reason, when the instruction marker MK is an image having no parallax, the game effect display objects EOB1, EOB2, and EOB3 appear to jump out of the screen stereoscopically, so that these objects EOB1, The effects of EOB2 and EOB3 can be greatly improved.

また本実施形態では、指示マーカについては、判定基準タイミングにおいて視差の無い画像を表示すると共に、プレーヤの入力が行われたことを示す入力動作表示用オブジェクトについては、視差のある画像を表示するようにしている。   In the present embodiment, for the instruction marker, an image having no parallax is displayed at the determination reference timing, and for the input action display object indicating that the player input has been performed, an image with parallax is displayed. I have to.

例えば図16(A)では、図8で説明したように、サブ表示部190Sの太鼓TOBの画像の部分をタッチペン30でタッチすることで、「ドン」の操作を行っている。この場合に、このような「ドン」の操作が行われたことを示す入力動作表示用オブジェクトIOBが表示される。具体的には図16(A)に示すように、指示マーカMKの周囲に入力動作表示用オブジェクトIOBの画像が表示される。このような入力動作表示用オブジェクトIOBの画像を表示することで、プレーヤは、自身が正常に入力動作を行ったことを確認することが可能になる。   For example, in FIG. 16A, as described with reference to FIG. 8, the “don” operation is performed by touching the image portion of the drum TOB of the sub display unit 190 </ b> S with the touch pen 30. In this case, an input action display object IOB indicating that such a “don” operation has been performed is displayed. Specifically, as shown in FIG. 16A, an image of the input action display object IOB is displayed around the instruction marker MK. By displaying such an image of the input operation display object IOB, the player can confirm that he / she has normally performed the input operation.

この場合に、図16(B)に示すように、指示マーカMKについては判定基準タイミングにおいて基準スクリーンSC(判定基準エリア)の位置にあるため、視差の無い画像になっている。これに対して、入力動作表示用オブジェクトIOBについては、例えば基準スクリーンSCよりも視点側から見て手前側に配置される。   In this case, as shown in FIG. 16 (B), the instruction marker MK is at the position of the reference screen SC (determination reference area) at the determination reference timing, and thus has no parallax. On the other hand, the input action display object IOB is arranged, for example, on the near side as viewed from the viewpoint side with respect to the reference screen SC.

このようにすることで、指示マーカMKの周りにある入力動作表示用オブジェクトIOBの画像については、画面から飛び出して見えるようになり、演出効果を向上できる。即ち、指示マーカMKが視差の無い画像であっても、それを補うように、入力動作表示用オブジェクトIOBが視差のある画像になることで、あたかも指示マーカMKが画面から飛び出し見えるような演出効果を実現できるようになる。   By doing in this way, the image of the input action display object IOB around the instruction marker MK appears to jump out of the screen, and the effect of production can be improved. That is, even if the instruction marker MK is an image without parallax, the input operation display object IOB becomes an image with parallax so as to compensate for the effect, so that the instruction marker MK can be projected from the screen. Can be realized.

なお本実施形態では、判定基準タイミングにおいて、指示マーカ等の移動体の色、形状及びサイズの少なくとも1つが変化する立体視用画像を生成してもよい。   In the present embodiment, a stereoscopic image in which at least one of the color, shape, and size of a moving object such as an instruction marker changes may be generated at the determination reference timing.

例えば図17(A)では、指示マーカMKが判定基準エリアARBに向かって移動している。そして図17(B)の判定基準タイミングTMにおいては、指示マーカMKの色、形状又はサイズ等が変化している。即ち、図17(B)では、指示マーカMKの色、形状又はサイズ等が、図17(A)とは異なった色、形状又はサイズになっている。   For example, in FIG. 17A, the instruction marker MK is moving toward the determination reference area ARB. Then, at the determination reference timing TM in FIG. 17B, the color, shape, size, or the like of the instruction marker MK changes. That is, in FIG. 17B, the color, shape, size, or the like of the instruction marker MK is different from that in FIG.

このようにすれば、例えばタイミング判定処理のジャストタイミングである判定基準タイミングにおいて、指示マーカMKの色、形状又はサイズ等が変化することで、指示マーカMKの視認性が高まる。これにより、プレーヤは、図17(B)のタイミングが判定基準タイミングであることを、指示マーカMKの視差の状態(所定視差の状態、視差の無い状態)のみならず、色、形状又はサイズの変化によっても、把握できるようになる。従って、プレーヤにとってタイミングを把握しやすいタイミング判定処理を実現できる。   In this way, the visibility of the instruction marker MK is increased by changing the color, shape, size, or the like of the instruction marker MK at the determination reference timing, which is just timing of the timing determination processing, for example. As a result, the player determines that the timing of FIG. 17B is the determination reference timing not only for the parallax state (predetermined parallax state, no parallax state) of the indication marker MK but also for the color, shape, or size. It becomes possible to grasp even by change. Therefore, it is possible to realize a timing determination process in which the player can easily grasp the timing.

なお、指示マーカMK(移動体)の画像の変化は、その判定基準タイミングの視認性を高めることができるものであれば、色、形状、サイズの変化以外の表示態様の変化であってもよい。   Note that the change in the image of the instruction marker MK (moving body) may be a change in display mode other than the change in color, shape, and size, as long as the visibility of the determination reference timing can be improved. .

また本実施形態では、移動体の視差に応じて、音像定位が変化する音を生成してもよい。即ち立体音響の音出力が、立体視の位置に合うような音を生成する。   Moreover, in this embodiment, you may produce | generate the sound from which sound image localization changes according to the parallax of a moving body. That is, a sound is generated so that the sound output of the stereophonic sound matches the position of the stereoscopic view.

例えば図18では、図7(A)の携帯型ゲーム装置の筺体20のメイン表示部190M側に、音出力部SP1、SP2(スピーカ)が設けられている。またメイン表示部190M(広義には表示部)の表示画面側空間には、指示マーカMK(移動体)に対応する仮想指示マーカMKV(広義には仮想表示物)が立体視表示されている。この仮想指示マーカMKVは、表示画面側空間に実在するものではなく、指示マーカMKの立体視用画像(左眼用画像、右眼用画像)に基づいて、プレーヤが、その位置に存在するかのように認識する仮想表示物である。   For example, in FIG. 18, sound output portions SP1 and SP2 (speakers) are provided on the main display portion 190M side of the housing 20 of the portable game device of FIG. In addition, a virtual instruction marker MKV (virtual display object in a broad sense) corresponding to the instruction marker MK (moving body) is stereoscopically displayed in the display screen side space of the main display portion 190M (display section in a broad sense). The virtual instruction marker MKV does not actually exist in the display screen side space, but based on the stereoscopic image (left-eye image, right-eye image) of the instruction marker MK, is the player present at that position? The virtual display object is recognized as follows.

そして、音出力部SP1、SP2からは、仮想指示マーカMKVの表示位置(仮想表示位置)に連動するような音像定位の音(ステレオ音)が出力される。例えば指示マーカMKの視差が、メイン表示部190Mの画面の手前側になるような視差であり、仮想指示マーカMKVが画面の手前側に仮想表示される場合には、音出力部SP1、SP2からの音により形成される音像定位も、画面の手前側の位置に設定される。   The sound output units SP1 and SP2 output sound image localization sound (stereo sound) that is linked to the display position (virtual display position) of the virtual instruction marker MKV. For example, when the parallax of the indication marker MK is such that the parallax of the main display unit 190M is on the near side of the screen, and the virtual indication marker MKV is virtually displayed on the near side of the screen, the sound output units SP1 and SP2 The sound image localization formed by the sound is also set at a position on the near side of the screen.

一方、指示マーカMKの視差が画面の奧側になるような視差であり、仮想指示マーカMKVが画面の奧側に仮想表示される場合には、音出力部SP1、SP2からの音により形成される音像定位も、画面の奥側の位置に設定される。   On the other hand, when the parallax of the indication marker MK is parallax on the heel side of the screen and the virtual indication marker MKV is virtually displayed on the heel side of the screen, the parallax is formed by sound from the sound output units SP1 and SP2. The sound image localization is also set to a position on the back side of the screen.

このようにすれば、例えば指示マーカ(仮想指示マーカ)が画面から手前側に飛び出して見えるような状況においては、音像の定位も画面から手前側に飛び出してくるように聞こえる定位になる。一方、指示マーカが画面から奥側に引っ込んで見えるような状況においては、音像の定位も画面から奥側に引っ込んでいるように聞こえる定位になる。これにより、立体視の効果を、より強調することが可能になり、ゲーム演出効果等を向上できる。   In this way, for example, in a situation where the pointing marker (virtual pointing marker) appears to jump out from the screen, the sound image is localized so that it sounds like it pops out from the screen. On the other hand, in a situation where the indication marker appears to be retracted from the screen, the sound image is localized so that it sounds like it is retracted from the screen. Thereby, it becomes possible to emphasize the effect of a stereoscopic vision more, and the game effect effect etc. can be improved.

なお、音の音像定位の設定手法としては、公知の種々の手法を採用できる。例えば音量差、時間差、周波数特性の変化、位相の変化、或いは残響の変化などによって、音像定位等の立体音響の制御が可能である。音量差を用いる場合には、例えば距離による音量の減衰や両耳間強度差により、音の音像定位を制御する。時間差を用いる場合には、音波が到達する時間差により、音の音像定位を制御すればよい。周波数特性の変化を用いる場合には、音波の伝達や遮断による周波数特性の変化により、音の音像定位を制御すればよい。位相の変化を用いる場合には、音波の伝達や遮断による位相の変化により、音の音像定位を制御すればよい。残響の変化を用いる場合には、残響特性により周辺環境の音場を再現することで、音の音像定位を制御すればよい。   Various known methods can be adopted as a method for setting the sound image localization of the sound. For example, it is possible to control stereophonic sound such as sound image localization by changing the volume, time difference, frequency characteristic, phase, or reverberation. When the volume difference is used, the sound image localization of the sound is controlled by, for example, the attenuation of the volume due to the distance or the intensity difference between both ears. When using the time difference, the sound image localization of the sound may be controlled by the time difference that the sound wave reaches. In the case of using a change in frequency characteristics, the sound image localization of the sound may be controlled by a change in the frequency characteristics due to transmission or interruption of sound waves. In the case of using a change in phase, the sound image localization of the sound may be controlled by a change in phase due to transmission or interruption of sound waves. In the case of using reverberation change, the sound image localization of the sound may be controlled by reproducing the sound field of the surrounding environment based on the reverberation characteristics.

また本実施形態では、移動体又はタイミング判定処理用の操作対象物に対応する仮想的な表示物であって立体視用画像に基づき表示部の表示画面側空間に仮想表示される仮想表示物と、現実空間の被ヒット体とのヒット判定処理を行ってもよい。例えば仮想表示物と、プレーヤの部位やポインティングデバイスなどである被ヒット体とのヒット判定処理を、プレーヤを撮影する撮像部からの撮像情報に基づいて行う。   In the present embodiment, a virtual display object corresponding to a moving object or an operation target object for timing determination processing, which is virtually displayed in the display screen side space of the display unit based on the stereoscopic image, The hit determination process with the hit object in the real space may be performed. For example, a hit determination process between a virtual display object and a hit target that is a part of a player or a pointing device is performed based on imaging information from an imaging unit that images the player.

例えば図19(A)では、携帯型ゲーム装置のメイン表示部190M側に設けられたカメラCM3(撮像部)により、プレーヤPLを撮影できるようになっている。具体的には、プレーヤPLがメイン表示部190Mの画面に指を近づける動作を行うと、カメラCM3からの撮影情報に基づいて、その動作が検知される。   For example, in FIG. 19A, the player PL can be photographed by a camera CM3 (imaging unit) provided on the main display unit 190M side of the portable game device. Specifically, when the player PL performs an operation of bringing a finger close to the screen of the main display unit 190M, the operation is detected based on the shooting information from the camera CM3.

そして図19(B)では、前述の図18で説明したのと同様に、メイン表示部190Mの表示画面側空間に、仮想指示マーカMKV(広義には仮想表示物)が仮想表示されている。即ち指示マーカMKの立体視用画像(左眼用画像、右眼用画像)に基づいて、あたかも図19(B)の位置に仮想指示マーカMKVが存在しているかのように見える立体視表示が行われる。   In FIG. 19 (B), a virtual instruction marker MKV (virtual display object in a broad sense) is virtually displayed in the display screen side space of the main display portion 190M, as described with reference to FIG. That is, based on the stereoscopic image (left-eye image, right-eye image) of the indication marker MK, a stereoscopic display that appears as if the virtual indication marker MKV exists at the position of FIG. Done.

そして図19(B)では、この仮想指示マーカMKVと、現実空間の被ヒット体であるプレーヤPLの指等とのヒット判定処理が行われる。例えば仮想指示マーカMKVの判定基準タイミング(表示タイミング)において、プレーヤPLの指(広義には被ヒット体)が画面付近に存在することが、カメラCM3により検知された場合には、仮想指示マーカMKVとプレーヤPLの指がヒットしたと判定する。この場合に、例えば仮想指示マーカMKVの画面からの距離情報を、指示マーカMKの画像の視差情報から特定し、この距離情報も用いて、ヒット判定処理を行ってもよい。或いは、カメラCM3が、奥行き情報を検出できるデプスカメラ等である場合には、この奥行き情報に基づいて、プレーヤPLの指の画面内での位置情報(X、Y座標)を特定し、特定された位置情報も用いて、ヒット判定処理を行ってもよい。そして、例えば判定基準タイミングにおいて、プレーヤPLの指と仮想指示マーカMKがヒットしたと判定された場合には、プレーヤの得点やポイントを加算するなどのゲーム演算処理を行う。   In FIG. 19B, hit determination processing is performed between the virtual instruction marker MKV and the finger of the player PL that is a hit body in the real space. For example, when the camera CM 3 detects that the finger of the player PL (a hit object in a broad sense) is present near the screen at the determination reference timing (display timing) of the virtual instruction marker MKV, the virtual instruction marker MKV It is determined that the player PL's finger hits. In this case, for example, distance information from the screen of the virtual instruction marker MKV may be specified from the parallax information of the image of the instruction marker MK, and the hit determination process may be performed using this distance information. Alternatively, when the camera CM 3 is a depth camera or the like that can detect depth information, position information (X, Y coordinates) in the screen of the finger of the player PL is specified and specified based on the depth information. The hit determination process may be performed using the position information. For example, when it is determined at the determination reference timing that the finger of the player PL and the virtual instruction marker MK are hit, a game calculation process such as adding the player's score or points is performed.

このようにすれば、指示マーカ等の移動体を用いたタイミング判定処理を、立体視を有効利用して行うことが可能になり、従来にないヒット判定処理によるタイミング判定処理を実現することが可能になる。   In this way, it is possible to perform timing determination processing using a moving object such as an instruction marker by effectively using stereoscopic vision, and it is possible to realize timing determination processing based on hit determination processing that has not existed before. become.

なお図19(A)、図19(B)では、指示マーカ等の移動体に対応する仮想表示物と、プレーヤの部位等の被ヒット体とのヒット判定処理を行っているが、本実施形態はこれに限定されない。例えば、指示マーカ等の移動体とは別に、タイミング判定処理用の操作対象物を画面上に立体視表示してもよい。これにより、このタイミング判定処理用の操作対象物に対応する仮想表示物が、表示部の表示画面側空間に仮想表示される。そして、例えばプレーヤは、指示マーカ等の移動体の判定基準タイミングにおいて、このタイミング判定処理用の操作対象物に対応する仮想表示物に対して、指やポインティングデバイスなどの被ヒット体で触れる操作を行う。そして、操作対象物に対応する仮想表示物に被ヒット体がヒットしたと判定された場合(触れたと判定された場合)には、プレーヤの得点やポイント等が加算されるなどのゲーム演算処理が行われることになる。   In FIG. 19A and FIG. 19B, hit determination processing is performed between a virtual display object corresponding to a moving body such as an instruction marker and a hit body such as a player's part. Is not limited to this. For example, separately from a moving object such as an instruction marker, an operation target for timing determination processing may be stereoscopically displayed on the screen. Thereby, a virtual display object corresponding to the operation target object for the timing determination process is virtually displayed in the display screen side space of the display unit. For example, the player performs an operation of touching a virtual display object corresponding to the operation target for the timing determination process with a hit target such as a finger or a pointing device at the determination reference timing of the moving object such as the pointing marker. Do. When it is determined that the hit object hits the virtual display object corresponding to the operation target (when it is determined that the hit object has been touched), a game calculation process such as adding a player's score, points, or the like is performed. Will be done.

2.4 野球ゲームへの適用例
次に野球ゲームへの適用例について説明する。図20、図21は本実施形態の手法を野球ゲームに適用した場合に生成される画像の例である。図20では、メイン表示部190Mには、投手キャラクタCHPが打者キャラクタCHBに対してボールBL(広義には移動体)を投げる場面の画像が表示されている。またメイン表示部190Mには、判定基準エリアARBも表示されており、サブ表示部190Sには、判定基準エリアARBに対応する操作入力エリアARIが表示されている。プレーヤは、この操作入力エリアARIのうち、ボールBLが飛んで来ると予想したコースの位置を、タッチペン30(広義にはポインティングデバイス)でタッチすることで、ボールBLを打つバッティング操作を行う。
2.4 Example of application to baseball game Next, an example of application to a baseball game will be described. 20 and 21 are examples of images generated when the method of this embodiment is applied to a baseball game. In FIG. 20, an image of a scene in which the pitcher character CHP throws the ball BL (moving body in a broad sense) against the batter character CHB is displayed on the main display portion 190M. The main display portion 190M also displays a determination criterion area ARB, and the sub display portion 190S displays an operation input area ARI corresponding to the determination criterion area ARB. The player performs a batting operation of hitting the ball BL by touching the position of the course in which the ball BL is predicted to fly in the operation input area ARI with the touch pen 30 (pointing device in a broad sense).

判定基準エリアARBは例えばホームベース上に設定されており、タッチペン30によりポインティングされる操作入力エリアARIの各ポインティング位置は、判定基準エリアARBの各位置に対応している。例えば操作入力エリアARIの右上位置をタッチすると、判定基準エリアARBの右上位置が指示され、操作入力エリアARIの左下位置をタッチすると、判定基準エリアARBの左下位置が指示される。   The determination reference area ARB is set, for example, on the home base, and each pointing position of the operation input area ARI pointed by the touch pen 30 corresponds to each position of the determination reference area ARB. For example, when the upper right position of the operation input area ARI is touched, the upper right position of the determination reference area ARB is instructed, and when the lower left position of the operation input area ARI is touched, the lower left position of the determination reference area ARB is instructed.

そして図20のようにボールBLが判定基準エリアARBを通過する際に、ボールBLの画像は視差がゼロの画像になっている。即ち、ボールBLは、判定基準タイミングにおいて判定基準エリアARBを通過するように制御され、その時にボールBLの画像は視差がゼロの画像になる。このため、プレーヤの眼には、判定基準エリアARBを境として、ボールBLが、スクリーンの奥側に引っ込んでいる状態からスクリーンの手前側に飛び出して来るように見える。従って、プレーヤは、ボールBLの画像の視差の無い状態がジャストタイミングであることを認識することができ、ボールBLを打つタイミングを容易に把握することが可能になる。これにより、プレーヤの操作インターフェース環境を向上できる。   When the ball BL passes through the determination reference area ARB as shown in FIG. 20, the image of the ball BL is an image with zero parallax. That is, the ball BL is controlled so as to pass through the determination reference area ARB at the determination reference timing, and the image of the ball BL becomes an image with zero parallax at that time. For this reason, it appears to the player's eyes that the ball BL jumps to the front side of the screen from the state of being retracted to the back side of the screen, with the determination reference area ARB as a boundary. Therefore, the player can recognize that the state without parallax in the image of the ball BL is the just timing, and can easily grasp the timing of hitting the ball BL. Thereby, the operation interface environment of the player can be improved.

なお図20では判定基準エリアARBと操作入力エリアARIはほぼ同じサイズになっているが、本実施形態はこれに限定されない。例えば操作入力エリアARIのサイズを変化させることで、プレーヤの操作入力の難易度の設定を行ってもよい。例えば操作入力エリアARIのサイズを判定基準エリアARBよりも小さくすることで、プレーヤの操作入力の難易度が高難易度に設定されるようにする。   In FIG. 20, the determination reference area ARB and the operation input area ARI are substantially the same size, but the present embodiment is not limited to this. For example, the difficulty level of the player's operation input may be set by changing the size of the operation input area ARI. For example, by making the size of the operation input area ARI smaller than the determination reference area ARB, the difficulty level of the player's operation input is set to a high difficulty level.

図21ではプレーヤは、ボールBLのコースが内角高めであると予想して、A1に示すように、タッチペン30(或いは指)を用いて、サブ表示部190Sの操作入力エリアARIの右上の位置をタッチしている。また図21では、メイン表示部190MにはボールBLの通過後の画像が表示されており、プレーヤの指示位置表示用オブジェクトDOBと、ボール位置表示用オブジェクトPOBが表示されている。   In FIG. 21, the player expects the course of the ball BL to have a higher inner angle, and uses the touch pen 30 (or finger) to position the upper right position of the operation input area ARI of the sub display unit 190S as indicated by A1. Touching. In FIG. 21, an image after the ball BL has passed is displayed on the main display portion 190M, and the player's designated position display object DOB and the ball position display object POB are displayed.

指示位置表示用オブジェクトDOBは、プレーヤのヒット指示位置を知らせるためのオブジェクトであり、判定基準エリアARBの位置に表示される。即ち指示位置表示用オブジェクトDOBは、判定基準エリアARBと同じ奥行き位置(同じZ値)に配置されて表示される。そして図21ではプレーヤは、タッチペン30により、サブ表示部190Sの操作入力エリアARIの右上の位置をタッチしている。従って、メイン表示部190Mでは、判定基準エリアARBの右上の位置に指示位置表示用オブジェクトDOBが配置されて表示される。これによりプレーヤは、ボールBLの通過時に自分がどのコースをタッチしたのかを、指示位置表示用オブジェクトDOBを見ることで、事後的に確認できるようになる。   The designated position display object DOB is an object for informing the player's hit designated position, and is displayed at the position of the determination reference area ARB. That is, the indication position display object DOB is arranged and displayed at the same depth position (same Z value) as the determination reference area ARB. In FIG. 21, the player touches the upper right position of the operation input area ARI of the sub display unit 190S with the touch pen 30. Therefore, in the main display portion 190M, the indicated position display object DOB is arranged and displayed at the upper right position of the determination reference area ARB. Thus, the player can later confirm which course he / she touched when passing the ball BL by looking at the indicated position display object DOB.

またボール位置表示用オブジェクトPOB(広義には移動体位置表示用オブジェクト)は、プレーヤがヒット指示位置を指示した入力タイミングでのボールBLの位置をプレーヤに知らせるためのオブジェクトである。例えばボール位置表示用オブジェクトPOBは、プレーヤの入力タイミングでのボールBLの位置に配置されて表示される。   The ball position display object POB (moving body position display object in a broad sense) is an object for informing the player of the position of the ball BL at the input timing when the player has indicated the hit instruction position. For example, the ball position display object POB is arranged and displayed at the position of the ball BL at the input timing of the player.

そして図21では、プレーヤがタッチペン30でヒット指示位置を指示した入力タイミングにおいて、ボールBLのコースは真ん中であり、判定基準エリアARBの真ん中付近をボールBLが通過している。従って、ボール位置表示用オブジェクトPOBは真ん中付近に配置されて表示される。これによりプレーヤは、自分が操作入力を行いバットを振ったタイミングでのボールBLの位置を、事後的に確認することが可能になる。   In FIG. 21, the course of the ball BL is in the middle at the input timing when the player designates the hit instruction position with the touch pen 30, and the ball BL passes through the middle of the determination reference area ARB. Accordingly, the ball position display object POB is arranged and displayed near the center. As a result, the player can later confirm the position of the ball BL at the timing when the player inputs the operation and swings the bat.

そしてプレーヤは、指示位置表示用オブジェクトDOBとボール位置表示用オブジェクトPOBの位置関係を見ることで、入力タイミングでのヒット位置とボール位置のズレを確認できる。例えば図21では、指示位置表示用オブジェクトDOBとボール位置表示用オブジェクトPOBの位置のずれは比較的大きい。従って、プレーヤは、図21では、自身の指示位置がボールBLのコースと、あまり合っていなかったことを、事後的に確認することが可能になる。これにより、野球ゲームに好適なインターフェース環境をプレーヤに提供できる。   The player can confirm the shift between the hit position and the ball position at the input timing by looking at the positional relationship between the designated position display object DOB and the ball position display object POB. For example, in FIG. 21, the displacement between the designated position display object DOB and the ball position display object POB is relatively large. Therefore, in FIG. 21, the player can later confirm that his / her designated position does not match the course of the ball BL. Thereby, an interface environment suitable for a baseball game can be provided to the player.

また図21では、判定基準エリアARBを含むヒット判定ボリュームHVが設定されている。そしてプレーヤがタッチペン30で操作入力エリアARIをタッチした入力タイミングにおいて、ヒット判定ボリュームHV内にボールBLが位置していた場合には、バッティングに成功してバットにボールが当たったと判定される。そして入力タイミングにおけるボールBLの位置や、操作入力エリアARIでのタッチ位置とボールBLの通過位置との関係に基づいて、ボールBLのヒット強さやヒット方向などが設定されるようになる。   In FIG. 21, the hit determination volume HV including the determination reference area ARB is set. When the ball BL is positioned in the hit determination volume HV at the input timing when the player touches the operation input area ARI with the touch pen 30, it is determined that the batting is successful and the ball hits the bat. The hit strength and hit direction of the ball BL are set based on the position of the ball BL at the input timing and the relationship between the touch position in the operation input area ARI and the passing position of the ball BL.

2.5 詳細な処理例
次に本実施形態の詳細な処理例について図22、図23のフローチャートを用いて説明する。
2.5 Detailed Processing Example Next, a detailed processing example of the present embodiment will be described with reference to the flowcharts of FIGS.

図22は、本実施形態の全体的な処理の詳細を説明するためのフローチャートである。まず、タイミングデータ記憶部174から、図5で説明したような判定基準タイミングTMB1〜TMBNのデータを読み出す(ステップS1)。そしてフレーム更新のタイミングか否かを判断する(ステップS2)。   FIG. 22 is a flowchart for explaining the details of the overall processing of this embodiment. First, data of determination reference timings TMB1 to TMBN as described with reference to FIG. 5 is read from the timing data storage unit 174 (step S1). Then, it is determined whether or not it is a frame update timing (step S2).

フレーム更新のタイミングであった場合には、指示マーカ、ボール等の移動体の移動処理を行う(ステップS3)。例えば視点側から見て奥側から手前側に移動体を移動させる処理を行う。また入力タイミングTMIを取得する(ステップS4)。図8等を例にとれば、プレーヤがタッチペン30や指でサブ表示部190Sをタッチしたタイミングを取得する。   If it is the frame update timing, the moving process of the moving body such as the pointing marker and the ball is performed (step S3). For example, a process of moving the moving body from the back side to the near side when viewed from the viewpoint side is performed. Also, the input timing TMI is acquired (step S4). Taking FIG. 8 as an example, the timing at which the player touches the sub display unit 190S with the touch pen 30 or the finger is acquired.

次に、判定基準タイミングTMBm(1≦m≦N)と入力タイミングTMIを比較する(ステップS5)。そしてTD=|TMBm−TMI|≦TR/2であるか否かを判断する(ステップS6)。即ち図6(A)〜図6(C)等で説明したように、入力タイミングTMIが、判定基準タイミングTMBmを基準とした許容期間TR内に収まっているか否かを判断する。そして、TD=|TMBm−TMI|≦TR/2である場合には、入力タイミングTMIが許容期間TR内に収まっていると判断して、入力成功と判定し、ゲーム成績演算処理、移動体の表示制御処理、ゲーム演出処理などのゲーム演算処理を実行する(ステップS7)。   Next, the judgment reference timing TMBm (1 ≦ m ≦ N) is compared with the input timing TMI (step S5). It is then determined whether TD = | TMBm−TMI | ≦ TR / 2 (step S6). That is, as described with reference to FIGS. 6A to 6C and the like, it is determined whether or not the input timing TMI is within the allowable period TR based on the determination reference timing TMBm. When TD = | TMBm−TMI | ≦ TR / 2, it is determined that the input timing TMI is within the allowable period TR, it is determined that the input is successful, the game result calculation process, Game calculation processes such as a display control process and a game effect process are executed (step S7).

次に、基準スクリーンにオブジェクトを透視投影して描画することで、左眼用仮想カメラから見える左眼用画像を生成する(ステップS8)。また、基準スクリーンにオブジェクトを透視投影して描画することで、右眼用仮想カメラから見える右眼用画像を生成する(ステップS9)。これにより、立体視用画像である左目用画像、右目用画像が生成される。例えば、判定基準タイミングにおいて基準スクリーンを通過するように移動体を制御すると共に、基準スクリーンに対して移動体のオブジェクトを透視投影して描画することで、判定基準タイミングにおいて移動体の画像の視差が無くなる立体視用画像が生成されるようになる。   Next, an image for the left eye that can be seen from the virtual camera for the left eye is generated by perspective-projecting and drawing the object on the reference screen (step S8). In addition, the right-eye image that can be seen from the virtual camera for the right eye is generated by perspective-projecting and drawing the object on the reference screen (step S9). Thereby, a left-eye image and a right-eye image that are stereoscopic images are generated. For example, the moving object is controlled so as to pass through the reference screen at the determination reference timing, and the object of the moving object is perspective-projected and drawn on the reference screen so that the parallax of the image of the moving object is determined at the determination reference timing. A stereoscopic image that disappears is generated.

図23は、本実施形態の手法を音楽ゲームに適用した場合の評価処理の詳細を説明するためのフローチャートである。   FIG. 23 is a flowchart for explaining the details of the evaluation process when the method of this embodiment is applied to a music game.

まず、TD=|TMBm−TMI|≦TTHか否かを判断する(ステップS11)。ここでTTHは、評価処理のしきい値であり、TD=|TMBm−TMI|≦TTHである場合には、判定基準タイミングTMBmと入力タイミングTMIは一致(合致)しているものと見なされる。そして、TD=|TMBm−TMI|≦TTHである場合には、入力の評価結果は「良」であると判定する(ステップS12)。そして図12(A)、図12(B)で説明したように、基準スクリーンよりも手前側に評価結果表示用オブジェクトを配置する(ステップS13)。これにより、「良」の評価結果を表す評価表示用オブジェクトが画面から飛び出して見える立体視用画像が生成されるようになる。   First, it is determined whether TD = | TMBm−TMI | ≦ TTH (step S11). Here, TTH is a threshold value of the evaluation process, and when TD = | TMBm−TMI | ≦ TTH, it is considered that the determination reference timing TMBm and the input timing TMI coincide with each other. If TD = | TMBm−TMI | ≦ TTH, it is determined that the input evaluation result is “good” (step S12). Then, as described with reference to FIGS. 12A and 12B, the evaluation result display object is arranged in front of the reference screen (step S13). As a result, a stereoscopic image in which an evaluation display object representing the evaluation result of “good” appears to pop out from the screen is generated.

一方、TD=|TMBm−TMI|≦TTHではない場合には、TD=|TMBm−TMI|≦TR/2であるか否かを判断する(ステップS14)。ここでTRは、操作入力が成功か否かを判断するための許容期間である。そしてTD=|TMBm−TMI|≦TR/2である場合には、入力タイミングTMIが許容期間TR内に収まっているため、入力の評価結果は「可」であると判定する(ステップS15)。そして、図13(A)、図13(B)で説明したように、基準スクリーンの位置に評価結果表示用オブジェクトを配置する(ステップS16)。   On the other hand, when TD = | TMBm−TMI | ≦ TTH is not satisfied, it is determined whether TD = | TMBm−TMI | ≦ TR / 2 (step S14). Here, TR is an allowable period for determining whether or not the operation input is successful. If TD = | TMBm−TMI | ≦ TR / 2, since the input timing TMI is within the allowable period TR, it is determined that the input evaluation result is “possible” (step S15). Then, as described in FIGS. 13A and 13B, the evaluation result display object is arranged at the position of the reference screen (step S16).

一方、TD=|TMBm−TMI|≦TR/2ではない場合には、入力の評価結果は「不可」であると判定する(ステップS17)。そして図14(A)、図14(B)で説明したように、基準スクリーンの奥側に評価結果表示用オブジェクトを配置する(ステップS18)。これにより、「不可」の評価結果を表す評価表示用オブジェクトが画面から奥側に引っ込んで見える立体視用画像が生成されるようになる。   On the other hand, if TD = | TMBm−TMI | ≦ TR / 2 is not satisfied, it is determined that the input evaluation result is “impossible” (step S17). Then, as described with reference to FIGS. 14A and 14B, an evaluation result display object is arranged on the back side of the reference screen (step S18). As a result, a stereoscopic image in which the evaluation display object representing the evaluation result of “impossible” appears to be pulled back from the screen is generated.

なお、上記のように本実施形態について詳細に説明したが、本発明の新規事項および効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本発明の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語(所定視差の画像、第1視点画像、第2視点画像、移動体等)と共に記載された用語(視差の無い画像、左眼用画像、右眼用画像、指示マーカ・ボール等)は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。また、タイミング判定手法、判定基準タイミングの設定手法、立体視用画像の生成手法、移動体の移動制御手法等も本実施形態で説明したものに限定されず、これらと均等な手法も本発明の範囲に含まれる。また本発明は種々のゲームに適用できる。また本発明は、業務用ゲームシステム、家庭用ゲームシステム、多数のプレーヤが参加する大型アトラクションシステム、シミュレータ、マルチメディア端末、ゲーム画像を生成するシステムボード、携帯電話等の種々の画像生成システムに適用できる。   Although the present embodiment has been described in detail as described above, it will be easily understood by those skilled in the art that many modifications can be made without departing from the novel matters and effects of the present invention. Accordingly, all such modifications are intended to be included in the scope of the present invention. For example, a term (an image without parallax, an image without parallax, left) described in the specification or drawings at least once with a broader or synonymous different term (an image with a predetermined parallax, a first viewpoint image, a second viewpoint image, a moving object, etc.) Ophthalmic images, right-eye images, pointing markers / balls, etc.) can be replaced by the different terms anywhere in the specification or drawings. Further, the timing determination method, the determination reference timing setting method, the stereoscopic image generation method, the moving object movement control method, and the like are not limited to those described in the present embodiment, and methods equivalent to these are also included in the present invention. Included in the range. The present invention can be applied to various games. Further, the present invention is applied to various image generation systems such as a business game system, a home game system, a large attraction system in which a large number of players participate, a simulator, a multimedia terminal, a system board for generating a game image, and a mobile phone. it can.

TMB1〜TMB5 判定基準タイミング、MOB、MOB1〜MOB3 移動体、
MK、MK1〜MK5 指示マーカ、SOB 評価表示用オブジェクト、
GOB ゲージ CHT 太鼓キャラクタ、TOB 太鼓、
ARB 判定基準エリア、ARI 操作入力エリア、
CHP 投手キャラクタ、CHB 打者キャラクタ、BL ボール、
DOB 指示位置表示用オブジェクト、POB ボール位置表示用オブジェクト、
HV ヒット判定ボリューム、
VCL 左眼用仮想カメラ、VCR 右眼用仮想カメラ、
SC スクリーン(基準スクリーン)、VVL 左眼用ビューボリューム、
VVR 右眼用ビューボリューム、CNL、CNR、CFL、CFR クリッピング面、
CM1、CM2、CM3 カメラ、
MKV 仮想指示マーカ、PL、プレーヤ、SP1、SP2 音出力部、
10 筺体、12 方向指示キー、14 アナログスティック、16 操作ボタン、
20 筺体、30 タッチペン、190M メイン表示部、190S サブ表示部、
100 処理部、102 ゲーム演算部、104 オブジェクト空間設定部、
106 移動体制御部、108 仮想カメラ制御部、110 判定部、
120 画像生成部、122 左眼用画像生成部、124 右眼用画像生成部、
170 記憶部、172 オブジェクトデータ記憶部、
174 タイミングデータ記憶部、178 描画バッファ、180 情報記憶媒体、
190 表示部、192 音出力部、194 補助記憶装置、196 通信部、
500 サーバシステム、510 ネットワーク、TM1〜TMn 端末装置、
600 処理部、602 ゲーム演算部、604 オブジェクト空間設定部、
606 移動体制御部、608 仮想カメラ制御部、610 判定部、
620 画像生成用データ生成部、630 音生成用データ生成部
TMB1-TMB5 judgment reference timing, MOB, MOB1-MOB3 mobile,
MK, MK1 to MK5 indicating marker, SOB evaluation display object,
GOB gauge CHT drum character, TOB drum,
ARB criteria area, ARI operation input area,
CHP pitcher character, CHB batter character, BL ball,
DOB indication position display object, POB ball position display object,
HV hit determination volume,
VCL virtual camera for left eye, virtual camera for VCR right eye,
SC screen (reference screen), VVL left eye view volume,
VVR Right eye view volume, CNL, CNR, CFL, CFR clipping plane,
CM1, CM2, CM3 camera,
MKV virtual instruction marker, PL, player, SP1, SP2 sound output unit,
10 housing, 12 direction instruction keys, 14 analog stick, 16 operation buttons,
20 housing, 30 touch pen, 190M main display section, 190S sub display section,
100 processing unit, 102 game calculation unit, 104 object space setting unit,
106 moving body control unit, 108 virtual camera control unit, 110 determination unit,
120 image generation units, 122 left-eye image generation units, 124 right-eye image generation units,
170 storage unit, 172 object data storage unit,
174 Timing data storage unit, 178 drawing buffer, 180 information storage medium,
190 display unit, 192 sound output unit, 194 auxiliary storage device, 196 communication unit,
500 server system, 510 network, TM1-TMn terminal device,
600 processing unit, 602 game calculation unit, 604 object space setting unit,
606 moving body control unit, 608 virtual camera control unit, 610 determination unit,
620 Image generation data generation unit, 630 Sound generation data generation unit

Claims (20)

移動体の制御を行う移動体制御部と、
前記移動体を用いたタイミング判定処理を行う判定部と、
立体視用画像を生成する画像生成部として、
コンピュータを機能させ、
前記画像生成部は、
前記タイミング判定処理に用いられる判定基準タイミングにおいて前記移動体の画像の視差が所定視差になるように、前記移動体が表示された立体視用画像を生成することを特徴とするプログラム。
A moving body control unit for controlling the moving body;
A determination unit that performs a timing determination process using the moving body;
As an image generation unit that generates a stereoscopic image,
Make the computer work,
The image generation unit
A program for generating a stereoscopic image on which the moving body is displayed so that a parallax of an image of the moving body becomes a predetermined parallax at a determination reference timing used in the timing determination process.
請求項1において、
前記判定基準タイミングのデータを記憶するタイミングデータ記憶部として、
コンピュータを機能させ、
前記判定部は、
前記タイミングデータ記憶部に記憶される前記判定基準タイミングのデータと、プレーヤの入力タイミングとに基づいて、前記タイミング判定処理を行うことを特徴とするプログラム。
In claim 1,
As a timing data storage unit for storing data of the determination reference timing,
Make the computer work,
The determination unit
A program for performing the timing determination process based on data of the determination reference timing stored in the timing data storage unit and an input timing of a player.
請求項2において、
ゲーム演算処理を行うゲーム演算部として、
コンピュータを機能させ、
前記判定部は、
前記タイミング判定処理として、前記入力タイミングと前記判定基準タイミングとのタイミング関係に基づく評価処理を行い、
前記ゲーム演算部は、
前記評価処理の結果に基づいて、前記ゲーム演算処理を行うことを特徴とするプログラム。
In claim 2,
As a game calculation unit for performing game calculation processing,
Make the computer work,
The determination unit
As the timing determination process, an evaluation process based on a timing relationship between the input timing and the determination reference timing is performed,
The game calculation unit
A program for performing the game calculation process based on a result of the evaluation process.
請求項3において、
前記ゲーム演算部は、
前記プレーヤのゲーム成績の演算処理、前記移動体の表示制御処理、及びゲーム演出処理の少なくとも1つを、前記評価処理の結果に基づく前記ゲーム演算処理として行うことを特徴とするプログラム。
In claim 3,
The game calculation unit
A program characterized in that at least one of a calculation process of game results of the player, a display control process of the moving body, and a game effect process is performed as the game calculation process based on the result of the evaluation process.
請求項3又は4において、
前記画像生成部は、
前記評価処理の結果を表示する評価表示用オブジェクトの画像として、前記評価結果に応じて視差の度合いが変化する画像が表示された立体視用画像を生成することを特徴とするプログラム。
In claim 3 or 4,
The image generation unit
A program for generating a stereoscopic image in which an image in which a degree of parallax is changed according to the evaluation result is generated as an image of an evaluation display object for displaying the result of the evaluation process.
請求項1乃至5のいずれかにおいて、
前記画像生成部は、
前記タイミング判定処理に用いられる判定基準タイミングにおいて前記移動体の画像の視差が無くなるように、前記移動体が表示された立体視用画像を生成することを特徴とするプログラム。
In any one of Claims 1 thru | or 5,
The image generation unit
A program for generating a stereoscopic image on which a moving object is displayed so that parallax of the image of the moving object is eliminated at a determination reference timing used in the timing determination process.
請求項1乃至6のいずれかにおいて、
前記画像生成部は、
前記入力タイミングと前記判定基準タイミングとのタイミング差に応じて、前記移動体の画像の視差が変化する立体視用画像を生成することを特徴とするプログラム。
In any one of Claims 1 thru | or 6.
The image generation unit
A program for generating a stereoscopic image in which a parallax of an image of the moving object changes according to a timing difference between the input timing and the determination reference timing.
請求項1乃至7のいずれかにおいて、
前記画像生成部は、
前記タイミング判定処理に用いられる判定基準タイミングにおいて前記移動体の画像の視差が無くなるように、前記移動体が表示された立体視用画像を生成すると共に、
前記タイミング判定処理においてプレーヤの入力タイミングが前記判定基準タイミングと合致したと判定され、前記プレーヤの入力が成功であると判定された場合には、ゲーム演出効果表示用オブジェクトの画像として、視差のある画像が表示された立体視用画像を生成することを特徴とするプログラム。
In any one of Claims 1 thru | or 7,
The image generation unit
Generating a stereoscopic image on which the moving body is displayed so that there is no parallax in the image of the moving body at the determination reference timing used in the timing determination process;
If it is determined in the timing determination process that the input timing of the player matches the determination reference timing and it is determined that the input of the player is successful, there is a parallax as an image of the game effect display object A program for generating a stereoscopic image on which an image is displayed.
請求項1乃至8のいずれかにおいて、
前記移動体は、プレーヤが入力すべきタイミングを指示する指示マーカであり、
前記判定部は、
前記指示マーカで指示されたタイミングで前記プレーヤが入力を行った場合に、前記プレーヤの入力タイミングと前記判定基準タイミングとの合致判定処理を、前記タイミング判定処理として行うことを特徴とするプログラム。
In any one of Claims 1 thru | or 8.
The moving body is an instruction marker that indicates the timing to be input by the player,
The determination unit
A program characterized in that, when the player performs an input at a timing indicated by the indication marker, a match determination process between the input timing of the player and the determination reference timing is performed as the timing determination process.
請求項9において、
前記画像生成部は、
前記指示マーカについては、前記判定基準タイミングにおいて視差の無い画像が表示され、前記プレーヤの入力が行われたことを示す入力動作表示用オブジェクトについては、視差のある画像が表示された立体視用画像を生成することを特徴とするプログラム。
In claim 9,
The image generation unit
For the indication marker, an image without parallax is displayed at the determination reference timing, and for an input action display object indicating that an input has been made by the player, a stereoscopic image in which an image with parallax is displayed A program characterized by generating
請求項1乃至10のいずれかにおいて、
前記移動体制御部は、
視点側から見て奥側から手前側に前記移動体を移動させる制御を行うことを特徴とするプログラム。
In any one of Claims 1 thru | or 10.
The mobile control unit is
A program for performing control to move the moving body from the back side to the near side when viewed from the viewpoint side.
請求項1乃至11のいずれかにおいて、
前記移動体制御部は、
前記判定基準タイミングにおいて、入力すべきタイミングをプレーヤに知らせるための判定基準エリアを前記移動体が通過するように、前記移動体を移動させる制御を行うことを特徴とするプログラム。
In any one of Claims 1 thru | or 11,
The mobile control unit is
In the determination reference timing, a program for performing control for moving the moving body so that the moving body passes through a determination reference area for notifying a player of a timing to be input.
請求項12において、
前記画像生成部は、
前記判定基準エリアに対応する位置に設定された基準スクリーンに対して前記移動体のオブジェクトを透視投影して描画することで、前記判定基準タイミングにおいて前記移動体の画像の視差が無くなる立体視用画像を生成することを特徴とするプログラム。
In claim 12,
The image generation unit
A stereoscopic image in which parallax of the image of the moving object is eliminated at the determination reference timing by perspectively projecting and drawing the object of the moving object on a reference screen set at a position corresponding to the determination reference area A program characterized by generating
請求項1乃至13のいずれかにおいて、
前記画像生成部は、
前記判定基準タイミングにおいて前記移動体の色、形状及びサイズの少なくとも1つが変化する立体視用画像を生成することを特徴とするプログラム。
In any one of Claims 1 thru | or 13.
The image generation unit
A program for generating a stereoscopic image in which at least one of a color, a shape, and a size of the moving body changes at the determination reference timing.
請求項1乃至14のいずれかにおいて、
音を生成する音生成部として、
コンピュータを機能させ、
前記音生成部は、
前記移動体の視差に応じて、音像定位が変化する音を生成することを特徴とするプログラム。
In any one of Claims 1 thru | or 14.
As a sound generator that generates sound,
Make the computer work,
The sound generator is
A program for generating a sound whose sound image localization changes according to the parallax of the moving body.
請求項1乃至15のいずれかにおいて、
前記判定部は、
前記移動体又はタイミング判定処理用の操作対象物に対応する仮想的な表示物であって前記立体視用画像に基づき表示部の表示画面側空間に仮想表示される仮想表示物と、現実空間の被ヒット体とのヒット判定処理を行うことを特徴とするプログラム。
In any one of Claims 1 thru | or 15,
The determination unit
A virtual display object corresponding to the moving object or the operation target object for timing determination processing, which is virtually displayed on the display screen side space of the display unit based on the stereoscopic image, and a real space A program characterized by performing hit determination processing with a hit object.
請求項16において、
前記判定部は、
前記仮想表示物と前記被ヒット体とのヒット判定処理を、プレーヤを撮影する撮像部からの撮像情報に基づいて行うことを特徴とするプログラム。
In claim 16,
The determination unit
A program for performing a hit determination process between the virtual display object and the hit object based on imaging information from an imaging unit that images a player.
コンピュータ読み取り可能な情報記憶媒体であって、請求項1乃至17のいずれかに記載のプログラムを記憶したことを特徴とする情報記憶媒体。   A computer-readable information storage medium, wherein the program according to any one of claims 1 to 17 is stored. 移動体の制御を行う移動体制御部と、
前記移動体を用いたタイミング判定処理を行う判定部と、
立体視用画像を生成する画像生成部と、
を含み、
前記画像生成部は、
前記タイミング判定処理に用いられる判定基準タイミングにおいて前記移動体の画像の視差が無くなるように、前記移動体が表示された立体視用画像を生成することを特徴とする画像生成システム。
A moving body control unit for controlling the moving body;
A determination unit that performs a timing determination process using the moving body;
An image generator for generating a stereoscopic image;
Including
The image generation unit
An image generation system for generating a stereoscopic image on which the moving body is displayed so that parallax of the image of the moving body is eliminated at a determination reference timing used in the timing determination process.
移動体の制御を行う移動体制御部と、
前記移動体を用いたタイミング判定処理を行う判定部と、
立体視用画像を生成するための画像生成用データを生成する画像生成用データ生成部と、
を含み、
前記画像生成用データ生成部は、
前記タイミング判定処理に用いられる判定基準タイミングにおいて前記移動体の画像の視差が無くなるように、前記移動体が表示された立体視用画像を生成するための画像生成用データを生成することを特徴とするサーバシステム。
A moving body control unit for controlling the moving body;
A determination unit that performs a timing determination process using the moving body;
An image generation data generation unit for generating image generation data for generating a stereoscopic image;
Including
The image generation data generation unit includes:
Generating image generation data for generating a stereoscopic image on which the moving object is displayed so that parallax of the image of the moving object is eliminated at a determination reference timing used in the timing determination process. Server system.
JP2010294528A 2010-12-29 2010-12-29 Program, information storage medium, image generation system and server system Pending JP2012141826A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010294528A JP2012141826A (en) 2010-12-29 2010-12-29 Program, information storage medium, image generation system and server system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010294528A JP2012141826A (en) 2010-12-29 2010-12-29 Program, information storage medium, image generation system and server system

Publications (1)

Publication Number Publication Date
JP2012141826A true JP2012141826A (en) 2012-07-26

Family

ID=46678051

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010294528A Pending JP2012141826A (en) 2010-12-29 2010-12-29 Program, information storage medium, image generation system and server system

Country Status (1)

Country Link
JP (1) JP2012141826A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015100481A (en) * 2013-11-22 2015-06-04 株式会社コナミデジタルエンタテインメント Game machine, and control method and computer program used therefor
JP2016047193A (en) * 2014-08-28 2016-04-07 株式会社スクウェア・エニックス Video game processing program, video game processor, and video game processing system
JP6190497B1 (en) * 2016-07-13 2017-08-30 株式会社コロプラ Information processing method and program for causing computer to execute information processing method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015100481A (en) * 2013-11-22 2015-06-04 株式会社コナミデジタルエンタテインメント Game machine, and control method and computer program used therefor
JP2016047193A (en) * 2014-08-28 2016-04-07 株式会社スクウェア・エニックス Video game processing program, video game processor, and video game processing system
JP6190497B1 (en) * 2016-07-13 2017-08-30 株式会社コロプラ Information processing method and program for causing computer to execute information processing method
JP2018010480A (en) * 2016-07-13 2018-01-18 株式会社コロプラ Information processing method and program for causing computer to execute the information processing method

Similar Documents

Publication Publication Date Title
JP4917664B1 (en) Image display device, game program, and game control method
JP5148652B2 (en) Program, information storage medium, and image generation system
WO2018124280A1 (en) Simulation system, image processing method, and information storage medium
JP5627973B2 (en) Program, apparatus, system and method for game processing
JP2012058968A (en) Program, information storage medium and image generation system
JP2012212237A (en) Image generation system, server system, program, and information storage medium
WO2019155889A1 (en) Simulation system, processing method, and information storage medium
WO2014050974A1 (en) Display device, control system, and control programme
JP2019152899A (en) Simulation system and program
JP2019139424A (en) Simulation system and program
JP2012141820A (en) Program, information storage medium, image generation system and server system
JP2012181616A (en) Program, information storage medium, game device and server system
JP2012101025A (en) Program, information storage medium, game device, and server system
JP2012106005A (en) Image display device, game program, and game control method
JP5620202B2 (en) Program, information storage medium, and image generation system
US20220377313A1 (en) Information processing apparatus, information processing method, and program
JP2012141826A (en) Program, information storage medium, image generation system and server system
JP5649846B2 (en) Program and image generation system
JP2002300611A (en) Image generating device, program, and information recording medium
JP7044426B1 (en) Image compositing device, image compositing method, and program
JP6808896B2 (en) Display control device, display control system, and program
JP5816435B2 (en) Display control program, display control apparatus, display control system, and display control method
WO2022145414A1 (en) Image compositing device, image compositing method, and program
JP5456820B2 (en) Game device
JP6962579B2 (en) Display control device, display control system, and program