JP2011212270A - Program, information storage medium and image generation system - Google Patents
Program, information storage medium and image generation system Download PDFInfo
- Publication number
- JP2011212270A JP2011212270A JP2010083890A JP2010083890A JP2011212270A JP 2011212270 A JP2011212270 A JP 2011212270A JP 2010083890 A JP2010083890 A JP 2010083890A JP 2010083890 A JP2010083890 A JP 2010083890A JP 2011212270 A JP2011212270 A JP 2011212270A
- Authority
- JP
- Japan
- Prior art keywords
- information
- curved surface
- virtual camera
- image
- information display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Processing Or Creating Images (AREA)
Abstract
Description
本発明は、プログラム、情報記憶媒体及び画像生成システム等に関する。 The present invention relates to a program, an information storage medium, an image generation system, and the like.
近年、映画等の分野において、より臨場感が溢れる画像を生成するシステムとして、立体視画像の生成システムが脚光を浴びている。この立体視画像の生成システムでは、左目用カメラから見える左目用画像と右目用カメラから見える右目用画像を生成する。そしてプレーヤが立体視用の眼鏡を装着して、左目は左目用画像のみを見て、右目は右目用画像のみを見るようにすることで、立体視を実現する。このような立体視を実現する画像生成システムの従来技術としては、例えば特許文献1に開示される技術がある。 In recent years, in the field of movies and the like, a stereoscopic image generation system has been spotlighted as a system for generating an image with more realistic presence. In this stereoscopic image generation system, a left-eye image seen from the left-eye camera and a right-eye image seen from the right-eye camera are generated. The player wears stereoscopic glasses, and the left eye sees only the left-eye image, and the right eye sees only the right-eye image, thereby realizing stereoscopic viewing. As a conventional technique of an image generation system that realizes such a stereoscopic view, there is a technique disclosed in Patent Document 1, for example.
このような立体視を利用してゲーム画像を生成すれば、プレーヤは、ゲームフィールドに配置される各オブジェクトの3次元的な位置関係を容易に把握することが可能になる。即ち、立体視ではない通常の疑似3次元ゲームでは、3次元空間に3次元形状のオブジェクトを配置して描画しているのにもかかわらず、表示される最終的な画像は、これらの3次元オブジェクトをスクリーンに透視投影変換することで生成される疑似3次元画像になってしまう。そして、この疑似3次元画像では、立体視画像に比べて、各オブジェクトの奥行き方向での位置関係を把握することが難しい。このため、プレーヤがキャラクタを操作してゲームフィールド上で移動させる場合に、キャラクタをスムーズに移動させることが難しいという課題がある。例えば第1のオブジェクトと、第1のオブジェクトよりも視点から見て奥側にある第2のオブジェクトとの間に、道が存在したとする。この場合に疑似3次元像では、プレーヤは、その道の奥行き方向での位置を上手く把握することができないため、キャラクタをその道に沿って移動させる操作が難しくなってしまう。 If a game image is generated using such a stereoscopic view, the player can easily grasp the three-dimensional positional relationship of each object arranged in the game field. That is, in a normal pseudo three-dimensional game that is not stereoscopic, a final image to be displayed is displayed in spite of the fact that a three-dimensional object is arranged and drawn in a three-dimensional space. This results in a pseudo three-dimensional image generated by performing perspective projection transformation on the object. In this pseudo three-dimensional image, it is difficult to grasp the positional relationship of each object in the depth direction as compared to a stereoscopic image. For this reason, when the player operates the character to move it on the game field, there is a problem that it is difficult to move the character smoothly. For example, it is assumed that a road exists between the first object and the second object that is on the back side as viewed from the viewpoint of the first object. In this case, in the pseudo three-dimensional image, the player cannot grasp the position in the depth direction of the road, so that it becomes difficult to move the character along the road.
これに対して立体視画像では、このような第1、第2のオブジェクトの間に存在する道の奥行き方向での位置を容易に把握できる。従って、プレーヤによるキャラクタの移動操作が容易になり、3次元空間内でのキャラクタのスムーズな移動が可能になる。 On the other hand, in the stereoscopic image, the position in the depth direction of the road existing between the first and second objects can be easily grasped. Accordingly, the player can easily move the character, and the character can be smoothly moved in the three-dimensional space.
一方、立体視を利用してゲーム画像を生成する場合においても、例えばプレーヤが操作するキャラクタの体力や、キャラクタの装備アイテムや、キャラクタが移動するマップの情報などを、ゲーム画面上に表示する必要がある。 On the other hand, even when a game image is generated using stereoscopic vision, for example, the physical strength of the character operated by the player, the equipment items of the character, information on the map on which the character moves, and the like need to be displayed on the game screen. There is.
そして、上述の疑似3次元画像のゲームでは、これらの情報を表示するオブジェクト(スプライト)を、スクリーンの2次元座標で描画する。即ち、3次元のオブジェクト空間内において仮想カメラから見える画像を描画して、疑似3次元画像を生成した後に、この疑似3次元画像に対して、スクリーンの2次元画像で描画した2次元の情報表示オブジェクトを合成して、最終的なゲーム画像を生成する。 In the above-described pseudo three-dimensional image game, an object (sprite) for displaying such information is drawn with the two-dimensional coordinates of the screen. In other words, an image that can be viewed from a virtual camera in a three-dimensional object space is drawn, and a pseudo three-dimensional image is generated. Combine the objects to generate the final game image.
しかしながら、このような情報表示オブジェクトの2次元描画手法を、立体視のゲーム画像にそのまま適用すると、プレーヤにとって不自然な画像が生成されてしまうおそれがある。つまり、ゲーム画像の方は、疑似3次元画像ではない立体視画像で表示されるのに、体力ゲージ等の情報表示オブジェクトは、スクリーンの位置に平面的な画像で表示されるようになってしまう。従って、3次元的な立体視の世界において、平面的な情報表示オブジェクトがスクリーンに張り付いているかのように見えるため、立体視のリアル感を阻害してしまう。そして情報表示オブジェクトの平面的な表示が原因で、ディスプレイのスクリーンの存在をプレーヤに感じさせてしまう結果になり、プレーヤの仮想現実感が損なわれてしまう。 However, if such a two-dimensional rendering method of the information display object is applied to a stereoscopic game image as it is, an image unnatural for the player may be generated. That is, the game image is displayed as a stereoscopic image that is not a pseudo three-dimensional image, but an information display object such as a physical strength gauge is displayed as a planar image at the position of the screen. . Therefore, in the world of three-dimensional stereoscopic vision, a planar information display object looks as if it is sticking to the screen, which impairs the realism of stereoscopic vision. Further, the planar display of the information display object causes the player to feel the presence of the display screen, and the virtual reality of the player is impaired.
本発明の幾つかの態様によれば、立体視に好適な表示態様での情報表示オブジェクトの表示を可能にするプログラム、情報記憶媒体、画像生成システム等を提供できる。 According to some embodiments of the present invention, it is possible to provide a program, an information storage medium, an image generation system, and the like that enable display of an information display object in a display mode suitable for stereoscopic viewing.
本発明の一態様は、複数のオブジェクトが配置されるオブジェクト空間の設定処理を行うオブジェクト空間設定部と、仮想カメラの制御を行う仮想カメラ制御部と、画像を生成する画像生成部とを含み、前記オブジェクト空間設定部は、前記オブジェクト空間において、曲率中心が前記仮想カメラ側にある湾曲面上に、観者に情報を表示するための情報表示オブジェクトを配置設定し、前記画像生成部は、前記オブジェクト空間において左目用仮想カメラから見える画像である左目用画像と、前記オブジェクト空間において右目用仮想カメラから見える画像である右目用画像とを生成して、前記情報表示オブジェクトが立体視表示される画像を生成する画像生成システムに関係する。また本発明は、上記各部としてコンピュータを機能させるプログラム、又は該プログラムを記憶したコンピュータ読み取り可能な情報記憶媒体に関係する。 One aspect of the present invention includes an object space setting unit that performs an object space setting process in which a plurality of objects are arranged, a virtual camera control unit that controls a virtual camera, and an image generation unit that generates an image. The object space setting unit sets and arranges an information display object for displaying information to a viewer on a curved surface having a center of curvature on the virtual camera side in the object space, and the image generation unit An image in which the information display object is stereoscopically displayed by generating a left-eye image that is an image seen from the left-eye virtual camera in the object space and a right-eye image that is an image seen from the right-eye virtual camera in the object space Relates to an image generation system for generating The present invention also relates to a program that causes a computer to function as each of the above-described units, or a computer-readable information storage medium that stores the program.
本発明の一態様によれば、オブジェクト空間に設定された湾曲面上に、観者に情報を表示するための情報表示オブジェクトが配置設定される。この湾曲面は、例えばその曲率中心が仮想カメラ側にある曲面になっている。そして本発明の一態様によれば、このように湾曲面上に情報表示オブジェクトが配置設定された状態で、オブジェクト空間において左目用仮想カメラから見える画像である左目用画像と、右目用仮想カメラから見える画像である右目用画像が生成されて、湾曲面上の位置に情報表示オブジェクトが立体視表示される画像が生成される。このようにすれば、スクリーン上の座標だけを用いて情報表示オブジェクトを描画する手法に比べて、観者から見て自然に見える情報表示オブジェクトの表示が可能になり、立体視に好適な表示態様での情報表示オブジェクトの表示が可能になる。 According to one aspect of the present invention, an information display object for displaying information to the viewer is arranged and set on the curved surface set in the object space. This curved surface is, for example, a curved surface whose center of curvature is on the virtual camera side. According to one aspect of the present invention, in the state where the information display object is arranged and set on the curved surface in this way, the left-eye image that is an image seen from the left-eye virtual camera in the object space, and the right-eye virtual camera A right-eye image that is a visible image is generated, and an image in which the information display object is stereoscopically displayed at a position on the curved surface is generated. In this way, it is possible to display an information display object that looks natural when viewed from the viewer, compared to a method of drawing an information display object using only coordinates on the screen, and a display mode suitable for stereoscopic viewing. The information display object can be displayed on the screen.
また本発明の一態様では、前記オブジェクト空間設定部は、前記観者であるプレーヤに、ゲームに関する情報を表示するための前記情報表示オブジェクトを、前記オブジェクト空間の前記湾曲面上に配置設定してもよい。 In the aspect of the invention, the object space setting unit may place and set the information display object for displaying information about the game on the curved surface of the object space for the player who is the viewer. Also good.
このようにすれば、立体視ゲームに好適な表示態様での情報表示オブジェクトの表示が可能になる。なおゲームに関する情報は、ゲームに登場するキャラクタの情報や、プレーヤのゲーム状況を表す情報などである。 This makes it possible to display the information display object in a display mode suitable for a stereoscopic game. Information relating to the game includes information on characters appearing in the game, information indicating the game situation of the player, and the like.
また本発明の一態様では、前記情報表示オブジェクトは、前記プレーヤが操作するキャラクタのステータス情報を表示するためのオブジェクト、前記キャラクタの装備アイテムの情報を表示するためのオブジェクト、及び前記オブジェクト空間のマップ情報を表示するためのオブジェクトの少なくとも1つを含んでもよい。 In one aspect of the present invention, the information display object includes an object for displaying status information of a character operated by the player, an object for displaying information on equipment items of the character, and a map of the object space. It may include at least one object for displaying information.
なお、ゲームに関する情報を表示する情報表示オブジェクトは、これらのオブジェクトに限定されるものではない。 Note that the information display objects for displaying information related to the game are not limited to these objects.
また本発明の一態様では、前記オブジェクト空間設定部は、前記情報表示オブジェクトとして、3次元形状のオブジェクトを、前記オブジェクト空間の前記湾曲面上に配置設定してもよい。 In the aspect of the invention, the object space setting unit may place and set a three-dimensional object on the curved surface of the object space as the information display object.
このようにすれば、湾曲面上に立体的に配置された情報表示オブジェクトが、その3次元形状により立体的に見えるようになるため、これまでにないインターフェース環境を観者に提供できる。 In this way, the information display object arranged three-dimensionally on the curved surface can be seen three-dimensionally due to its three-dimensional shape, so that an unprecedented interface environment can be provided to the viewer.
また本発明の一態様では、前記オブジェクト空間設定部は、各湾曲面上に前記情報表示オブジェクトが配置設定され、前記仮想カメラからの距離が互いに異なる第1〜第N(Nは2以上の整数)の湾曲面を設定してもよい。 In the aspect of the invention, the object space setting unit may include the first to Nth (N is an integer of 2 or more) in which the information display object is arranged and set on each curved surface and the distance from the virtual camera is different from each other. ) May be set.
このように複数の第1〜第Nの湾曲面を設定して、各湾曲面に情報表示オブジェクトを配置設定すれば、これまでは実現できなかったインターフェース環境を観者に提供できるようになる。 If a plurality of first to Nth curved surfaces are set in this way and an information display object is arranged and set on each curved surface, an interface environment that could not be realized so far can be provided to the viewer.
また本発明の一態様では、前記オブジェクト空間設定部は、前記観者からの入力情報に基づいて、前記第1〜第Nの湾曲面に配置設定される情報表示オブジェクトを、前記仮想カメラからの距離が異なる位置に移動する並び替え処理を行ってもよい。 In the aspect of the invention, the object space setting unit may receive information display objects arranged and set on the first to Nth curved surfaces from the virtual camera based on input information from the viewer. You may perform the rearrangement process which moves to the position where distance differs.
このようにすれば、観者からの入力情報により、情報表示オブジェクトの配置位置が並び替えられるようになるため、観者にとって使い易いインターフェース環境を提供できる。 In this way, the arrangement position of the information display object can be rearranged according to the input information from the viewer, so that an interface environment that is easy for the viewer to use can be provided.
また本発明の一態様では、前記第1〜第Nの湾曲面に配置設定される情報表示オブジェクトに対して情報表示の優先順位が設定され、前記オブジェクト空間設定部は、高い優先順位が設定された情報表示オブジェクトを、前記第1〜第Nの湾曲面のうちの、前記仮想カメラから近い位置にある湾曲面に配置設定してもよい。 Moreover, in one aspect of the present invention, information display priorities are set for the information display objects arranged and set on the first to Nth curved surfaces, and the object space setting unit is set with a high priority. The information display object may be arranged and set on a curved surface at a position close to the virtual camera among the first to Nth curved surfaces.
このようにすれば、情報表示の優先順位が高い情報表示オブジェクトについては、仮想カメラから見て手前側に配置されるため、これらの情報表示オブジェクトが、観者から見やすい位置に立体視表示されるようになる。 In this way, information display objects having a high priority for information display are arranged on the front side when viewed from the virtual camera, so these information display objects are stereoscopically displayed at a position that is easy for the viewer to see. It becomes like this.
また本発明の一態様では、前記観者であるプレーヤにより操作されるキャラクタの制御を行うキャラクタ制御部を含み(キャラクタの制御部としてコンピュータを機能させ)、前記オブジェクト空間設定部は、前記仮想カメラから第iの距離にある第iの湾曲面を、前記仮想カメラから見て前記キャラクタよりも手前側に設定し、前記仮想カメラから第jの距離にある第j(1≦i<j≦N)の湾曲面を、前記仮想カメラから見て前記キャラクタよりも奧側に設定してもよい。 Further, according to one aspect of the present invention, a character control unit that controls a character operated by the player who is the viewer (a computer is caused to function as the character control unit), and the object space setting unit includes the virtual camera The i-th curved surface at the i-th distance from the virtual camera is set in front of the character when viewed from the virtual camera, and the j-th (1 ≦ i <j ≦ N) at the j-th distance from the virtual camera. ) May be set on the heel side of the character as viewed from the virtual camera.
このようにすれば、第iの湾曲面、第jの湾曲面を、例えばキャラクタとの相対的な位置関係が定まった場所に配置することが可能になり、観者にとって見やすい情報の提示が可能になる。 In this way, it is possible to arrange the i-th curved surface and the j-th curved surface in a place where the relative positional relationship with the character is determined, for example, and it is possible to present information that is easy for the viewer to see. become.
また本発明の一態様では、前記画像生成部は、前記仮想カメラから第iの距離にある第iの湾曲面上に配置設定される第iの情報表示オブジェクトと、前記仮想カメラから第jの距離にある第j(1≦i<j≦N)の湾曲面上に配置設定される第jの情報表示オブジェクトとが異なる表示態様になる画像を生成してもよい。 In one aspect of the present invention, the image generation unit includes an i-th information display object arranged and set on an i-th curved surface at an i-th distance from the virtual camera, and a j-th information display object from the virtual camera. An image having a display mode different from the jth information display object arranged and set on the jth (1 ≦ i <j ≦ N) curved surface at a distance may be generated.
このようにすれば、情報表示オブジェクトの配置位置によって、生成される画像の表示態様が変化するようになるため、例えば観者によって見やすい表示態様で情報表示オブジェクトの画像を表示することが可能になる。 In this way, since the display mode of the generated image changes depending on the arrangement position of the information display object, for example, it is possible to display the image of the information display object in a display mode that is easy for the viewer to see. .
また本発明の一態様では、前記画像生成部は、前記第jの湾曲面の方が前記第iの湾曲面よりも前記仮想カメラから遠い位置にある場合に、前記第jの湾曲面に配置設定される前記第jの情報表示オブジェクトを、前記第iの湾曲面に配置設定される前記第iの情報表示オブジェクトよりも透明に近づける半透明処理を行ってもよい。 In the aspect of the invention, the image generation unit may be disposed on the j-th curved surface when the j-th curved surface is farther from the virtual camera than the i-th curved surface. A translucent process may be performed in which the set j-th information display object is made more transparent than the i-th information display object arranged and set on the i-th curved surface.
このようにすれば、奥側の第jの情報表示オブジェクトは、手前側の第iの情報表示オブジェクトよりも透明度が高くなるため、第jの情報表示オブジェクトが観者の視界の妨げになる事態などを防止でき、好適なインターフェース環境を観者に提供できる。 In this way, the j-th information display object on the back side is more transparent than the i-th information display object on the near side, so that the j-th information display object hinders the viewer's field of view. Etc., and a suitable interface environment can be provided to the viewer.
また本発明の一態様では、前記画像生成部は、前記第jの湾曲面の方が前記第iの湾曲面よりも前記仮想カメラから遠い位置にある場合に、前記第jの湾曲面に配置設定される前記第jの情報表示オブジェクトよりも、前記第iの湾曲面に配置設定される前記第iの情報表示オブジェクトの方が、表示情報の詳細度が高くなる画像を生成してもよい。 In the aspect of the invention, the image generation unit may be disposed on the j-th curved surface when the j-th curved surface is farther from the virtual camera than the i-th curved surface. The i th information display object arranged and set on the i th curved surface may generate an image with a higher level of detail of display information than the j th information display object set. .
このようにすれば、手前側の第iの情報表示オブジェクトは、奥側の第jの情報表示オブジェクトよりも、表示情報の詳細度が高くなるため、表示される情報の内容を観者に的確に把握させることが可能になる。 In this way, the i-th information display object on the near side has a higher level of detail of the display information than the j-th information display object on the far side, so that the content of the displayed information can be accurately determined for the viewer. Can be grasped.
また本発明の一態様では、前記オブジェクト空間設定部は、所定の情報に基づいて、前記仮想カメラと前記湾曲面との距離を変化させてもよい。 In the aspect of the invention, the object space setting unit may change the distance between the virtual camera and the curved surface based on predetermined information.
このようにすれば、仮想カメラと湾曲面との距離を所定の情報に基づいて可変に制御することが可能になる。 In this way, the distance between the virtual camera and the curved surface can be variably controlled based on the predetermined information.
また本発明の一態様では、表示部のスクリーンから前記観者までの距離を表すスクリーン距離情報を、前記所定の情報として取得するスクリーン距離情報取得部を含み(スクリーン距離情報取得部としてコンピュータを機能させ)、前記オブジェクト空間設定部は、取得された前記スクリーン距離情報に基づいて、前記仮想カメラと前記湾曲面との距離を変化させてもよい。 In one aspect of the present invention, a screen distance information acquisition unit that acquires screen distance information representing a distance from the screen of the display unit to the viewer as the predetermined information (the computer functions as the screen distance information acquisition unit). The object space setting unit may change the distance between the virtual camera and the curved surface based on the acquired screen distance information.
このようにすれば、スクリーン距離に応じて仮想カメラと湾曲面との距離が変化するため、例えばスクリーンとの位置関係が固定された位置に湾曲面を設定して、情報表示オブジェクトを表示することが可能になる。 In this way, since the distance between the virtual camera and the curved surface changes according to the screen distance, for example, the curved surface is set at a position where the positional relationship with the screen is fixed, and the information display object is displayed. Is possible.
また本発明の一態様では、前記観者であるプレーヤからの入力情報に基づいて、前記プレーヤのゲーム環境の設定処理を行うゲーム環境設定部を含み(ゲーム環境設定部としてコンピュータを機能させ)、前記スクリーン距離情報取得部は、前記ゲーム環境の設定において前記プレーヤにより入力された入力情報に基づいて、前記スクリーン距離情報を取得してもよい。 In one aspect of the present invention, a game environment setting unit that performs a game environment setting process of the player based on input information from the player who is the viewer (the computer functions as the game environment setting unit), The screen distance information acquisition unit may acquire the screen distance information based on input information input by the player in the setting of the game environment.
このようにすれば、情報表示オブジェクトの表示を有効活用して、プレーヤの視点からスクリーンまでの距離をプレーヤに把握させることが可能になる。 In this way, the display of the information display object can be effectively used to allow the player to grasp the distance from the player's viewpoint to the screen.
また本発明の一態様では、前記オブジェクト空間設定部は、前記表示部の前記スクリーンに対応する位置に前記情報表示オブジェクトが立体視表示されるように、前記スクリーン距離情報に基づいて前記仮想カメラと前記湾曲面との距離を変化させてもよい。 In the aspect of the invention, the object space setting unit may include the virtual camera based on the screen distance information so that the information display object is stereoscopically displayed at a position corresponding to the screen of the display unit. The distance from the curved surface may be changed.
このようにすれば、スクリーン距離が変化しても、スクリーンに対応する固定的な位置に情報表示オブジェクトが立体視表示されるようになり、観者にとって見やすい情報表示オブジェクトの表示が可能になる。 In this way, even if the screen distance changes, the information display object is stereoscopically displayed at a fixed position corresponding to the screen, and it is possible to display the information display object that is easy for the viewer to see.
また本発明の一態様では、前記オブジェクト空間設定部は、前記表示部の前記スクリーンに外接する位置に前記湾曲面を設定してもよい。 In the aspect of the invention, the object space setting unit may set the curved surface at a position circumscribing the screen of the display unit.
なお湾曲面の設定位置は、このような外接位置に限定されず、例えば外接位置から少しずれた位置などに湾曲面を設定してもよい。 The setting position of the curved surface is not limited to such a circumscribed position, and for example, the curved surface may be set at a position slightly deviated from the circumscribed position.
また本発明の一態様では、前記スクリーン距離情報取得部は、デプスセンサを用いて、前記表示部側から前記観者側を見た場合のデプス情報を取得し、取得された前記デプス情報に基づいて、前記スクリーン距離情報を取得してもよい。 In one embodiment of the present invention, the screen distance information acquisition unit acquires depth information when the viewer side is viewed from the display unit side using a depth sensor, and based on the acquired depth information. The screen distance information may be acquired.
このようにすれば、デプスセンサを用いてスクリーン距離情報を自動的に取得して、仮想カメラと湾曲面との距離を設定することが可能になる。 In this way, it is possible to automatically acquire screen distance information using a depth sensor and set the distance between the virtual camera and the curved surface.
また本発明の一態様では、前記スクリーン距離情報取得部は、色画像センサを用いて、前記表示部側から前記観者側を見た場合の色画像情報を取得し、取得された前記色画像情報と前記デプス情報に基づいて、前記スクリーン距離情報を取得してもよい。 In one aspect of the present invention, the screen distance information acquisition unit acquires color image information when the viewer side is viewed from the display unit side using a color image sensor, and the acquired color image The screen distance information may be acquired based on the information and the depth information.
このようにすれば、デプスセンサにより得られるデプス情報のみならず、色画像センサにより得られる色画像情報も用いて、スクリーン距離情報が取得されるため、より効率的で適正なスクリーン距離情報の取得が可能になる。なおデプスセンサと色画像センサは別体に構成されるものであってもよいし、1つの画像センサとして構成されるものであってもよい。 In this way, since screen distance information is acquired using not only the depth information obtained by the depth sensor but also the color image information obtained by the color image sensor, more efficient and appropriate acquisition of screen distance information can be achieved. It becomes possible. The depth sensor and the color image sensor may be configured separately, or may be configured as one image sensor.
以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。 Hereinafter, this embodiment will be described. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.
1.構成
図1に本実施形態の画像生成システム(ゲームシステム)のブロック図の例を示す。なお、本実施形態の画像生成システムの構成は図1に限定されず、その構成要素(各部)の一部を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。
1. Configuration FIG. 1 shows an example of a block diagram of an image generation system (game system) of the present embodiment. Note that the configuration of the image generation system of the present embodiment is not limited to that shown in FIG. 1, and various modifications may be made such as omitting some of the components (each unit) or adding other components. .
操作部160は、プレーヤが操作データを入力するためのものであり、その機能は、方向指示キー、操作ボタン、アナログスティック、レバー、各種センサ(角速度センサ、加速度センサ等)、マイク、或いはタッチパネル型ディスプレイなどにより実現できる。 The operation unit 160 is for a player to input operation data, and functions thereof are direction instruction keys, operation buttons, analog sticks, levers, various sensors (such as an angular velocity sensor and an acceleration sensor), a microphone, or a touch panel type. This can be realized with a display.
記憶部170は、処理部100や通信部196などのワーク領域となるもので、その機能はRAM(DRAM、VRAM)などにより実現できる。そしてゲームプログラムや、ゲームプログラムの実行に必要なゲームデータは、この記憶部170に保持される。 The storage unit 170 serves as a work area for the processing unit 100, the communication unit 196, and the like, and its function can be realized by a RAM (DRAM, VRAM) or the like. Then, the game program and game data necessary for executing the game program are held in the storage unit 170.
情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(CD、DVD)、HDD(ハードディスクドライブ)、或いはメモリ(ROM等)などにより実現できる。処理部100は、情報記憶媒体180に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち情報記憶媒体180には、本実施形態の各部としてコンピュータ(操作部、処理部、記憶部、出力部を備える装置)を機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶される。 An information storage medium 180 (a computer-readable medium) stores programs, data, and the like, and functions thereof by an optical disk (CD, DVD), HDD (hard disk drive), memory (ROM, etc.), and the like. realizable. The processing unit 100 performs various processes of the present embodiment based on a program (data) stored in the information storage medium 180. That is, in the information storage medium 180, a program for causing a computer (an apparatus including an operation unit, a processing unit, a storage unit, and an output unit) to function as each unit of the present embodiment (a program for causing the computer to execute processing of each unit). Is memorized.
表示部190は、本実施形態により生成された画像を出力するものであり、その機能は、LCD、有機ELディスプレイ、CRT、タッチパネル型ディスプレイ、或いはHMD(ヘッドマウントディスプレイ)などにより実現できる。音出力部192は、本実施形態により生成された音を出力するものであり、その機能は、スピーカ、或いはヘッドフォンなどにより実現できる。 The display unit 190 outputs an image generated according to the present embodiment, and its function can be realized by an LCD, an organic EL display, a CRT, a touch panel display, an HMD (head mounted display), or the like. The sound output unit 192 outputs the sound generated by the present embodiment, and its function can be realized by a speaker, headphones, or the like.
補助記憶装置194(補助メモリ、2次メモリ)は、記憶部170の容量を補うために使用される記憶装置であり、SDメモリーカード、マルチメディアカードなどのメモリーカードなどにより実現できる。 The auxiliary storage device 194 (auxiliary memory, secondary memory) is a storage device used to supplement the capacity of the storage unit 170, and can be realized by a memory card such as an SD memory card or a multimedia card.
通信部196は、有線や無線のネットワークを介して外部(例えば他の画像生成システム、サーバ、ホスト装置)との間で通信を行うものであり、その機能は、通信用ASIC又は通信用プロセッサなどのハードウェアや、通信用ファームウェアにより実現できる。 The communication unit 196 communicates with the outside (for example, another image generation system, a server, or a host device) via a wired or wireless network, and functions as a communication ASIC, a communication processor, or the like. It can be realized by hardware and communication firmware.
なお本実施形態の各部としてコンピュータを機能させるためのプログラム(データ)は、サーバ(ホスト装置)が有する情報記憶媒体からネットワーク及び通信部196を介して情報記憶媒体180(あるいは記憶部170、補助記憶装置194)に配信してもよい。このようなサーバ(ホスト装置)による情報記憶媒体の使用も本発明の範囲内に含めることができる。 Note that a program (data) for causing a computer to function as each unit of the present embodiment is obtained from an information storage medium of a server (host device) via an information storage medium 180 (or storage unit 170, auxiliary storage) via a network and communication unit 196. May be distributed to the device 194). Use of an information storage medium by such a server (host device) can also be included in the scope of the present invention.
処理部100(プロセッサ)は、操作部160からの操作データやプログラムなどに基づいて、ゲーム処理、画像生成処理、或いは音生成処理などを行う。処理部100は記憶部170をワーク領域として各種処理を行う。この処理部100の機能は、各種プロセッサ(CPU、GPU等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムにより実現できる。 The processing unit 100 (processor) performs game processing, image generation processing, sound generation processing, and the like based on operation data from the operation unit 160, a program, and the like. The processing unit 100 performs various processes using the storage unit 170 as a work area. The functions of the processing unit 100 can be realized by hardware such as various processors (CPU, GPU, etc.), ASIC (gate array, etc.), and programs.
処理部100は、ゲーム演算部102、オブジェクト空間設定部104、キャラクタ制御部105、仮想カメラ制御部108、スクリーン距離情報取得部110、ゲーム環境設定部112、画像生成部120、音生成部130を含む。またキャラクタ制御部105は移動処理部106、モーション処理部107を含む。なおこれらの一部の構成要素を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。 The processing unit 100 includes a game calculation unit 102, an object space setting unit 104, a character control unit 105, a virtual camera control unit 108, a screen distance information acquisition unit 110, a game environment setting unit 112, an image generation unit 120, and a sound generation unit 130. Including. The character control unit 105 includes a movement processing unit 106 and a motion processing unit 107. Various modifications may be made such as omitting some of these components or adding other components.
ゲーム演算部102はゲーム演算処理を行う。ここでゲーム演算としては、ゲーム開始条件が満たされた場合にゲームを開始する処理、ゲームを進行させる処理、ゲーム結果を演算する処理、或いはゲーム終了条件が満たされた場合にゲームを終了する処理などがある。 The game calculation unit 102 performs game calculation processing. Here, as a game calculation, a process for starting a game when a game start condition is satisfied, a process for advancing the game, a process for calculating a game result, or a process for ending a game when a game end condition is satisfied and so on.
オブジェクト空間設定部104は、複数のオブジェクトが配置されるオブジェクト空間の設定処理を行う。例えば、キャラクタ(人、動物、ロボット、車、船舶、飛行機等)、マップ(地形)、建物、コース(道路)、樹木、壁などの表示物を表す各種オブジェクト(ポリゴン、自由曲面又はサブディビジョンサーフェイスなどのプリミティブ面で構成されるオブジェクト)をオブジェクト空間に配置設定する処理を行う。即ちワールド座標系でのオブジェクトの位置や回転角度(向き、方向と同義)を決定し、その位置(X、Y、Z)にその回転角度(X、Y、Z軸回りでの回転角度)でオブジェクトを配置する。具体的には、記憶部170のオブジェクトデータ記憶部171には、オブジェクト(パーツオブジェクト)の位置、回転角度、移動速度、移動方向等のデータであるオブジェクトデータがオブジェクト番号に対応づけて記憶される。オブジェクト空間設定部104は、例えば各フレーム毎にこのオブジェクトデータを更新する処理などを行う。 The object space setting unit 104 performs an object space setting process in which a plurality of objects are arranged. For example, various objects (polygon, free-form surface or subdivision surface) representing display objects such as characters (people, animals, robots, cars, ships, airplanes, etc.), maps (terrain), buildings, courses (roads), trees, walls, etc. The object is configured to place and set in the object space. In other words, the position and rotation angle of the object in the world coordinate system (synonymous with direction and direction) are determined, and the rotation angle (rotation angle around the X, Y, and Z axes) is determined at that position (X, Y, Z). Arrange objects. Specifically, the object data storage unit 171 of the storage unit 170 stores object data such as the position, rotation angle, moving speed, moving direction, etc. of the object (part object) in association with the object number. . The object space setting unit 104 performs a process of updating the object data for each frame, for example.
キャラクタ制御部105は、オブジェクト空間を移動(動作)するキャラクタの制御を行う。例えばキャラクタ制御部105が含む移動処理部106は、キャラクタ(モデルオブジェクト、移動オブジェクト)を移動させる処理を行う。例えば操作部160によりプレーヤが入力した操作情報や、プログラム(移動アルゴリズム)や、各種データなどに基づいて、キャラクタをオブジェクト空間内で移動させる。具体的には、キャラクタの移動情報(位置、回転角度、速度、或いは加速度)を、1フレーム(例えば1/60秒)毎に順次求めるシミュレーション処理を行う。なおフレームは、移動処理やモーション処理や画像生成処理を行う時間の単位である。キャラクタ制御部105が含むモーション処理部107は、キャラクタにモーション(アニメーション)を行わせるモーション処理(モーション再生、モーション生成)を行う。このモーション処理は、キャラクタのモーションを、モーションデータ記憶部172に記憶されているモーションデータに基づいて再生することなどで実現できる。 The character control unit 105 controls a character that moves (moves) in the object space. For example, the movement processing unit 106 included in the character control unit 105 performs a process of moving a character (model object, moving object). For example, the character is moved in the object space based on operation information input by the player through the operation unit 160, a program (movement algorithm), various data, and the like. Specifically, a simulation process for sequentially obtaining character movement information (position, rotation angle, speed, or acceleration) every frame (for example, 1/60 second) is performed. Note that a frame is a unit of time for performing a movement process, a motion process, and an image generation process. The motion processing unit 107 included in the character control unit 105 performs motion processing (motion reproduction, motion generation) that causes the character to perform motion (animation). This motion processing can be realized by reproducing the motion of the character based on the motion data stored in the motion data storage unit 172.
仮想カメラ制御部108は、オブジェクト空間内の所与(任意)の視点から見える画像を生成するための仮想カメラ(視点、基準仮想カメラ)の制御処理を行う。具体的には、仮想カメラの位置(X、Y、Z)又は回転角度(X、Y、Z軸回りでの回転角度)を制御する処理(視点位置、視線方向あるいは画角を制御する処理)を行う。 The virtual camera control unit 108 performs control processing of a virtual camera (viewpoint, reference virtual camera) for generating an image that can be seen from a given (arbitrary) viewpoint in the object space. Specifically, processing for controlling the position (X, Y, Z) or rotation angle (rotation angle about the X, Y, Z axis) of the virtual camera (processing for controlling the viewpoint position, the line-of-sight direction or the angle of view) I do.
例えば仮想カメラによりキャラクタを後方から撮影する場合には、キャラクタの位置又は回転の変化に仮想カメラが追従するように、仮想カメラの位置又は回転角度(仮想カメラの向き)を制御する。この場合には、移動処理部106で得られたキャラクタの位置、回転角度又は速度などの情報に基づいて、仮想カメラを制御できる。或いは、仮想カメラを、予め決められた回転角度で回転させたり、予め決められた移動経路で移動させる制御を行ってもよい。この場合には、仮想カメラの位置(移動経路)又は回転角度を特定するための仮想カメラデータに基づいて仮想カメラを制御する。 For example, when a character is photographed from behind using a virtual camera, the position or rotation angle (the direction of the virtual camera) of the virtual camera is controlled so that the virtual camera follows changes in the position or rotation of the character. In this case, the virtual camera can be controlled based on information such as the character position, rotation angle, or speed obtained by the movement processing unit 106. Alternatively, the virtual camera may be controlled to rotate at a predetermined rotation angle or to move along a predetermined movement path. In this case, the virtual camera is controlled based on the virtual camera data for specifying the position (movement path) or rotation angle of the virtual camera.
スクリーン距離情報取得部110は、スクリーン距離情報を取得する処理を行う。このスクリーン距離情報は、表示部190のスクリーン(表示画面)から観者までの距離を表す情報である。 The screen distance information acquisition unit 110 performs processing for acquiring screen distance information. This screen distance information is information representing the distance from the screen (display screen) of the display unit 190 to the viewer.
ゲーム環境設定部112は、ゲーム環境の設定処理を行う。例えばプレーヤからの入力情報に基づいて、プレーヤのゲーム環境の設定処理を行う。具体的には、表示部190によりゲーム環境の設定画面(オプション設定画面)を表示する。そして、表示されたゲーム環境設定画面においてプレーヤが操作部160を用いて入力した情報に基づいて、プレーヤがゲームをプレイにするのに必要な各種のゲーム環境情報を設定する処理を行う。設定されたゲーム環境情報は、ゲーム環境情報記憶部177に保存される。 The game environment setting unit 112 performs a game environment setting process. For example, the game environment setting process of the player is performed based on input information from the player. Specifically, the display unit 190 displays a game environment setting screen (option setting screen). Then, based on information input by the player using the operation unit 160 on the displayed game environment setting screen, processing for setting various game environment information necessary for the player to play the game is performed. The set game environment information is stored in the game environment information storage unit 177.
画像生成部120は、処理部100で行われる種々の処理(ゲーム処理、シミュレーション処理)の結果に基づいて描画処理を行い、これにより画像を生成し、表示部190に出力する。具体的には、座標変換(ワールド座標変換、カメラ座標変換)、クリッピング処理、透視変換、或いは光源処理等のジオメトリ処理が行われ、その処理結果に基づいて、描画データ(プリミティブ面の頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)が作成される。そして、この描画データ(プリミティブ面データ)に基づいて、透視変換後(ジオメトリ処理後)のオブジェクト(1又は複数プリミティブ面)を、描画バッファ179(フレームバッファ、ワークバッファ等のピクセル単位で画像情報を記憶できるバッファ)に描画する。これにより、オブジェクト空間内において仮想カメラ(所与の視点)から見える画像が生成される。なお、描画処理は頂点シェーダ処理やピクセルシェーダ処理により実現することができる。 The image generation unit 120 performs drawing processing based on the results of various processing (game processing and simulation processing) performed by the processing unit 100, thereby generating an image and outputting the image to the display unit 190. Specifically, geometric processing such as coordinate transformation (world coordinate transformation, camera coordinate transformation), clipping processing, perspective transformation, or light source processing is performed. Based on the processing result, drawing data (the position of the vertex of the primitive surface) Coordinates, texture coordinates, color data, normal vector, α value, etc.) are created. Then, based on this drawing data (primitive surface data), the object (one or a plurality of primitive surfaces) after perspective transformation (after geometry processing) is converted into image information in units of pixels such as a drawing buffer 179 (frame buffer, work buffer, etc.). Draw in a buffer that can be stored. Thereby, an image that can be seen from the virtual camera (given viewpoint) in the object space is generated. Note that the rendering process can be realized by a vertex shader process or a pixel shader process.
音生成部130は、処理部100で行われる種々の処理の結果に基づいて音処理を行い、BGM、効果音、又は音声などのゲーム音を生成し、音出力部192に出力する。 The sound generation unit 130 performs sound processing based on the results of various processes performed by the processing unit 100, generates game sounds such as BGM, sound effects, or sounds, and outputs the game sounds to the sound output unit 192.
そして本実施形態では、オブジェクト空間設定部104は、オブジェクト空間において、湾曲面上に情報表示オブジェクトを配置設定する。例えば情報表示オブジェクトの3次元座標を湾曲面上の位置に設定する。ここで湾曲面は、例えばその曲率中心(1又は複数の曲率中心)が、仮想カメラ側にある曲面である。即ち仮想カメラ側に湾曲している曲面である。この湾曲面としては、例えば仮想カメラの位置を中心とする球面などを想定できる。また情報表示オブジェクトは、観者(狭義にはプレーヤ)に各種の情報を表示するためのオブジェクトである。ゲームを例にとれば、キャラクタの各種ステータスやゲームの状況などをプレーヤに表示するためのオブジェクトである。この情報表示オブジェクトは2次元形状のオブジェクトであってもよいし、3次元形状のオブジェクトであってもよい。 In this embodiment, the object space setting unit 104 sets the information display object on the curved surface in the object space. For example, the three-dimensional coordinates of the information display object are set at a position on the curved surface. Here, the curved surface is, for example, a curved surface whose center of curvature (one or more centers of curvature) is on the virtual camera side. That is, the curved surface is curved toward the virtual camera. As this curved surface, for example, a spherical surface centered on the position of the virtual camera can be assumed. The information display object is an object for displaying various types of information to the viewer (player in a narrow sense). Taking a game as an example, it is an object for displaying various statuses of a character, the situation of a game, and the like on a player. This information display object may be a two-dimensional object or a three-dimensional object.
そして画像生成部130は、オブジェクト空間において左目用仮想カメラから見える画像である左目用画像(左目用映像)と、オブジェクト空間において右目用仮想カメラから見える画像である右目用画像(右目用映像)を生成する。即ち左目用仮想カメラの視点で、オブジェクト空間に配置される情報表示オブジェクト等のオブジェクトのレンダリングを行って、左目用画像を生成する。また右目用仮想カメラの視点で、オブジェクト空間に配置される情報表示オブジェクト等のオブジェクトのレンダリングを行って、右目用画像を生成する。これにより、情報表示オブジェクト等のオブジェクトが立体視表示される画像が生成されるようになる。 Then, the image generation unit 130 generates a left-eye image (left-eye video) that is an image seen from the left-eye virtual camera in the object space, and a right-eye image (right-eye video) that is an image seen from the right-eye virtual camera in the object space. Generate. That is, the left eye image is generated by rendering an object such as an information display object arranged in the object space from the viewpoint of the left eye virtual camera. In addition, an image for the right eye is generated by rendering an object such as an information display object arranged in the object space from the viewpoint of the virtual camera for the right eye. Thereby, an image in which an object such as an information display object is stereoscopically displayed is generated.
なお仮想カメラ制御部108は、例えば左目用仮想カメラと右目用仮想カメラを設定するための基準となる基準仮想カメラの制御を行う。そして、得られた基準仮想カメラの位置情報、方向情報と、設定されたカメラ間距離の情報に基づいて、左目用仮想カメラ、右目用仮想カメラの位置情報(視点位置)、方向情報(視線方向)を求める。なお仮想カメラ制御部108が、左目用仮想カメラや右目用仮想カメラを直接制御するようにしてもよい。また画像生成部120は、立体視モードでは、左目用仮想カメラによる左目用画像と、右目用仮想カメラによる右目用画像を生成する。一方、例えば立体視モードではない擬似3次元画像表示モードでは、基準仮想カメラから見える画像を疑似3次元画像として生成する。 Note that the virtual camera control unit 108 controls a reference virtual camera serving as a reference for setting, for example, a left-eye virtual camera and a right-eye virtual camera. Then, based on the obtained position information and direction information of the reference virtual camera and information on the set inter-camera distance, the position information (viewpoint position) and the direction information (line-of-sight direction) of the left-eye virtual camera and the right-eye virtual camera ) The virtual camera control unit 108 may directly control the left-eye virtual camera or the right-eye virtual camera. In the stereoscopic mode, the image generation unit 120 generates a left-eye image from the left-eye virtual camera and a right-eye image from the right-eye virtual camera. On the other hand, for example, in a pseudo three-dimensional image display mode that is not the stereoscopic mode, an image that can be seen from the reference virtual camera is generated as a pseudo three-dimensional image.
また立体方式としては、2眼分離眼鏡方式や、レンティキュラーレンズなどを用いた裸眼方式などの様々な方式を想定できる。2眼分離眼鏡方式としては、例えば偏光眼鏡方式、継時分離方式、2色分離方式などがある。偏光眼鏡方式では、例えば表示部190の奇数ラインと偶数ラインに左目用画像と右目用画像を交互に表示し、これを偏光眼鏡(例えば左目に水平方向の偏光フィルタ、右目に垂直方向の偏光フィルタを付けた眼鏡)で見ることで立体視を実現する。或いは左目用画像と右目用画像を特殊な偏光フィルタを有するプロジェクタで投影し、投影画像を偏光眼鏡で見ることで立体視を実現してもよい。また継時分離方式(ページ・フリップ方式)では、表示部190に左目用画像、右目用画像を所定期間毎(例えば1/120秒毎、1/60秒毎)に交互に表示する。そして、この表示の切り替えに連動して液晶シャッター付きの眼鏡の左目、右目の液晶シャッターを交互に開閉することで、立体視を実現する。2色分離方式では、アナグリフ画像を生成し、赤青眼鏡等で見ることで、立体視を実現する。 As a stereoscopic method, various methods such as a two-eye separation spectacle method and a naked eye method using a lenticular lens can be assumed. Examples of the two-eye separation spectacle method include a polarizing spectacle method, a continuous separation method, and a two-color separation method. In the polarized glasses method, for example, the left-eye image and the right-eye image are alternately displayed on the odd-numbered and even-numbered lines of the display unit 190, and this is displayed on the polarized glasses (for example, the horizontal polarization filter for the left eye and the vertical polarization filter for the right eye). 3D viewing is realized by viewing with eyeglasses. Alternatively, the stereoscopic image may be realized by projecting the left-eye image and the right-eye image with a projector having a special polarization filter and viewing the projection image with polarized glasses. In the continuous separation method (page flip method), the left-eye image and the right-eye image are alternately displayed on the display unit 190 at predetermined intervals (for example, every 1/120 seconds or 1/60 seconds). In conjunction with the switching of the display, stereoscopic vision is realized by alternately opening and closing the left-eye and right-eye liquid crystal shutters of the glasses with the liquid crystal shutter. In the two-color separation method, an anaglyph image is generated and viewed with red-blue glasses or the like to realize stereoscopic viewing.
また左目用画像と右目用画像から立体視画像を生成する機能は、画像生成部120に持たせてもよいし、表示部190に持たせてもよい。例えば画像生成部120が、サイドバイサイド方式の画像信号を出力する。すると表示部190が、このサイドバイサイドの画像信号に基づいて、奇数ラインと偶数ラインに左目用画像と右目用画像が交互に割り当てられるフィールドシーケンシャル方式の画像を表示する。或いは、左目用画像と右目用画像が所定期間毎に交互に切り替えられるフレームシーケンシャル方式の画像を表示する。或いは画像生成部120の方が、フィールドシーケンシャル方式やフレームシーケンシャル方式の画像を生成して、表示部190に出力するようにしてもよい。 Further, the function of generating a stereoscopic image from the left-eye image and the right-eye image may be provided in the image generation unit 120 or the display unit 190. For example, the image generation unit 120 outputs a side-by-side image signal. Then, the display unit 190 displays a field sequential type image in which the left-eye image and the right-eye image are alternately assigned to the odd-numbered line and the even-numbered line based on the side-by-side image signal. Alternatively, a frame sequential image in which the left-eye image and the right-eye image are alternately switched every predetermined period is displayed. Alternatively, the image generation unit 120 may generate a field sequential method or frame sequential method image and output the generated image to the display unit 190.
またオブジェクト空間設定部104は、観者(viewer)であるプレーヤに、ゲームに関する情報を表示するための情報表示オブジェクトを、オブジェクト空間の湾曲面上に配置設定する。ここで情報表示オブジェクトにより表示されるゲームに関する情報は、プレーヤが操作するキャラクタに関する情報や、マップや得点などのゲーム状況を表す情報である。例えば、情報表示オブジェクトは、プレーヤが操作するキャラクタの情報(体力等のステータス情報)を表示するためのオブジェクト、キャラクタの装備アイテムの情報(武器等の装備アイテムの情報)を表示するためのオブジェクト、及びオブジェクト空間のマップ情報(マップの地形を簡略化して表した情報)を表示するためのオブジェクトの少なくとも1つを含むことができる。 Further, the object space setting unit 104 sets an information display object for displaying information related to the game on a curved surface of the object space to a player who is a viewer. Here, the information related to the game displayed by the information display object is information related to the character operated by the player and information representing the game situation such as a map and a score. For example, the information display object includes an object for displaying information on a character operated by the player (status information such as physical strength), an object for displaying information on equipment items of the character (information on equipment items such as weapons), And at least one of objects for displaying object space map information (information representing a simplified terrain of the map).
この場合にオブジェクト空間設定部104は、情報表示オブジェクトとして、3次元形状のオブジェクトを、オブジェクト空間の湾曲面上に配置設定してもよい。例えばマップの情報表示オブジェクトである場合には、オブジェクト空間のマップの形状を簡略化した3次元のマップモデルを用意し、このマップモデルを表す3次元オブジェクト(複数のポリゴンで立体的に形成されるオブジェクト)を、マップの情報表示オブジェクトとして配置設定する。 In this case, the object space setting unit 104 may place and set a three-dimensional object on the curved surface of the object space as the information display object. For example, in the case of a map information display object, a three-dimensional map model in which the shape of the map in the object space is simplified is prepared, and a three-dimensional object representing the map model (three-dimensionally formed by a plurality of polygons). Object) is set as an information display object of the map.
またオブジェクト空間設定部104は、各湾曲面上に情報表示オブジェクト(1又は複数の情報表示オブジェクト)が配置設定される複数の第1〜第N(Nは2以上の整数)の湾曲面を設定してもよい。これらの第1〜第Nの湾曲面は、仮想カメラからの距離(例えば仮想カメラとスクリーン中心を結ぶ方向での距離)が互いに異なる湾曲面である。 The object space setting unit 104 sets a plurality of first to Nth (N is an integer of 2 or more) curved surfaces on which information display objects (one or a plurality of information display objects) are arranged and set on each curved surface. May be. These first to Nth curved surfaces are curved surfaces having different distances from the virtual camera (for example, distances in a direction connecting the virtual camera and the screen center).
この場合にオブジェクト空間設定部104は、第1〜第Nの湾曲面に配置設定される情報表示オブジェクトの並び替え処理を行ってもよい。例えば観者からの入力情報に基づいて、第1〜第Nの湾曲面に配置設定される情報表示オブジェクトを、仮想カメラからの距離が異なる位置に移動する並び替え処理を行う。具体的には、仮想カメラから見て近くにある湾曲面(第iの湾曲面)に配置設定される情報表示オブジェクトを、仮想カメラから見て遠くにある湾曲面(第jの湾曲面)の位置に移動したり、仮想カメラから見て遠くにある湾曲面(第jの湾曲面)に配置設定される情報表示オブジェクトを、仮想カメラから見て近くにある湾曲面(第iの湾曲面)の位置に移動する並び替え処理を行う。或いは湾曲面自体の並び替え処理を行ってもよい。 In this case, the object space setting unit 104 may perform a rearrangement process of the information display objects arranged and set on the first to Nth curved surfaces. For example, based on input information from the viewer, a rearrangement process is performed in which the information display objects arranged and set on the first to Nth curved surfaces are moved to positions at different distances from the virtual camera. Specifically, an information display object placed and set on a curved surface (i.sup.th curved surface) that is close to the virtual camera is displayed on a curved surface (jth curved surface) that is far from the virtual camera. An information display object that is moved to a position or placed and set on a curved surface (jth curved surface) that is far from the virtual camera, and a curved surface that is close to the virtual camera (i-th curved surface) The sorting process to move to the position of is performed. Alternatively, the rearrangement process of the curved surface itself may be performed.
そして第1〜第Nの湾曲面に配置設定される情報表示オブジェクトに対して情報表示の優先順位が設定される場合には、オブジェクト空間設定部104は、高い優先順位が設定された情報表示オブジェクトを、第1〜第Nの湾曲面のうちの、仮想カメラから近い位置にある湾曲面に配置設定する。例えば優先順位が高いほど、仮想カメラから近い距離に位置するように情報表示オブジェクトを配置設定する。 When the priority of information display is set for the information display objects arranged and set on the first to Nth curved surfaces, the object space setting unit 104 sets the information display object with a high priority set. Are arranged and set on the curved surface at a position close to the virtual camera among the first to Nth curved surfaces. For example, the information display object is arranged and set so that the higher the priority, the closer to the virtual camera.
またキャラクタ制御部105が、観者であるプレーヤにより操作されるキャラクタの制御を行う場合には、オブジェクト空間設定部104は、仮想カメラから第iの距離にある第iの湾曲面を、仮想カメラから見てキャラクタよりも手前側(仮想カメラから見て奥行き方向において手前側)に設定する。一方、仮想カメラから第jの距離にある第j(1≦i<j≦N)の湾曲面を、仮想カメラから見てキャラクタよりも奧側に設定する。例えば、第iの湾曲面と第jの湾曲面の間にキャラクタが位置するように、第iの湾曲面と第jの湾曲面を設定する。 When the character control unit 105 controls the character operated by the player who is the viewer, the object space setting unit 104 displays the i-th curved surface at the i-th distance from the virtual camera as the virtual camera. Set to the near side of the character as viewed from the front side (front side in the depth direction as viewed from the virtual camera). On the other hand, the j-th (1 ≦ i <j ≦ N) curved surface at the j-th distance from the virtual camera is set on the heel side of the character as viewed from the virtual camera. For example, the i-th curved surface and the j-th curved surface are set so that the character is positioned between the i-th curved surface and the j-th curved surface.
また画像生成部130は、仮想カメラから第iの距離にある第iの湾曲面上に配置設定される第iの情報表示オブジェクトと、仮想カメラから第jの距離にある第jの湾曲面上に配置設定される第jの情報表示オブジェクトとが異なる表示態様になる画像を生成してもよい。例えば第iの情報表示オブジェクトと第jの情報表示オブジェクトの半透明度(透明度)、情報詳細度、色等の表示態様が異なるように画像処理を行って、画像を生成する。 In addition, the image generation unit 130 arranges and sets the i-th information display object on the i-th curved surface at the i-th distance from the virtual camera and the j-th curved surface at the j-th distance from the virtual camera. An image having a display mode different from the j-th information display object set to be arranged may be generated. For example, image processing is performed so that display modes such as translucency (transparency), information detail, and color of the i-th information display object and the j-th information display object are different to generate an image.
例えば画像生成部130は、各湾曲面に配置設定される情報表示オブジェクトの半透明度を異ならせる画像処理を行う。具体的には、第jの湾曲面の方が第iの湾曲面よりも仮想カメラから遠い位置にある場合に、第jの湾曲面に配置設定される第jの情報表示オブジェクトを、第iの湾曲面に配置設定される第iの情報表示オブジェクトよりも透明に近づける半透明処理を行う。また画像生成部130は、各湾曲面に配置設定される情報表示オブジェクトの表示情報の詳細度を異ならせる画像処理を行う。具体的には、第jの湾曲面の方が第iの湾曲面よりも仮想カメラから遠い位置にある場合に、第jの湾曲面に配置設定される第jの情報表示オブジェクトよりも、第iの湾曲面に配置設定される第iの情報表示オブジェクトの方が、表示情報の詳細度が高くなる画像を生成する。なお表示情報の詳細度は、表示される情報量の大小を表すものであり、表示情報の詳細度が高い情報表示オブジェクトでは、表示情報の詳細度が低い情報表示オブジェクトに比べて、表示される情報の量が相対的に多くなる。 For example, the image generation unit 130 performs image processing for changing the translucency of the information display objects arranged and set on the curved surfaces. Specifically, when the j-th curved surface is located farther from the virtual camera than the i-th curved surface, the j-th information display object placed and set on the j-th curved surface is represented by the i-th curved surface. The semi-transparent process is performed so that the i-th information display object placed and set on the curved surface becomes more transparent than the i-th information display object. In addition, the image generation unit 130 performs image processing that varies the level of detail of the display information of the information display object set to be arranged on each curved surface. Specifically, when the j-th curved surface is farther from the virtual camera than the i-th curved surface, the j-th curved surface is set to be more than the j-th information display object. The i-th information display object arranged and set on the curved surface of i generates an image with a higher level of detail of display information. The level of detail of display information represents the amount of information to be displayed. An information display object with a high level of detail of display information is displayed compared to an information display object with a low level of detail of display information. The amount of information is relatively large.
また本実施形態では、オブジェクト空間設定部104は、所定の情報に基づいて、仮想カメラと湾曲面との距離を変化させる。このようにすることで、仮想カメラと湾曲面との距離を所定情報に応じて可変に制御できるようになる。ここで所定の情報としては、例えば、ゲームステージの情報、ゲームフィールドの情報、ゲームフィールドでのキャラクタの位置情報、装備武器等の装備アイテムの情報、キャラクタのステータス情報、敵のステータス情報、表示部190のディスプレイサイズの情報、年齢、性別等のプレーヤ情報、或いは後述するスクリーン距離情報などの種々の情報を想定できる。 In the present embodiment, the object space setting unit 104 changes the distance between the virtual camera and the curved surface based on predetermined information. By doing so, the distance between the virtual camera and the curved surface can be variably controlled according to the predetermined information. Here, the predetermined information includes, for example, game stage information, game field information, character position information in the game field, equipment item information such as equipment weapons, character status information, enemy status information, and display unit. Various information such as 190 display size information, player information such as age and sex, or screen distance information described later can be assumed.
具体的には本実施形態では、スクリーン距離情報取得部110が、表示部190のスクリーンから観者までの距離を表すスクリーン距離情報(スクリーン距離パラメータ)を取得する。例えばゲーム環境設定部112が、観者であるプレーヤからの入力情報に基づいて、プレーヤのゲーム環境の設定処理を行ったとする。この場合にはスクリーン距離情報取得部110は、観者であるプレーヤからの入力情報(スクリーン距離の設定情報)に基づいて、スクリーン距離情報を取得する。 Specifically, in this embodiment, the screen distance information acquisition unit 110 acquires screen distance information (screen distance parameter) that represents the distance from the screen of the display unit 190 to the viewer. For example, it is assumed that the game environment setting unit 112 performs a game environment setting process for a player based on input information from a player who is a viewer. In this case, the screen distance information acquisition unit 110 acquires screen distance information based on input information (screen distance setting information) from the player who is the viewer.
なお、スクリーン距離情報は、表示部190のスクリーン(表示画面)から観者までの距離そのものであってもよいし、その距離と等価な情報であってもよい。またスクリーン距離情報は、ゲーム環境設定画面でのプレーヤの入力情報に基づいて取得してもよいし、例えば画像センサ(デプスセンサ、色画像センサ)などを用いてデプス情報や色画像情報を取得して、スクリーン距離情報を取得してもよい。 The screen distance information may be the distance from the screen (display screen) of the display unit 190 to the viewer itself, or information equivalent to the distance. The screen distance information may be acquired based on input information of the player on the game environment setting screen. For example, the depth information or the color image information is acquired using an image sensor (depth sensor, color image sensor) or the like. Screen distance information may be acquired.
そして、このようなスクリーン距離情報が取得されると、オブジェクト空間設定部104は、設定されたスクリーン距離情報に基づいて、仮想カメラと湾曲面との距離を変化させる。例えばスクリーン距離情報に対応する距離だけ仮想カメラの位置から離れた位置に、湾曲面を設定する。具体的には、スクリーン距離情報により表される距離が長くなると、仮想カメラと湾曲面との間の距離も長くする。 When such screen distance information is acquired, the object space setting unit 104 changes the distance between the virtual camera and the curved surface based on the set screen distance information. For example, the curved surface is set at a position away from the position of the virtual camera by a distance corresponding to the screen distance information. Specifically, as the distance represented by the screen distance information increases, the distance between the virtual camera and the curved surface also increases.
更に具体的にはオブジェクト空間設定部104は、表示部190のスクリーンに対応する位置に情報表示オブジェクトが立体視表示されるように、スクリーン距離情報に基づいて仮想カメラと湾曲面との距離を変化させる。例えば、表示部190のスクリーンと観者の距離が変化した場合にも、スクリーンに対応する位置に固定的に情報表示オブジェクトが立体視表示されるように、仮想カメラと湾曲面との距離を変化させる。 More specifically, the object space setting unit 104 changes the distance between the virtual camera and the curved surface based on the screen distance information so that the information display object is stereoscopically displayed at a position corresponding to the screen of the display unit 190. Let For example, even when the distance between the screen of the display unit 190 and the viewer changes, the distance between the virtual camera and the curved surface is changed so that the information display object is stereoscopically displayed at a position corresponding to the screen. Let
ここで、スクリーンに対応する位置は、例えばスクリーンとの相対的な位置関係が予め定まっている位置である。具体的にはオブジェクト空間設定部104は、スクリーンに対応する位置として、表示部190のスクリーンに外接する位置に湾曲面を設定する。即ち、観者とスクリーンの距離が変化した場合にも、スクリーンに外接するように湾曲面を設定する。 Here, the position corresponding to the screen is, for example, a position where a relative positional relationship with the screen is determined in advance. Specifically, the object space setting unit 104 sets a curved surface at a position circumscribing the screen of the display unit 190 as a position corresponding to the screen. That is, even when the distance between the viewer and the screen changes, the curved surface is set so as to circumscribe the screen.
またスクリーン距離情報取得部110は、デプスセンサ(画像センサ)を用いて、表示部190側から観者側を見た場合のデプス情報を取得し、取得されたデプス情報に基づいて、スクリーン距離情報を取得してもよい。例えば、画像センサであるデプスセンサ(デプスカメラ)により観者を撮像し、表示部190から観者の方に向く方向(Z方向)でのデプス情報(デプス画像)を取得する。このデプス情報は、例えば各画素位置にデプス値(奥行き値)が設定(格納)された画像情報である。そして取得されたデプス情報に基づいて、スクリーン距離情報を取得する。このようにすることで、例えばゲーム環境設定画面においてプレーヤがスクリーン距離の情報を入力しなくても、自動的にスクリーン距離情報を取得できるようになる。 The screen distance information acquisition unit 110 uses a depth sensor (image sensor) to acquire depth information when the viewer side is viewed from the display unit 190 side, and obtains screen distance information based on the acquired depth information. You may get it. For example, a viewer is imaged by a depth sensor (depth camera) that is an image sensor, and depth information (depth image) in a direction (Z direction) facing the viewer is acquired from the display unit 190. The depth information is image information in which a depth value (depth value) is set (stored) at each pixel position, for example. Then, screen distance information is acquired based on the acquired depth information. By doing so, for example, the screen distance information can be automatically acquired even if the player does not input the screen distance information on the game environment setting screen.
この場合にスクリーン距離情報取得部110は、色画像センサを用いて、色画像情報(RGB画像データ)を取得し、取得された色画像情報とデプス情報に基づいて、スクリーン距離情報を取得してもよい。例えば画像センサである色画像センサ(RGBセンサであるCCD、CMOSセンサ等)により観者を撮像し、色画像情報(撮像画像情報)を取得する。この色画像情報は、例えば各画素位置に色情報(RGB情報)が設定(格納)された画像情報である。そしてスクリーン距離情報取得部110は、取得された色画像情報とデプス情報に基づいて、スクリーン距離情報を取得する。例えば色画像情報に基づいて、観者の顔領域等を画像認識する。そしてデプス情報に基づいて、画像認識された顔領域でのデプス値を取得し、取得されたデプス値によりスクリーン距離情報を特定する。このようにすれば、自動的にスクリーン距離情報を取得する処理を行う場合に、その処理負荷を軽減できる。 In this case, the screen distance information acquisition unit 110 acquires color image information (RGB image data) using a color image sensor, acquires screen distance information based on the acquired color image information and depth information. Also good. For example, a viewer is imaged by a color image sensor that is an image sensor (CCD, CMOS sensor, or the like that is an RGB sensor), and color image information (captured image information) is acquired. This color image information is image information in which color information (RGB information) is set (stored) at each pixel position, for example. Then, the screen distance information acquisition unit 110 acquires screen distance information based on the acquired color image information and depth information. For example, based on the color image information, the face area of the viewer is recognized as an image. Then, based on the depth information, the depth value in the face area where the image is recognized is acquired, and the screen distance information is specified based on the acquired depth value. In this way, when processing for automatically obtaining screen distance information is performed, the processing load can be reduced.
2.本実施形態の手法
次に本実施形態の手法について具体的に説明する。
2. Next, the method of this embodiment will be described in detail.
2.1 湾曲面への情報表示オブジェクトの配置設定
図2に本実施形態の画像生成システムにより生成される画像の例を示す。図2に示すように本実施形態では、IOB1、IOB2、IOB3などの情報表示オブジェクトを、オブジェクト空間(仮想3次元空間)内の湾曲面上に配置設定して立体視表示している。
2.1 Arrangement Setting of Information Display Object on Curved Surface FIG. 2 shows an example of an image generated by the image generation system of this embodiment. As shown in FIG. 2, in this embodiment, information display objects such as IOB1, IOB2, and IOB3 are arranged and set on a curved surface in an object space (virtual three-dimensional space) and displayed in a stereoscopic view.
例えば図3(A)に示すように、表示部190のスクリーンSC(表示画面)に対応する位置に情報表示オブジェクトIOB1、IOB2、IOB3が立体視表示されるように湾曲面CSFを設定する。そして、この湾曲面CSFに沿って情報表示オブジェクトIOB1、IOB2、IOB3を配置して、立体視表示された画像を生成する。ここで情報表示オブジェクトは、プレーヤにゲームに関する情報を表示するためのオブジェクトである。具体的にはIOB1は、プレーヤが操作するキャラクタCHの体力(残り体力)の情報(広義にはキャラクタのステータス情報)を表示するためのオブジェクトである。IOB2は、キャラクタCHの装備アイテムEOBである武器アイテムの情報を表示するためのオブジェクトである。IOB3は、キャラクタCHが移動するオブジェクト空間のマップの情報を表示するためのオブジェクトである。 For example, as shown in FIG. 3A, the curved surface CSF is set so that the information display objects IOB1, IOB2, and IOB3 are stereoscopically displayed at positions corresponding to the screen SC (display screen) of the display unit 190. Then, information display objects IOB1, IOB2, and IOB3 are arranged along the curved surface CSF to generate a stereoscopically displayed image. Here, the information display object is an object for displaying information about the game on the player. Specifically, the IOB 1 is an object for displaying information on the physical strength (remaining physical strength) of the character CH operated by the player (character status information in a broad sense). IOB2 is an object for displaying information on a weapon item that is an equipment item EOB of the character CH. The IOB 3 is an object for displaying information on a map of an object space in which the character CH moves.
例えば図3(A)はスクリーンSC及び仮想カメラVCを上方から見た図であり、図3(B)は横方向から見た図である。図3(A)、図3(B)に示すように、湾曲面CSFは、その曲率中心が仮想カメラVC側にある曲面である。具体的には、プレーヤの視点に相当する仮想カメラVCの周りを覆うように配置される球面(略球面を含む)である。例えば図3(A)、図3(B)では、表示部190のスクリーンSCに外接(例えばスクリーンSCの中心で外接)するように湾曲面CSFは配置されている。なお湾曲面は球面には限定されず、例えば円筒状の曲面等であってもよい。 For example, FIG. 3A is a view of the screen SC and the virtual camera VC as viewed from above, and FIG. 3B is a view as viewed from the side. As shown in FIGS. 3A and 3B, the curved surface CSF is a curved surface whose center of curvature is on the virtual camera VC side. Specifically, it is a spherical surface (including a substantially spherical surface) arranged so as to cover the virtual camera VC corresponding to the viewpoint of the player. For example, in FIGS. 3A and 3B, the curved surface CSF is arranged so as to circumscribe the screen SC of the display unit 190 (for example, circumscribe at the center of the screen SC). The curved surface is not limited to a spherical surface, and may be, for example, a cylindrical curved surface.
そして本実施形態では、このように情報表示オブジェクトIOB1〜IOB3を湾曲面CSF上に配置設定して、図3(C)に示すように左目用仮想カメラVCLから見える画像である左目用画像と、右目用仮想カメラVCRから見える画像である右目用画像を生成する。このようにすることで、湾曲面CSF上に配置された情報表示オブジェクトIOB1〜IOB3も立体視表示されるようになり、これまでにない表示態様で情報表示オブジェクトを表示できるようになる。 In this embodiment, the information display objects IOB1 to IOB3 are arranged and set on the curved surface CSF in this way, and the left-eye image that is an image seen from the left-eye virtual camera VCL as shown in FIG. A right-eye image that is an image seen from the right-eye virtual camera VCR is generated. By doing in this way, the information display objects IOB1 to IOB3 arranged on the curved surface CSF are also stereoscopically displayed, and the information display object can be displayed in an unprecedented display mode.
なお、左目用仮想カメラVCL、右目用仮想カメラVCRは、プレーヤの視点に相当する仮想カメラVC(基準仮想カメラ)の位置VPや視線方向と、カメラ間距離DSに基づいて配置設定できる。また図2では、プレーヤが操作するキャラクタCHが表示される三人称視点の画像例であるが、一人称視点の画像であってもよい。一人称視点の場合には、キャラクタCHは表示部190に表示されない仮想的なオブジェクトになり、仮想カメラVCの視点がプレーヤの視点になって、プレーヤはオブジェクト空間内を移動することになる。 The left-eye virtual camera VCL and the right-eye virtual camera VCR can be arranged and set based on the position VP and line-of-sight direction of the virtual camera VC (reference virtual camera) corresponding to the player's viewpoint and the inter-camera distance DS. Further, FIG. 2 shows an example of a third-person viewpoint image in which the character CH operated by the player is displayed, but a first-person viewpoint image may be used. In the case of the first person viewpoint, the character CH becomes a virtual object that is not displayed on the display unit 190, the viewpoint of the virtual camera VC becomes the viewpoint of the player, and the player moves in the object space.
例えば図4に、情報表示オブジェクトの比較例の表示手法を示す。この比較例の手法では、体力、装備アイテム、マップ等の情報を表示する情報表示オブジェクトは、オブジェクト空間内に配置設定されるオブジェクトではない。即ち、これらの情報表示オブジェクトは、3次元の座標情報(X、Y、Z座標)を有しておらず、スクリーン上にスプライト等として描画される。つまり、スクリーン上の座標だけを用いて描画されている。このため、これらの情報表示オブジェクトは、常に画面に対応する位置に平面的な画像として表示されるようになる。 For example, FIG. 4 shows a display method of a comparative example of the information display object. In the method of this comparative example, the information display object that displays information such as physical strength, equipment items, and maps is not an object that is placed and set in the object space. That is, these information display objects do not have three-dimensional coordinate information (X, Y, Z coordinates) and are drawn as sprites on the screen. That is, it is drawn using only the coordinates on the screen. For this reason, these information display objects are always displayed as planar images at positions corresponding to the screen.
そして、立体視表示ではない疑似3次元のゲーム画像においては、図4のように情報表示オブジェクトが画面に貼り付いたような平面的な絵として表示されても、プレーヤは、それほど違和感を感じない。 In a pseudo three-dimensional game image that is not stereoscopic display, even if the information display object is displayed as a two-dimensional picture pasted on the screen as shown in FIG. 4, the player does not feel so uncomfortable. .
ところが、立体視表示の画像では、疑似3次元画像に比べて、キャラクタやマップの立体感や奥行き感が、現実世界と同様にリアルに表現される。従って、このような立体感のある世界において、図4に示すように、体力ゲージ等の情報表示オブジェクトだけが、常に画面の位置に平面的に表示されると、せっかく創出した立体感が損なわれてしまい、プレーヤの仮想現実感が低下する。 However, in the stereoscopic display image, the stereoscopic effect and the depth feeling of the character and the map are realistically expressed as in the real world, compared to the pseudo three-dimensional image. Therefore, in such a world with a three-dimensional effect, as shown in FIG. 4, if only information display objects such as physical fitness gauges are always displayed in a plane on the screen, the created three-dimensional effect is lost. As a result, the virtual reality of the player is reduced.
この点、本実施形態によれば図2に示すように、あたかもプレーヤの周囲で宙に浮かんでいるかのように見える情報表示オブジェクトIOB1〜IOB3が立体視表示される。従って、キャラクタCHやマップなどの他のオブジェクトと同様の立体感、奥行き感で、情報表示オブジェクトIOB1〜IOB3が表示されるようになる。このため、立体感のある世界に、情報表示オブジェクトIOB1〜IOB3も溶け込んで表示されるようになり、情報表示オブジェクトの表示が原因でプレーヤの仮想現実感が低下してしまう事態を防止できる。即ち、本実施形態では、情報表示オブジェクトIOB1〜IOB3に対しても3次元座標情報(X、Y、Z座標)を与えて、プレーヤの視点(仮想カメラの位置)から見て例えば等距離の位置に配置する。例えば球面又は円筒の湾曲面CSFに情報表示オブジェクトIOB1〜IOB3を配置する。このようにすれば、図4のようにディスプレイ面に貼り付いたような表示ではなく、プレーヤから見て、より自然に見える情報表示オブジェクトIOB1〜IOB3の表示が可能になる。 In this regard, according to the present embodiment, as shown in FIG. 2, the information display objects IOB1 to IOB3 that appear to be floating in the air around the player are displayed stereoscopically. Accordingly, the information display objects IOB1 to IOB3 are displayed with the same stereoscopic effect and depth feeling as other objects such as the character CH and the map. For this reason, the information display objects IOB1 to IOB3 are also melted and displayed in a world with a three-dimensional effect, and a situation where the virtual reality of the player is lowered due to the display of the information display object can be prevented. That is, in the present embodiment, three-dimensional coordinate information (X, Y, Z coordinates) is also given to the information display objects IOB1 to IOB3, and the positions are equidistant from the viewpoint of the player (the position of the virtual camera), for example. To place. For example, the information display objects IOB1 to IOB3 are arranged on a spherical or cylindrical curved surface CSF. In this way, it is possible to display the information display objects IOB1 to IOB3 that look more natural when viewed from the player, instead of being displayed as shown in FIG.
2.2 スクリーン距離に応じた情報表示オブジェクトの配置
本実施形態では、スクリーンSCからプレーヤ(観者)までの距離を表すスクリーン距離情報に応じて情報表示オブジェクトを表示している。
2.2 Arrangement of Information Display Object According to Screen Distance In the present embodiment, the information display object is displayed according to screen distance information representing the distance from the screen SC to the player (viewer).
例えば図5に、プレーヤが自身のゲームプレイの環境を設定するためのゲーム環境の設定画面(オプション設定画面)の例を示す。 For example, FIG. 5 shows an example of a game environment setting screen (option setting screen) for the player to set his game play environment.
図5では、プレーヤは、ゲーム環境設定の立体視オプションとして、立体視方式、立体視強度、スクリーンサイズ、スクリーン距離等を設定できるようになっている。立体視方式としては、前述のように偏光眼鏡を使用する偏光方式や、液晶シャッター等を用いるシャッター方式などの種々の方式を設定できる。 In FIG. 5, the player can set the stereoscopic viewing method, the stereoscopic viewing strength, the screen size, the screen distance, and the like as the stereoscopic viewing options for the game environment setting. As the stereoscopic viewing method, various methods such as a polarizing method using polarized glasses and a shutter method using a liquid crystal shutter can be set as described above.
また立体視強度は、カメラ間距離DSに対応するものであり、プレーヤは、この立体視強度を設定することで、自身が所望する立体感で立体視画像を見ることが可能になる。 The stereoscopic intensity corresponds to the inter-camera distance DS, and the player can view a stereoscopic image with the stereoscopic effect desired by the player by setting the stereoscopic intensity.
スクリーンサイズは、立体視画像が表示される表示部の表示画面のサイズ(テレビサイズ)である。スクリーン距離は、プレーヤの視聴位置から表示部(テレビ)までの距離である。例えば、スクリーンサイズやスクリーン距離が変わると、同じカメラ間距離の設定であっても、プレーヤが感じる立体感の強さは異なったものになる。このため、スクリーンサイズやスクリーン距離に応じて、カメラ間距離等の補正処理を行う必要がある。 The screen size is the size (television size) of the display screen of the display unit on which the stereoscopic image is displayed. The screen distance is a distance from the viewing position of the player to the display unit (television). For example, when the screen size or the screen distance changes, even if the same inter-camera distance setting is used, the strength of the stereoscopic effect that the player feels is different. For this reason, it is necessary to perform correction processing such as the inter-camera distance in accordance with the screen size and the screen distance.
本実施形態では、例えば図5のゲーム環境設定画面でのプレーヤの入力情報に基づいて、スクリーン距離情報を取得する。そして取得されたスクリーン距離情報に応じて、仮想カメラVCと湾曲面CSFとの距離を変化させる。例えばスクリーン距離情報に基づいて、仮想カメラVCと湾曲面CSFとの間の相対的な距離を設定し、湾曲面CSFを配置する。 In the present embodiment, screen distance information is acquired based on, for example, player input information on the game environment setting screen of FIG. Then, the distance between the virtual camera VC and the curved surface CSF is changed according to the acquired screen distance information. For example, based on the screen distance information, the relative distance between the virtual camera VC and the curved surface CSF is set, and the curved surface CSF is arranged.
このようにすれば、情報表示オブジェクトIOB1〜IOB3の表示を有効活用して、プレーヤの視点(仮想カメラ)からスクリーンSCまでの距離をプレーヤに把握させることが可能になる。 In this way, the display of the information display objects IOB1 to IOB3 can be effectively used to allow the player to grasp the distance from the player's viewpoint (virtual camera) to the screen SC.
即ち、図5のゲーム環境設定画面において、プレーヤがスクリーン距離を入力しても、入力されたスクリーン距離が、プレーヤと表示部の実際の距離と一致しているのか否かを、プレーヤは確証できない。そして、入力されたスクリーン距離が、実際の距離と一致していないと、表示される立体視のゲーム画像は、ゲームメーカ側が意図した立体視の設定とは異なった設定の立体視画像になってしまう。即ち、カメラ間距離に応じて設定される立体感の強度等が、ゲームメーカ側が意図した設定とは異なった設定になってしまい、プレーヤにとって違和感のある立体視画像が生成されてしまうおそれがある。 That is, even if the player inputs the screen distance on the game environment setting screen of FIG. 5, the player cannot confirm whether or not the input screen distance matches the actual distance between the player and the display unit. . If the input screen distance does not match the actual distance, the displayed stereoscopic game image is a stereoscopic image having a setting different from the stereoscopic setting intended by the game maker. End up. In other words, the intensity of the stereoscopic effect set according to the distance between the cameras becomes a setting different from the setting intended by the game maker, and there is a possibility that a stereoscopic image that is uncomfortable for the player may be generated. .
この点、本実施形態によれば、プレーヤにより入力されたスクリーン距離に対応する位置に、湾曲面CSFが配置設定されて、情報表示オブジェクトIOB1〜IOB3が立体視表示されるようになる。従って、プレーヤは、図2に示すような立体視画像の画面を見ることで、自身が入力したスクリーン距離の設定が正しい設定か否かを確認できる。 In this regard, according to the present embodiment, the curved surface CSF is arranged and set at a position corresponding to the screen distance input by the player, and the information display objects IOB1 to IOB3 are stereoscopically displayed. Therefore, the player can confirm whether or not the setting of the screen distance input by himself / herself is correct by looking at the stereoscopic image screen as shown in FIG.
例えばプレーヤが入力したスクリーン距離が、実際の距離(視聴位置からスクリーンまでの距離)よりも短い場合には、図6(A)に示すように、湾曲面CSFは、スクリーンSCへの外接位置よりも、プレーヤPLの視点から見て手前側(距離LS1の位置)に配置される。従って、情報表示オブジェクトIOB1〜IOB3も、プレーヤPLの視点から見てスクリーンSCよりも手前側に立体視表示されるようになる。 For example, when the screen distance input by the player is shorter than the actual distance (distance from the viewing position to the screen), as shown in FIG. 6A, the curved surface CSF is more than the circumscribing position to the screen SC. Also, it is arranged on the near side (position of the distance LS1) from the viewpoint of the player PL. Therefore, the information display objects IOB1 to IOB3 are also stereoscopically displayed in front of the screen SC as viewed from the viewpoint of the player PL.
一方、プレーヤが入力したスクリーン距離が、実際の距離よりも長い場合には、図6(B)に示すように、湾曲面CSFは、プレーヤPLの視点から見てスクリーンSCよりも奥側(距離LS3の位置)に配置される。従って、情報表示オブジェクトIOB1〜IOB3も、スクリーンSCよりも奥側に立体視表示されるようになる。 On the other hand, when the screen distance input by the player is longer than the actual distance, as shown in FIG. 6B, the curved surface CSF is farther from the screen SC (distance from the viewpoint of the player PL (distance). LS3 position). Therefore, the information display objects IOB1 to IOB3 are also stereoscopically displayed behind the screen SC.
従って、プレーヤは、図6(A)のように情報表示オブジェクトIOB1〜IOB3が手前側に立体視表示される場合には、図5のゲーム環境設定画面においてスクリーン距離を大きな値に設定する。一方、図6(B)のように情報表示オブジェクトIOB1〜IOB3が奥側に立体視表示される場合には、図5のゲーム環境設定画面においてスクリーン距離を小さな値に設定する。このようにすることで、図6(C)に示すように、湾曲面CSFは、スクリーンSCに対応する位置(外接位置)に配置されるようになり、情報表示オブジェクトIOB1〜IOB3もスクリーンSCに対応する位置に立体視表示されようになる。 Therefore, when the information display objects IOB1 to IOB3 are stereoscopically displayed on the front side as shown in FIG. 6A, the player sets the screen distance to a large value on the game environment setting screen of FIG. On the other hand, when the information display objects IOB1 to IOB3 are stereoscopically displayed on the back side as shown in FIG. 6B, the screen distance is set to a small value on the game environment setting screen of FIG. By doing so, as shown in FIG. 6C, the curved surface CSF is arranged at a position (circumscribed position) corresponding to the screen SC, and the information display objects IOB1 to IOB3 are also arranged on the screen SC. The stereoscopic display is started at the corresponding position.
従って、プレーヤは、情報表示オブジェクトIOB1〜IOB3の立体視の表示位置を手がかりとして、図5のゲーム環境設定画面において適正なスクリーン距離を入力できるようになる。そして、適正なスクリーン距離が設定されることで、カメラ間距離等の補正処理も適正なものになり、ゲームメーカ側が意図した立体視強度等で立体視画像を表示できるようになる。 Therefore, the player can input an appropriate screen distance on the game environment setting screen of FIG. 5 using the stereoscopic display positions of the information display objects IOB1 to IOB3 as a clue. Then, by setting an appropriate screen distance, correction processing such as the distance between cameras becomes appropriate, and a stereoscopic image can be displayed with the stereoscopic intensity intended by the game maker.
なお、以上では、プレーヤの入力情報に基づいてスクリーン距離情報を取得する場合について説明したが、デプスセンサ等を用いてスクリーン距離情報を自動的に算出して取得してもよい。 In the above description, the screen distance information is acquired based on the input information of the player. However, the screen distance information may be automatically calculated and acquired using a depth sensor or the like.
例えば図7(A)では、表示部190に対応する位置に、デプスセンサ(赤外線センサ等)や色画像センサ(CCDやCMOSセンサなどのRGBセンサ等)により実現される画像センサISEが設置されている。この画像センサISEは、その撮像方向(光軸方向)が表示部190からプレーヤPLの方に向く方向になるように設置されており、表示部190側から見たプレーヤPLのデプス情報や色画像情報を撮像する。なお画像センサISEは、表示部190に内蔵されるものであってもよいし、外付け部品として用意されるものであってもよい。 For example, in FIG. 7A, an image sensor ISE realized by a depth sensor (such as an infrared sensor) or a color image sensor (such as an RGB sensor such as a CCD or CMOS sensor) is installed at a position corresponding to the display unit 190. . The image sensor ISE is installed such that its imaging direction (optical axis direction) is directed from the display unit 190 toward the player PL, and the depth information and color image of the player PL viewed from the display unit 190 side. Image information. The image sensor ISE may be built in the display unit 190 or may be prepared as an external component.
そして図7(A)の画像センサISEを用いて、図7(B)に示すような色画像情報とデプス情報を取得する。例えば色画像情報では、プレーヤPLやその周りの風景の色情報が得られる。一方、デプス情報では、プレーヤPLやその周りの風景のデプス値(奥行き値)が、例えばグレースケール値として得られる。例えば色画像情報を用いて、公知の画像認識処理により、顔領域RFAを抽出する。そして、この顔領域RFAでのデプス値を、デプス情報を用いて参照し、得られたデプス値に基づいて、スクリーン距離情報を取得する。このようにすれば、図5のゲーム環境設定画面においてプレーヤがスクリーン距離を入力しなくても、スクリーン距離情報を自動的に取得できる。 Then, using the image sensor ISE of FIG. 7A, color image information and depth information as shown in FIG. 7B are acquired. For example, in the color image information, color information of the player PL and the surrounding scenery can be obtained. On the other hand, in the depth information, the depth values (depth values) of the player PL and the surrounding scenery are obtained as gray scale values, for example. For example, using the color image information, the face area RFA is extracted by a known image recognition process. Then, the depth value in the face area RFA is referred to using the depth information, and the screen distance information is acquired based on the obtained depth value. In this way, the screen distance information can be automatically acquired even if the player does not input the screen distance on the game environment setting screen of FIG.
なお、画像センサISEは、デプスセンサと色画像センサとが別々に設けられたセンサであってもよいし、デプスセンサと色画像センサとが複合的に組み合わせられたセンサであってもよい。またデプス情報の取得手法としては、公知に種々の手法を想定できる。例えば画像センサISE(デプスセンサ)から赤外線等の光を投射し、その投射光の反射光や投射光が戻ってくるまでの時間(Time Of Fright)を検出することで、デプス情報を取得し、画像センサISEの位置から見た観者等の物体のシェイプを検出する。具体的には、デプス情報は、例えば画像センサISEから近い物体では明るくなり、画像センサISEから遠い物体では暗くなるグレースケールデータとして表される。なおデプス情報の取得手法としては種々の変形実施が可能であり、例えばCMOSセンサなどの画像センサを用いて、色画像情報と同時にデプス情報(被写体までの距離情報)を取得するようにしてもよい。また超音波などを用いた測距センサなどによりデプス情報を取得してもよい。 The image sensor ISE may be a sensor in which a depth sensor and a color image sensor are separately provided, or may be a sensor in which a depth sensor and a color image sensor are combined. Various methods can be assumed for obtaining depth information. For example, light such as infrared rays is projected from an image sensor ISE (depth sensor), and depth information is acquired by detecting time (Time Of Fright) until the reflected light of the projection light or the projected light returns. The shape of an object such as a viewer viewed from the position of the sensor ISE is detected. Specifically, the depth information is expressed as grayscale data that becomes brighter for an object close to the image sensor ISE and darker for an object far from the image sensor ISE, for example. The depth information acquisition method can be variously modified. For example, an image sensor such as a CMOS sensor may be used to acquire depth information (distance information to the subject) simultaneously with the color image information. . Further, the depth information may be acquired by a distance measuring sensor using ultrasonic waves or the like.
そして本実施形態では、このように画像センサISEを利用して取得されたスクリーン距離情報を用いて、仮想カメラVCと湾曲面CSFとの間の距離を変化させる。 In the present embodiment, the distance between the virtual camera VC and the curved surface CSF is changed using the screen distance information acquired using the image sensor ISE.
例えば図8(A)では、画像センサISEを用いて、短い距離のスクリーン距離が検知され、図8(B)では、長い距離のスクリーン距離が検知されている。従って、図8(A)では、仮想カメラVCと湾曲面CSFの距離は短い距離LS1に設定され、図8(B)では、仮想カメラVCと湾曲面CSFの距離は長い距離LS2に設定される。例えば図8(A)、図8(B)では、表示部190に対応する位置に情報表示オブジェクトIOB1〜IOB3が立体視表示されるように、湾曲面CSFが配置される。具体的には、表示部190のスクリーンSCに外接するように湾曲面CSFが配置され、この湾曲面CSFに沿って情報表示オブジェクトIOB1〜IOB3が配置される。 For example, in FIG. 8A, a short screen distance is detected using the image sensor ISE, and in FIG. 8B, a long screen distance is detected. Accordingly, in FIG. 8A, the distance between the virtual camera VC and the curved surface CSF is set to a short distance LS1, and in FIG. 8B, the distance between the virtual camera VC and the curved surface CSF is set to a long distance LS2. . For example, in FIGS. 8A and 8B, the curved surface CSF is arranged so that the information display objects IOB1 to IOB3 are stereoscopically displayed at positions corresponding to the display unit 190. Specifically, the curved surface CSF is disposed so as to circumscribe the screen SC of the display unit 190, and the information display objects IOB1 to IOB3 are disposed along the curved surface CSF.
このようにすれば、画像センサISEによりスクリーン距離情報を自動検出し、検出されたスクリーン距離情報を用いて、湾曲面CSFを、スクリーンSCに対応する位置に配置できるようになる。従って、プレーヤの視聴位置が変化した場合にも、常に図2のような位置に情報表示オブジェクトIOB1〜IOB3が配置される立体視画像を生成できるようになる。また、画像センサISEにより検出されたスクリーン距離情報を用いて、左目用仮想カメラと右目用仮想カメラのカメラ間距離の補正処理などを行って、適正な立体視強度の立体視画像を生成することが可能になる。 In this way, the screen distance information can be automatically detected by the image sensor ISE, and the curved surface CSF can be arranged at a position corresponding to the screen SC using the detected screen distance information. Therefore, even when the viewing position of the player changes, it is possible to generate a stereoscopic image in which the information display objects IOB1 to IOB3 are always arranged at the positions as shown in FIG. Further, by using the screen distance information detected by the image sensor ISE, correction processing of the inter-camera distance between the left-eye virtual camera and the right-eye virtual camera is performed, and a stereoscopic image having an appropriate stereoscopic intensity is generated. Is possible.
なお図2では、情報表示オブジェクトIOB1〜IOB3が、3次元座標情報(3次元位置情報)を有する2次元形状のオブジェクトである場合を例示しているが、本実施形態はこれに限定されない。例えば図9に示すように、情報表示オブジェクトとして3次元形状のオブジェクトを配置してもよい。 2 illustrates a case where the information display objects IOB1 to IOB3 are two-dimensional objects having three-dimensional coordinate information (three-dimensional position information), but the present embodiment is not limited to this. For example, as shown in FIG. 9, a three-dimensional object may be arranged as the information display object.
即ち図9では、マップ情報を表示するための情報表示オブジェクトIOB3が、3次元形状のオブジェクトになっている。例えばキャラクタが移動するゲームフィールのマップ形状を簡略化したマップ表示用オブジェクト(複数のポリゴンで形成されるオブジェクト)を用意し、このマップ表示用オブジェクトを、湾曲面CSF上に配置する。こうすることで、立体感のあるマップがプレーヤの周りに表示されるようになるため、より見やすいマップをプレーヤに提供できる。また3次元形状のマップ表示用オブジェクトについても、両眼視差が設定されて、立体視表示されるようになるため、これまでにないゲームインターフェース環境をプレーヤに提供できる。 That is, in FIG. 9, the information display object IOB3 for displaying the map information is a three-dimensional object. For example, a map display object (an object formed by a plurality of polygons) that simplifies the map shape of the game feel that the character moves is prepared, and the map display object is arranged on the curved surface CSF. By doing so, a map with a three-dimensional effect is displayed around the player, so that a map that is easier to see can be provided to the player. In addition, since the binocular parallax is also set for the three-dimensional map display object and the stereoscopic display is performed, an unprecedented game interface environment can be provided to the player.
また本実施形態では、スクリーン距離情報のみならず、様々な情報(所定の情報)に基づいて、仮想カメラVCと湾曲面CSFとの距離LS(情報表示オブジェクトの配置位置)を制御してもよい。例えば、プレーヤがゲームプレイを行うゲームステージの情報に応じて仮想カメラVCと湾曲面CSFとの距離LSを制御してもよい。例えば第1のゲームステージと第2のゲームステージとで例えば図6(A)〜図6(C)に示すように距離LSを異ならせる。或いは、プレーヤが操作するキャラクタがゲームフィールド上を移動する場合に、ゲームフィールド上でのキャラクタの位置情報に基づいて、距離LSを制御してもよい。例えばキャラクタの位置が第1の位置である場合には距離LSを短くし、第2の位置である場合には距離LSを長くする。或いは、キャラクタの装備武器等の装備アイテムやキャラクタの体力、攻撃力、防御力等のステータス情報に基づいて距離LSを制御したり、敵キャラクタの体力、攻撃力、武器等のステータス情報に応じて距離LSを制御してもよい。更に表示部190のディスプレイサイズに応じて距離LSを短くしたり、長くしてもよい。或いは、プレーヤの年齢、性別等のプレーヤ情報に応じて距離LSを制御して、プレーヤの年齢等に応じた最適な距離に仮想カメラVCと湾曲面CSFとの距離LSを設定してもよい。 In this embodiment, the distance LS (position of the information display object) between the virtual camera VC and the curved surface CSF may be controlled based on not only the screen distance information but also various information (predetermined information). . For example, the distance LS between the virtual camera VC and the curved surface CSF may be controlled according to information on the game stage where the player plays the game. For example, the distance LS is made different between the first game stage and the second game stage, for example, as shown in FIGS. 6 (A) to 6 (C). Alternatively, when the character operated by the player moves on the game field, the distance LS may be controlled based on the position information of the character on the game field. For example, when the character position is the first position, the distance LS is shortened, and when the character position is the second position, the distance LS is lengthened. Alternatively, the distance LS is controlled based on the equipment item such as the equipment weapon of the character and the status information of the character's physical strength, attack power, defense power, etc., or according to the status information of the enemy character's physical strength, attack power, weapon, etc. The distance LS may be controlled. Furthermore, the distance LS may be shortened or lengthened according to the display size of the display unit 190. Alternatively, the distance LS may be controlled according to player information such as the age and sex of the player, and the distance LS between the virtual camera VC and the curved surface CSF may be set to an optimum distance according to the age of the player.
2.3 複数の湾曲面の設定
以上では、情報表示オブジェクトが配置される湾曲面として、1つの湾曲面を設定する場合について説明したが、複数の湾曲面を設定するようにしてもよい。
2.3 Setting a plurality of curved surfaces In the above, the case where one curved surface is set as the curved surface on which the information display object is arranged has been described, but a plurality of curved surfaces may be set.
例えば図10では、仮想カメラVCからの距離が異なる複数の湾曲面CSF1〜CSF3(広義には第1〜第Nの湾曲面)が設定され、これらのCSF1〜CSF3の各湾曲面に情報表示オブジェクトが配置されている。例えば湾曲面CSF1には情報表示オブジェクトIOB11、IOB12、IOB13が配置され、湾曲面CSF2には情報表示オブジェクトIOB21、IOB22が配置され、湾曲面CSF3には情報表示オブジェクトIOB31、IOB32が配置されている。そして、湾曲面CSF1、CSF2、CSF3の仮想カメラVCからの距離は、各々、L1、L2、L3となっており、互いに異なっている。 For example, in FIG. 10, a plurality of curved surfaces CSF1 to CSF3 (first to Nth curved surfaces in a broad sense) having different distances from the virtual camera VC are set, and an information display object is set on each curved surface of these CSF1 to CSF3. Is arranged. For example, information display objects IOB11, IOB12, and IOB13 are arranged on the curved surface CSF1, information display objects IOB21 and IOB22 are arranged on the curved surface CSF2, and information display objects IOB31 and IOB32 are arranged on the curved surface CSF3. The distances of the curved surfaces CSF1, CSF2, and CSF3 from the virtual camera VC are L1, L2, and L3, respectively, which are different from each other.
このように複数の湾曲面CSF1〜CSF3を、仮想カメラVCから見て層構造に配置すれば、これまでは実現できなかったゲームインターフェース環境をプレーヤに提供できる。例えば、多数の情報表示オブジェクトを各湾曲面毎に分類して配置したり、情報表示オブジェクトを階層構造化して配置することが可能になる。また、重要な情報を表示する情報表示オブジェクトを手前側の湾曲面CSF1に配置し、あまり重要ではない情報を表示する情報表示オブジェクトを奥側の湾曲面CSF3やCSF2に配置することも可能になる。 As described above, if the plurality of curved surfaces CSF1 to CSF3 are arranged in a layered structure as viewed from the virtual camera VC, a game interface environment that could not be realized can be provided to the player. For example, a large number of information display objects can be classified and arranged for each curved surface, or information display objects can be arranged in a hierarchical structure. It is also possible to arrange an information display object that displays important information on the curved surface CSF1 on the near side and an information display object that displays information that is not very important on the curved surface CSF3 or CSF2 on the back side. .
また、このような湾曲面CSF1〜CSF3を設定すれば、湾曲面CSF1〜CSF3に配置される情報表示オブジェクトの並び替え処理を行うことも可能になる。 If such curved surfaces CSF1 to CSF3 are set, it is possible to perform a rearrangement process of information display objects arranged on the curved surfaces CSF1 to CSF3.
具体的には図11(A)に示すように、プレーヤ(観者)からの入力情報(並び替えを指示する入力情報)に基づいて、湾曲面CSF1〜CSF3(第1〜第Nの湾曲面)に配置設定される情報表示オブジェクトを、仮想カメラからの距離が異なる位置に移動する並び替え処理が可能になる。例えば図11(A)において、仮想カメラVCから見て手前側の湾曲面CSF1に配置される情報表示オブジェクトIOB12を、奥側の湾曲面CSF3に移動したり、奥側の湾曲面CSF3に配置される情報表示オブジェクトIOB31を、手前側の湾曲面CSF1に移動するなどの並び替え処理が可能になる。 Specifically, as shown in FIG. 11A, curved surfaces CSF1 to CSF3 (first to Nth curved surfaces) based on input information (input information for instructing rearrangement) from a player (viewer). The rearrangement process of moving the information display object set to () to a position where the distance from the virtual camera is different is possible. For example, in FIG. 11A, the information display object IOB12 arranged on the curved surface CSF1 on the near side when viewed from the virtual camera VC is moved to the curved surface CSF3 on the back side, or arranged on the curved surface CSF3 on the back side. The rearrangement process such as moving the information display object IOB31 to the curved surface CSF1 on the near side becomes possible.
この場合に、例えばCSF1〜CSF3の湾曲面自体を並び替えてもよい。例えば手前側の湾曲面CSF1を奥側の湾曲面CSF3の位置に移動したり、奧側の湾曲面CSF3を手前側の湾曲面CSF1の位置に移動する。このようにすれば、情報表示オブジェクトIOB11、IOB12、IOB13は、湾曲面CSF1の移動に伴い奥側に移動し、情報表示オブジェクトIOB31、IOB32は、湾曲面CSF3の移動に伴い手前側に移動するようになる。またCSF1〜CSF3の各湾曲面上において情報表示オブジェクトを並び替えてよい。例えば湾曲面CSF1上において、情報表示オブジェクトIOB13の位置にIOB12を移動し、IOB12の位置にIOB13を移動する並び替え処理を行う。この並び替え処理は、各種のゲーム状況に応じて自動的に行ってもよいし、プレーヤの入力情報に基づいてマニュアルで行ってもよい。例えばゲーム環境設定画面のオプション画面で、各湾曲面上での情報表示オブジェクトの配置位置を設定できるようにしてもよい。 In this case, for example, the curved surfaces of CSF1 to CSF3 may be rearranged. For example, the curved surface CSF1 on the near side is moved to the position of the curved surface CSF3 on the back side, or the curved surface CSF3 on the heel side is moved to the position of the curved surface CSF1 on the near side. In this way, the information display objects IOB11, IOB12, and IOB13 move to the back side as the curved surface CSF1 moves, and the information display objects IOB31 and IOB32 move to the near side as the curved surface CSF3 moves. become. Moreover, you may rearrange an information display object on each curved surface of CSF1-CSF3. For example, on the curved surface CSF1, rearrangement processing is performed in which the IOB 12 is moved to the position of the information display object IOB13 and the IOB 13 is moved to the position of the IOB12. This rearrangement process may be automatically performed according to various game situations, or may be performed manually based on input information of the player. For example, the arrangement position of the information display object on each curved surface may be set on the option screen of the game environment setting screen.
また本実施形態をハードディスクレコーダ等の映像記録装置やテレビなどの画像生成システムにおけるメニュー画面表示に適用した場合には、例えばCSF1、CSF2、CSF3の各湾曲面に、各チャンネルで放送される番組情報を表示する情報表示オブジェクトを配置することが可能になる。例えば湾曲面CSF1にはチャンネル1で放送される番組情報の情報表示オブジェクトを配置し、湾曲面CSF2にはチャンネル3で放送される番組情報の情報表示オブジェクトを配置する。そして観者が例えばチャンネル3を選択すると、並び替え処理が行われて、チャンネル3の番組情報の情報表示オブジェクトが、手前側の湾曲面CSF1の位置に移動する。一方、チャンネル1の番組情報の情報表示オブジェクトについては、奥側の湾曲面CSF2の位置に移動する。或いはCSF1、CSF2、CSF3の各湾曲面に、各ジャンルのコンテンツの情報を表示する情報表示オブジェクトを配置してもよい。例えば湾曲面CSF1にはスポーツジャンルのコンテンツの情報表示オブジェクトを配置し、湾曲面CSF2には音楽ジャンルのコンテンツの情報表示オブジェクトを配置する。そして観者が例えば音楽ジャンルを選択すると、音楽ジャンルのコンテンツの情報表示オブジェクトが、手前側の湾曲面CSF1の位置に移動する。一方、スポーツジャンルのコンテンツの情報表示オブジェクトは、奥側の湾曲面CSF2の位置に移動する。 When this embodiment is applied to a menu screen display in a video recording apparatus such as a hard disk recorder or an image generation system such as a television, program information broadcast on each channel on each curved surface of CSF1, CSF2, and CSF3, for example. It is possible to arrange an information display object for displaying. For example, an information display object for program information broadcast on channel 1 is arranged on the curved surface CSF1, and an information display object for program information broadcast on channel 3 is arranged on the curved surface CSF2. When the viewer selects channel 3, for example, a rearrangement process is performed, and the information display object of the program information of channel 3 moves to the position of the curved surface CSF1 on the near side. On the other hand, the information display object of the program information of channel 1 moves to the position of the back curved surface CSF2. Or you may arrange | position the information display object which displays the information of the content of each genre on each curved surface of CSF1, CSF2, and CSF3. For example, a sports genre content information display object is placed on the curved surface CSF1, and a music genre content information display object is placed on the curved surface CSF2. When the viewer selects a music genre, for example, the information display object of the music genre content moves to the position of the curved surface CSF1 on the near side. On the other hand, the information display object of the sports genre content moves to the position of the back curved surface CSF2.
またCSF1〜CSF3の湾曲面に配置設定される情報表示オブジェクトに対して、情報表示の優先順位を設定してもよい。例えば図11(B)に、各情報表示オブジェクトと、その情報表示の優先順位とを対応づけたテーブルの例を示す。図11(B)に示すように、体力、マップ、武器アイテムの情報は、ゲームにおける情報表示の優先順位が高いため、これらの情報表示オブジェクトには高い優先順位(=1)が設定される。即ち、これらの体力、マップ、武器アイテムの情報は、プレーヤがゲーム中に頻繁に確認する必要がある情報であるため、高い優先順位を設定する。一方、体力以外のキャラクタのステータスや、武器以外のアイテムの情報表示オブジェクトには、中ぐらいの優先順位(=2)が設定される。また、キャラクタのステータスの詳細情報や、アイテムの詳細情報には、低い優先順位(=3)が設定される。これのら詳細情報は、ゲーム中に常に確認する必要がある情報ではなく、例えば敵との対戦を行っていないような余裕のある状況において、ゆっくりと確認すればよい情報であるからである。 Moreover, you may set the priority of an information display with respect to the information display object arrange | positioned and set to the curved surface of CSF1-CSF3. For example, FIG. 11B shows an example of a table in which each information display object is associated with the priority of information display. As shown in FIG. 11B, the physical strength, the map, and the weapon item information have a high priority for information display in the game, and therefore a high priority (= 1) is set for these information display objects. That is, since the information on the physical strength, the map, and the weapon item is information that the player needs to check frequently during the game, a high priority is set. On the other hand, a medium priority (= 2) is set for the statuses of characters other than physical strength and information display objects of items other than weapons. Further, low priority (= 3) is set in the detailed information on the character status and the detailed information on the item. This is because the detailed information is not information that needs to be constantly confirmed during the game, but is information that can be confirmed slowly in a situation where there is a margin, for example, where no battle with the enemy is being performed.
そして図11(A)では、高い優先順位が設定された情報表示オブジェクトについては、CSF1〜CSF3の湾曲面(第1〜第Nの湾曲面)のうちの、仮想カメラVCから近い位置にある湾曲面CSF1に配置する。即ち図11(B)において高い優先順位に設定されている体力、マップ、武器アイテムの情報表示オブジェクトについては、手前側の湾曲面CSF1に配置する。 In FIG. 11A, for the information display object with a high priority set, the curved surface (first to Nth curved surfaces) of CSF1 to CSF3 is located near the virtual camera VC. Arranged on the surface CSF1. In other words, the physical strength, map, and weapon item information display objects set at a high priority in FIG. 11B are arranged on the curved surface CSF1 on the near side.
一方、低い優先順位が設定された情報表示オブジェクトについては、仮想カメラVCから遠い位置にある湾曲面CSF3に配置する。即ち図11(B)において低い優先順位に設定されているキャラクタやアイテムの詳細情報の情報表示オブジェクトについては、奧側の湾曲面CSF3に配置する。 On the other hand, the information display object for which the low priority is set is arranged on the curved surface CSF3 located far from the virtual camera VC. That is, the information display object of the detailed information of the character or item set at a low priority in FIG. 11B is arranged on the curved surface CSF3 on the heel side.
このようにすれば、情報表示の優先順位が高い情報表示オブジェクトについては、仮想カメラVCから見て手前側に表示され、優先順位が低い情報表示オブジェクトについては、奧側に表示されるようになる。従って、例えばゲームプレイ中に頻繁に見る必要がある重要な情報を表示する情報表示オブジェクトは、プレーヤから見やすい位置に立体視表示されるようになる。これにより、プレーヤのゲームインターフェース環境を向上できる。 In this way, an information display object with a high information display priority is displayed on the near side when viewed from the virtual camera VC, and an information display object with a low priority is displayed on the heel side. . Therefore, for example, an information display object that displays important information that needs to be frequently viewed during game play is displayed stereoscopically at a position that is easy to see from the player. Thereby, the game interface environment of the player can be improved.
一方、時々しか見る必要がない情報を表示する情報表示オブジェクトについては、プレーヤから見て遠い位置に立体視表示されるようになる。これにより、これらの情報表示オブジェクトが、プレーヤのゲームプレイの妨げになる事態を防止できる。また、これらの情報表示オブジェクトにより表示される情報(キャラクタやアイテムの詳細情報)が必要になった場合には、図11(A)で説明したように、プレーヤの指示に基づいて、これらの情報表示オブジェクトを手前側に移動することで、プレーヤは、その情報を確認することが可能になる。 On the other hand, an information display object that displays information that only needs to be viewed from time to time is displayed stereoscopically at a position far from the player. Thereby, it is possible to prevent such information display objects from interfering with the game play of the player. Further, when information (detailed information on characters and items) displayed by these information display objects is required, as described with reference to FIG. By moving the display object to the near side, the player can check the information.
なお図11(B)等で説明した優先順位を可変に設定するようにしてもよい。例えばゲーム状況等の情報に基づいて優先順位を自動的に変化させたり、ゲーム環境設定画面等の設定画面においてプレーヤが優先順位をマニュアルで設定できるようにする。ここでゲーム状況の情報としては、プレーヤがプレイするゲームステージの情報、ゲームフィールドの情報、ゲームフィールド上でのキャラクタの位置情報、プレーヤが操作するキャラクタのステータス情報、敵キャラクタのステータス情報、或いはキャラクタの装備アイテムの情報等を想定できる。例えば各ゲームステージにおいて情報表示の必要性が高い情報を表示する情報表示オブジェクトの優先度を高くしてもよい。或いは、ゲームフィールド上でのキャラクタの位置に応じて優先順位を変化させてもよい。或いは、キャラクタのステータスパラメータのうちの所定のステータスパラメータが大きく変化した場合に、そのステータスパラメータの優先順位を高くしてもよい。また、プレーヤが、所定の情報表示オブジェクトの表示を優先する場合には、設定画面においてプレーヤが表示の優先順位をマニュアルで設定できるようにしてもよい。 Note that the priority order described in FIG. 11B and the like may be set variably. For example, the priority order is automatically changed based on information such as a game situation, or the player can manually set the priority order on a setting screen such as a game environment setting screen. Here, the game situation information includes game stage information played by the player, game field information, character position information on the game field, character status information operated by the player, enemy character status information, or character Information on equipment items can be assumed. For example, the priority of information display objects that display information that is highly necessary to display information in each game stage may be increased. Alternatively, the priority order may be changed according to the position of the character on the game field. Alternatively, when a predetermined status parameter among the status parameters of the character changes greatly, the priority of the status parameter may be increased. Further, when the player gives priority to the display of the predetermined information display object, the player may be able to manually set the display priority order on the setting screen.
また図12では、ゲームコントローラ162(操作部)を用いてプレーヤが操作するキャラクタCHの前後に湾曲面が設定されて、情報表示オブジェクトが配置されている。即ち、プレーヤの操作によって移動するキャラクタCHを挟むように、湾曲面CSF1、CSF2等が配置される。 In FIG. 12, curved surfaces are set before and after the character CH operated by the player using the game controller 162 (operation unit), and information display objects are arranged. That is, the curved surfaces CSF1, CSF2, and the like are arranged so as to sandwich the character CH that moves by the player's operation.
例えば仮想カメラVCから距離L1(第iの距離)にある湾曲面CSF1(第iの湾曲面)を、仮想カメラVCから見てキャラクタCHよりも手前側に配置する。一方、仮想カメラVCから距離L2(第jの距離)にある湾曲面CSF2(第jの湾曲面)を、仮想カメラVCから見てキャラクタCHよりも奧側に配置する。別の言い方をすれば、湾曲面CSF1と湾曲面CSF2の間にキャラクタCHが位置するような配置にする。 For example, a curved surface CSF1 (i-th curved surface) located at a distance L1 (i-th distance) from the virtual camera VC is disposed on the near side of the character CH when viewed from the virtual camera VC. On the other hand, a curved surface CSF2 (jth curved surface) located at a distance L2 (jth distance) from the virtual camera VC is arranged on the heel side of the character CH when viewed from the virtual camera VC. In other words, the character CH is arranged between the curved surfaces CSF1 and CSF2.
このようにすれば、キャラクタCHの手前側に位置する湾曲面CSF1に情報表示オブジェクトIOB11、IOB12、IOB13を配置して、例えば表示の優先順位が高い情報をプレーヤに対して提示できるようになる。一方、キャラクタCHの奥側に位置する湾曲面CSF2に情報表示オブジェクトIOB21、IOB22を配置して、表示の優先順位がそれほど高くない情報をプレーヤに対して提示できるようになる。また湾曲面CSF1、CSF2を、例えばキャラクタCHとの相対的な位置関係が固定されるように配置することが可能になるため、プレーヤの混乱を招くのを防止し、プレーヤにとって見やすい情報の提示が可能になる。 In this way, the information display objects IOB11, IOB12, and IOB13 are arranged on the curved surface CSF1 located on the front side of the character CH, and for example, information with high display priority can be presented to the player. On the other hand, the information display objects IOB21 and IOB22 are arranged on the curved surface CSF2 located on the back side of the character CH, so that information with a display priority that is not so high can be presented to the player. In addition, the curved surfaces CSF1 and CSF2 can be arranged so that, for example, the relative positional relationship with the character CH is fixed, thereby preventing confusion of the player and presenting information that is easy to see for the player. It becomes possible.
また、このように複数の湾曲面を配置する場合には、各湾曲面に配置される情報表示オブジェクトの表示態様を、仮想カメラVCからの距離に応じて異ならせて画像を生成してもよい。例えば仮想カメラVCから距離L1(第iの距離)にある湾曲面CSF1(第iの湾曲面)上に配置される情報表示オブジェクトIOB11、IOB12、IOB13(第iの情報表示オブジェクト)と、仮想カメラから距離L2(第jの距離)にある湾曲面CSF2(第jの湾曲面)上に配置される情報表示オブジェクトIOB21、IOB22(第jの情報表示オブジェクト)とが異なる表示態様になる画像を生成する。同様に、湾曲面CSF2上に配置される情報表示オブジェクトIOB21、IOB22と、仮想カメラVCから距離L3にある湾曲面CSF3上に配置される情報表示オブジェクトIOB31、IOB32とが異なる表示態様になる画像を生成する。 Further, when a plurality of curved surfaces are arranged in this way, an image may be generated by changing the display mode of the information display object arranged on each curved surface according to the distance from the virtual camera VC. . For example, information display objects IOB11, IOB12, IOB13 (i-th information display object) arranged on the curved surface CSF1 (i-th curved surface) at a distance L1 (i-th distance) from the virtual camera VC, and the virtual camera Generating an image in which the information display objects IOB21 and IOB22 (jth information display object) disposed on the curved surface CSF2 (jth curved surface) at a distance L2 (jth distance) from the display surface are different from each other. To do. Similarly, the information display objects IOB21 and IOB22 arranged on the curved surface CSF2 and the information display objects IOB31 and IOB32 arranged on the curved surface CSF3 at the distance L3 from the virtual camera VC are displayed in different display modes. Generate.
この場合に、情報表示オブジェクトの表示態様を異ならせる手法としては、例えば透明度(半透明度)や情報詳細度を異ならせる手法が考えられる。 In this case, as a method of changing the display mode of the information display object, for example, a method of changing the transparency (semi-transparency) and the information detail level can be considered.
例えば図13では、仮想カメラVCからの距離に応じて、情報表示オブジェクトの透明度を異ならせている。即ち図13では、湾曲面CSF2(第jの湾曲面)の方が湾曲面CSF1(第iの湾曲面)よりも仮想カメラVCから遠い位置にある。つまり、湾曲面CSF1は仮想カメラVCから距離L1の位置にあり、湾曲面CSF2は仮想カメラVCから距離L2の位置にあり、L2>L1になっている。 For example, in FIG. 13, the transparency of the information display object is varied according to the distance from the virtual camera VC. That is, in FIG. 13, the curved surface CSF2 (jth curved surface) is located farther from the virtual camera VC than the curved surface CSF1 (ith curved surface). That is, the curved surface CSF1 is at a distance L1 from the virtual camera VC, the curved surface CSF2 is at a distance L2 from the virtual camera VC, and L2> L1.
この場合に、湾曲面CSF2に配置される情報表示オブジェクトIOB21、IOB22(第jの情報表示オブジェクト)を、湾曲面CSF1に配置設定される情報表示オブジェクトIOB11、IOB12、IOB13(第iの情報表示オブジェクト)よりも透明に近づける半透明処理を行う。例えば手前側の湾曲面CSF1に配置される情報表示オブジェクトIOB11、IOB12、IOB13については、透明度(半透明度)を低くして、例えば不透明なオブジェクトに設定する。一方、奧側の湾曲面CSF2に配置される情報表示オブジェクトIOB21、IOB22については、情報表示オブジェクトIOB11、IOB12、IOB13よりも透明度を高くする。また、更に奧側の湾曲面CSF3に配置される情報表示オブジェクトIOB31、IOB32については、情報表示オブジェクトIOB21、IOB22よりも更に透明度を高くする。 In this case, the information display objects IOB21 and IOB22 (jth information display object) arranged on the curved surface CSF2 are changed to the information display objects IOB11, IOB12 and IOB13 (i-th information display object) arranged and set on the curved surface CSF1. ) Translucent processing to make it closer to transparency. For example, the information display objects IOB11, IOB12, and IOB13 arranged on the curved surface CSF1 on the near side are set to be an opaque object, for example, by reducing the transparency (translucency). On the other hand, the information display objects IOB21 and IOB22 arranged on the curved surface CSF2 on the heel side have higher transparency than the information display objects IOB11, IOB12, and IOB13. Further, the information display objects IOB31 and IOB32 arranged on the curved surface CSF3 on the heel side are made more transparent than the information display objects IOB21 and IOB22.
このようにすれば、最も手前側の情報表示オブジェクトIOB11、IOB12、IOB13については、透明度が低く、例えば不透明なオブジェクトになるため、プレーヤの視認性を向上でき、重要な情報をプレーヤに的確に提示できるようになる。 In this way, the information display objects IOB11, IOB12, and IOB13 on the most front side are low in transparency, for example, become opaque objects, so that the visibility of the player can be improved and important information is accurately presented to the player. become able to.
一方、奥側の情報表示オブジェクトIOB21、IOB22、IOB31、IOB32については、透明度が高くなる。従って、これらの情報表示オブジェクトIOB21、IOB22、IOB31、IOB32の存在が邪魔になって、プレーヤのゲームプレイに支障を来す事態を防止できる。 On the other hand, the transparency of the information display objects IOB21, IOB22, IOB31, and IOB32 on the back side is increased. Therefore, it is possible to prevent a situation in which the presence of these information display objects IOB21, IOB22, IOB31, and IOB32 hinders the player's game play.
また図14では、仮想カメラVCからの距離に応じて、情報表示オブジェクトの表示情報の詳細度を異ならせている。 Further, in FIG. 14, the level of detail of the display information of the information display object is varied according to the distance from the virtual camera VC.
例えば湾曲面CSF2に配置される情報表示オブジェクトIOB21、IOB22(第jの情報表示オブジェクト)よりも、湾曲面CSF1に配置設定される情報表示オブジェクトIOB11、IOB12、IOB13(第iの情報表示オブジェクト)の方が、表示情報の詳細度が高くなる画像を生成する。例えば手前側の湾曲面CSF1に配置される情報表示オブジェクトIOB11、IOB12、IOB13については、表示情報の詳細度を高くして、プレーヤへの表示情報量が多くなるようにする。一方、奧側の湾曲面CSF2に配置される情報表示オブジェクトIOB21、IOB22については、表示情報の詳細度を低くして、プレーヤへの表示情報量が少なくなるようにする。更に奧側の湾曲面CSF3に配置される情報表示オブジェクトIOB31、IOB32については、情報表示オブジェクトIOB21、IOB22よりも更に表示情報の詳細度を低くする。 For example, rather than the information display objects IOB21 and IOB22 (jth information display object) arranged on the curved surface CSF2, the information display objects IOB11, IOB12, and IOB13 (i th information display object) arranged and set on the curved surface CSF1. In this way, an image with a higher level of detail of display information is generated. For example, for the information display objects IOB11, IOB12, and IOB13 arranged on the curved surface CSF1 on the near side, the level of detail of display information is increased so that the amount of display information to the player is increased. On the other hand, with respect to the information display objects IOB21 and IOB22 arranged on the curved surface CSF2 on the heel side, the level of detail of display information is lowered so that the amount of display information to the player is reduced. Further, for the information display objects IOB31 and IOB32 arranged on the curved surface CSF3 on the heel side, the level of detail of the display information is made lower than that of the information display objects IOB21 and IOB22.
このようにすれば、最も手前側の情報表示オブジェクトIOB11、IOB12、IOB13については、表示情報の詳細度が高くなるため、プレーヤに対して多くの情報を提示できるようになる。そして手前側の情報表示オブジェクトIOB11、IOB12、IOB13は、プレーヤにとって見やすい位置に配置され、視認性が高い。従って、このように表示情報の詳細度を高くしても、プレーヤは、表示される情報の内容を的確に把握できる。 In this way, the information display objects IOB11, IOB12, and IOB13 on the foremost side have a high degree of detail of display information, so that a lot of information can be presented to the player. The information display objects IOB11, IOB12, and IOB13 on the near side are arranged at positions that are easy for the player to see and have high visibility. Therefore, even if the level of detail of the display information is increased in this way, the player can accurately grasp the contents of the displayed information.
一方、奥側の情報表示オブジェクトIOB21、IOB22、IOB31、IOB32については、表示情報の詳細度が低くなる。従って、プレーヤは、奥側の情報表示オブジェクトについては、大まかな情報の内容だけを把握できるようになり、プレーヤの利便性を向上できる。 On the other hand, for the information display objects IOB21, IOB22, IOB31, and IOB32 on the back side, the level of detail of the display information is low. Therefore, the player can grasp only the contents of the rough information display object, and the convenience of the player can be improved.
なお表示情報の詳細度が高いとは、提示される情報量が多いことを意味し、表示情報の詳細度が低いとは、提示される情報量が少ないことを意味する。例えば表示情報の詳細度は、情報表示オブジェクトにより表示される画像の精細度や、情報表示オブジェクトにより表示されるテキスト(文字)の量などにより設定される。 A high level of detail of display information means that a large amount of information is presented, and a low level of detail of display information means that a small amount of information is presented. For example, the level of detail of display information is set by the definition of the image displayed by the information display object, the amount of text (characters) displayed by the information display object, and the like.
例えば図15(A)では、手前側に配置される情報表示オブジェクトIOBK(CSF1に配置される情報表示オブジェクト)については、低い透明度(例えば不透明)に設定され、表示情報の詳細度も高くなる。即ち、「ナイフA」、「ピストルB」、「ライフルC」などの多くのテキスト(文字)が表示され、画像の精細度も高くなる。一方、奧側に配置される情報表示オブジェクトIOBL(CSF2に配置される情報表示オブジェクト)については、高い透明度(半透明)に設定され、表示情報の詳細度も低くなる。即ち、テキストの量は最小限に抑えられ、画像の精細度も低くなる。 For example, in FIG. 15A, the information display object IOBK (information display object arranged in CSF1) arranged on the near side is set to low transparency (for example, opaque), and the detail level of the display information is also high. That is, many texts (characters) such as “knife A”, “pistol B”, and “rifle C” are displayed, and the definition of the image is increased. On the other hand, the information display object IOBL arranged on the heel side (information display object arranged on the CSF 2) is set to high transparency (translucent), and the detail level of display information is also low. That is, the amount of text is minimized and the definition of the image is also reduced.
そして図15(B)では、図11(A)で説明したような情報表示オブジェクトの並び替え処理が行われている。具体的には、図15(A)において手前側(CSF1)にあった情報表示オブジェクトIOBKが、図15(B)では奥側(CSF2)に移動している。また図15(A)において奥側(CSF2)にあった情報表示オブジェクトIOBLが、図15(B)では手前側(CSF1)に移動している。 In FIG. 15B, the information display object rearrangement process as described in FIG. 11A is performed. Specifically, the information display object IOBK that was on the near side (CSF1) in FIG. 15A has moved to the far side (CSF2) in FIG. 15B. In addition, the information display object IOBL that was on the back side (CSF2) in FIG. 15A has moved to the near side (CSF1) in FIG. 15B.
この場合に、図15(A)では、その透明度が低かった情報表示オブジェクトIOBKが、図15(B)に示すように奥側に移動すると、その透明度が高くなる。一方、図15(A)では、その透明度が高かった情報表示オブジェクトIOBLが、図15(B)に示すように手前側に移動すると、その透明度が低くなる。 In this case, in FIG. 15A, when the information display object IOBK whose transparency is low moves to the back side as shown in FIG. 15B, the transparency becomes high. On the other hand, in FIG. 15A, when the information display object IOBL having a high transparency moves to the near side as shown in FIG. 15B, the transparency becomes low.
また、図15(A)では、その情報詳細度が高かった情報表示オブジェクトIOBKが、図15(B)に示すように奥側に移動すると、その情報詳細度が低くなる。例えば図15(A)の情報表示オブジェクトIOBKでは表示されていたナイフ等の画像が、図15(B)のIOBKでは表示されなくなる。 In FIG. 15A, when the information display object IOBK having a high information detail level moves to the back side as shown in FIG. 15B, the information detail level decreases. For example, an image of a knife or the like displayed on the information display object IOBK in FIG. 15A is not displayed on the IOBK in FIG. 15B.
一方、図15(A)では、その情報詳細度が低かった情報表示オブジェクトIOBLが、図15(B)に示すように手前側に移動すると、その情報詳細度が高くなる。例えば図15(A)では情報表示オブジェクトIOBLに表示されていなかった「ナイフA」の説明文のテキストが、図15(B)のIOBLでは表示されるようになる。 On the other hand, in FIG. 15A, when the information display object IOBL whose information detail level is low moves to the near side as shown in FIG. 15B, the information detail level becomes high. For example, the explanatory text of “knife A” that was not displayed in the information display object IOBL in FIG. 15A is displayed in the IOBL in FIG. 15B.
このように、透明度、情報詳細度等を制御しながら、情報表示オブジェクトの並び替え処理を可能にすることで、プレーヤにとって見やすく、必要な情報を的確に表示できるゲームインターフェース環境を実現することが可能になる。 In this way, by enabling rearrangement processing of information display objects while controlling transparency, information detail level, etc., it is possible to realize a game interface environment that is easy for the player to view and can display necessary information accurately. become.
2.4 詳細な処理例
次に本実施形態の詳細な処理例について図16、図17のフローチャートを用いて説明する。図16は本実施形態の全体的な処理例を示すフローチャートである。
2.4 Detailed Processing Example Next, a detailed processing example of this embodiment will be described with reference to the flowcharts of FIGS. 16 and 17. FIG. 16 is a flowchart showing an example of the overall processing of this embodiment.
まず、フレーム更新のタイミングか否かを判断する(ステップS1)。そしてフレーム更新のタイミングである場合には、キャラクタの制御処理を行う(ステップS2)。例えばプレーヤの操作情報やモーションデータなどに基づいて、オブジェクト空間内のゲームフィールド上でキャラクタを移動させたり、動作(モーション)させる制御を行う。また、仮想カメラ(基準仮想カメラ)の制御処理を行う(ステップS3)。例えば、プレーヤの操作情報や、キャラクタの位置、方向などに基づいて、仮想カメラの位置、方向を特定する処理を行う。また、オブジェクト空間へのオブジェクトの配置設定処理を行う(ステップS4)。例えば情報表示オブジェクト以外の複数のオブジェクトをオブジェクト空間に配置設定する処理(オブジェクトデータの更新処理等)を行う。 First, it is determined whether or not it is a frame update timing (step S1). If it is a frame update timing, a character control process is performed (step S2). For example, on the basis of player operation information, motion data, and the like, control is performed to move or move (motion) a character on the game field in the object space. In addition, the control process of the virtual camera (reference virtual camera) is performed (step S3). For example, processing for specifying the position and direction of the virtual camera is performed based on the operation information of the player, the position and direction of the character, and the like. Also, an object placement setting process in the object space is performed (step S4). For example, processing (object data update processing, etc.) for arranging and setting a plurality of objects other than information display objects in the object space is performed.
次に、図5〜図8(B)等で説明したように、スクリーン距離情報に基づいて湾曲面を設定する処理を行う(ステップS5)。例えばゲーム環境の設定画面において、プレーヤによりスクリーン距離情報が入力された場合には、そのスクリーン距離情報に対応する位置に湾曲面を設定する。或いは、画像センサ等によりスクリーン距離情報が取得され場合には、スクリーンに対応する位置(例えば外接位置)に湾曲面を設定する。そして、設定された湾曲面上に、情報表示オブジェクトを配置設定する(ステップS6)。例えば図10のように複数の湾曲面が設定されている場合には、各湾曲面に対して、対応する情報表示オブジェクトを配置設定する。 Next, as described with reference to FIGS. 5 to 8B and the like, a process of setting a curved surface based on the screen distance information is performed (step S5). For example, when the screen distance information is input by the player on the game environment setting screen, the curved surface is set at a position corresponding to the screen distance information. Alternatively, when the screen distance information is acquired by an image sensor or the like, the curved surface is set at a position corresponding to the screen (for example, a circumscribed position). Then, the information display object is arranged and set on the set curved surface (step S6). For example, when a plurality of curved surfaces are set as shown in FIG. 10, a corresponding information display object is arranged and set for each curved surface.
次に、仮想カメラの位置、方向とカメラ間距離に基づいて、左目用仮想カメラ、右目用仮想カメラを設定する(ステップS7)。例えばキャラクタに追従する基準仮想カメラの位置、方向を求め、この基準仮想カメラの位置、方向とカメラ間距離に基づいて、左目用仮想カメラ、右目用仮想カメラの位置、方向を設定する。そして設定された左目用仮想カメラから見える画像を描画して、左目用画像を生成する(ステップS8)。また設定された右目用仮想カメラから見える画像を描画して、右目用画像を生成する(ステップS9)。そして、生成され左目用画像、右目用画像は、例えばサイドバイサイド方式等の画像信号で表示部190に出力される。 Next, a left-eye virtual camera and a right-eye virtual camera are set based on the position and direction of the virtual camera and the inter-camera distance (step S7). For example, the position and direction of the reference virtual camera following the character are obtained, and the positions and directions of the left-eye virtual camera and the right-eye virtual camera are set based on the position and direction of the reference virtual camera and the inter-camera distance. Then, an image visible from the set left-eye virtual camera is drawn to generate a left-eye image (step S8). Further, an image visible from the set right-eye virtual camera is drawn to generate a right-eye image (step S9). Then, the generated left-eye image and right-eye image are output to the display unit 190 as an image signal such as a side-by-side method.
図17は情報表示オブジェクトの並び替え処理に関するフローチャートである。 FIG. 17 is a flowchart regarding the information display object rearrangement process.
まず、情報表示オブジェクトの並び替え操作が行われたか否かを判断する(ステップS11)。例えばプレーヤが操作部160を用いて、並び替えを指示する所定の操作を行った場合に、情報表示オブジェクトの並び替え操作が行われたと判断する。 First, it is determined whether or not an information display object rearrangement operation has been performed (step S11). For example, when the player performs a predetermined operation for instructing rearrangement using the operation unit 160, it is determined that the rearrangement operation of the information display objects has been performed.
そして、並び替え操作が行われた場合には、プレーヤによって選択された情報表示オブジェクトを、仮想カメラから見て手前側の湾曲面上に配置設定する(ステップS12)。例えば図15(A)において、奥側の情報表示オブジェクトIOBLが選択された場合には、図15(B)に示すように情報表示オブジェクトIOBLを手前側の湾曲面CSF1に移動して配置する。一方、プレーヤによって選択されていない情報表示オブジェクトを、仮想カメラから見て奥側の湾曲面上に配置設定する(ステップS13)。例えば図15(A)において手前側に配置されていた情報表示オブジェクトIOBKを、図15(B)に示すように奧側の湾曲面CSF2に移動して配置する。 When the rearrangement operation is performed, the information display object selected by the player is placed and set on the curved surface on the near side as viewed from the virtual camera (step S12). For example, in FIG. 15A, when the information display object IOBL on the back side is selected, the information display object IOBL is moved to the curved surface CSF1 on the near side as shown in FIG. 15B. On the other hand, the information display object that has not been selected by the player is placed and set on the curved surface on the back side as viewed from the virtual camera (step S13). For example, the information display object IOBK arranged on the near side in FIG. 15A is moved and arranged on the curved surface CSF2 on the heel side as shown in FIG.
そして図13〜図15(B)で説明したように、情報表示オブジェクトの半透明度の変更処理や情報詳細度の変更処理を行う(ステップS14、S15)。例えば図15(A)から図15(B)への並び替え処理が行われた場合には、情報表示オブジェクトIOBLの透明度を低くすると共に情報詳細度を高くする。また情報表示オブジェクトIOBKの透明度を高くすると共に情報詳細度を低くする。このようにすれば、情報表示オブジェクトの並び替え処理を行った場合にも、プレーヤにとって見やすい的確な表示態様で、情報表示オブジェクトを表示できるようになる。 Then, as described with reference to FIGS. 13 to 15B, the translucency changing process and the information detail changing process of the information display object are performed (steps S14 and S15). For example, when the rearrangement process from FIG. 15A to FIG. 15B is performed, the transparency of the information display object IOBL is lowered and the information detail level is raised. Further, the transparency of the information display object IOBK is increased and the information detail level is decreased. In this way, even when the information display objects are rearranged, the information display objects can be displayed in an accurate display manner that is easy for the player to see.
なお、上記のように本実施形態について詳細に説明したが、本発明の新規事項および効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本発明の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語(観者、ステータス情報等)と共に記載された用語(プレーヤ、体力情報等)は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。また、情報表示オブジェクトや湾曲面の配置設定処理、情報表示オブジェクトの並び替え処理、情報表示オブジェクトの表示態様の変更処理、スクリーン距離情報の取得処理等も本実施形態で説明したものに限定されず、これらと均等な手法も本発明の範囲に含まれる。また本発明は種々のゲームに適用できる。また本発明は、業務用ゲームシステム、家庭用ゲームシステム、多数のプレーヤが参加する大型アトラクションシステム、シミュレータ、マルチメディア端末、ゲーム画像を生成するシステムボード、携帯電話、映像記録装置、テレビ等の種々の画像生成システムに適用できる。 Although the present embodiment has been described in detail as described above, it will be easily understood by those skilled in the art that many modifications can be made without departing from the novel matters and effects of the present invention. Accordingly, all such modifications are intended to be included in the scope of the present invention. For example, a term (player, physical fitness information, etc.) described with a broader or synonymous different term (viewer, status information, etc.) at least once in the specification or drawing is used anywhere in the specification or drawing. It can be replaced by that different term. Further, the information display object and curved surface arrangement setting process, the information display object rearrangement process, the information display object display mode change process, the screen distance information acquisition process, and the like are not limited to those described in this embodiment. These techniques are also included in the scope of the present invention. The present invention can be applied to various games. In addition, the present invention is a game game system, a home game system, a large attraction system in which a large number of players participate, a simulator, a multimedia terminal, a system board for generating game images, a mobile phone, a video recording device, a television, and the like. It can be applied to the image generation system.
CH キャラクタ、VC 仮想カメラ、EOB 装備アイテム、
IOB1〜IOB3、IOB11〜IOB32 情報表示オブジェクト、
CSF、CSF1〜CSF3 湾曲面、SC スクリーン、
VCL 左目用仮想カメラ、VCR 右目用仮想カメラ、DS カメラ間距離、
100 処理部、102 ゲーム演算部、104 オブジェクト空間設定部、
105 キャラクタ制御部、106 移動処理部、107 モーション処理部、
108 仮想カメラ制御部、110 スクリーン距離情報取得部、
112 ゲーム環境設定部、120 画像生成部、130 音生成部、160 操作部、
170 記憶部、171 オブジェクトデータ記憶部、
172 モーションデータ記憶部、177 ゲーム環境情報記憶部、
179 描画バッファ、180 情報記憶媒体、190 表示部、192 音出力部、
194 補助記憶装置、196 通信部
CH character, VC virtual camera, EOB equipment item,
IOB1 to IOB3, IOB11 to IOB32 information display objects,
CSF, CSF1-CSF3 curved surface, SC screen,
VCL virtual camera for left eye, VCR virtual camera for right eye, DS camera distance,
100 processing unit, 102 game calculation unit, 104 object space setting unit,
105 character control unit, 106 movement processing unit, 107 motion processing unit,
108 virtual camera control unit, 110 screen distance information acquisition unit,
112 game environment setting unit, 120 image generation unit, 130 sound generation unit, 160 operation unit,
170 storage unit, 171 object data storage unit,
172 motion data storage unit, 177 game environment information storage unit,
179 Drawing buffer, 180 information storage medium, 190 display unit, 192 sound output unit,
194 Auxiliary storage device, 196 communication unit
Claims (20)
仮想カメラの制御を行う仮想カメラ制御部と、
画像を生成する画像生成部として、
コンピュータを機能させ、
前記オブジェクト空間設定部は、
前記オブジェクト空間において、曲率中心が前記仮想カメラ側にある湾曲面上に、観者に情報を表示するための情報表示オブジェクトを配置設定し、
前記画像生成部は、
前記オブジェクト空間において左目用仮想カメラから見える画像である左目用画像と、前記オブジェクト空間において右目用仮想カメラから見える画像である右目用画像とを生成して、前記情報表示オブジェクトが立体視表示される画像を生成することを特徴とするプログラム。 An object space setting unit for setting an object space in which a plurality of objects are arranged;
A virtual camera control unit for controlling the virtual camera;
As an image generator that generates images,
Make the computer work,
The object space setting unit
In the object space, an information display object for displaying information to the viewer is arranged and set on a curved surface having a center of curvature on the virtual camera side,
The image generation unit
A left-eye image that is an image seen from the left-eye virtual camera in the object space and a right-eye image that is an image seen from the right-eye virtual camera in the object space are generated, and the information display object is stereoscopically displayed. A program characterized by generating an image.
前記オブジェクト空間設定部は、
前記観者であるプレーヤに、ゲームに関する情報を表示するための前記情報表示オブジェクトを、前記オブジェクト空間の前記湾曲面上に配置設定することを特徴とするプログラム。 In claim 1,
The object space setting unit
A program characterized in that the information display object for displaying information related to a game is arranged on the curved surface of the object space for the player who is the viewer.
前記情報表示オブジェクトは、
前記プレーヤが操作するキャラクタのステータス情報を表示するためのオブジェクト、前記キャラクタの装備アイテムの情報を表示するためのオブジェクト、及び前記オブジェクト空間のマップ情報を表示するためのオブジェクトの少なくとも1つを含むことを特徴とするプログラム。 In claim 2,
The information display object is:
Including at least one of an object for displaying status information of a character operated by the player, an object for displaying information on equipment items of the character, and an object for displaying map information of the object space A program characterized by
前記オブジェクト空間設定部は、
前記情報表示オブジェクトとして、3次元形状のオブジェクトを、前記オブジェクト空間の前記湾曲面上に配置設定することを特徴とするプログラム。 In any one of Claims 1 thru | or 3,
The object space setting unit
A program characterized in that a three-dimensional object is arranged and set on the curved surface of the object space as the information display object.
前記オブジェクト空間設定部は、
各湾曲面上に前記情報表示オブジェクトが配置設定され、前記仮想カメラからの距離が互いに異なる第1〜第N(Nは2以上の整数)の湾曲面を設定することを特徴とするプログラム。 In any one of Claims 1 thru | or 4,
The object space setting unit
A program characterized in that the information display object is arranged and set on each curved surface, and first to Nth (N is an integer of 2 or more) curved surfaces having different distances from the virtual camera are set.
前記オブジェクト空間設定部は、
前記観者からの入力情報に基づいて、前記第1〜第Nの湾曲面に配置設定される情報表示オブジェクトを、前記仮想カメラからの距離が異なる位置に移動する並び替え処理を行うことを特徴とするプログラム。 In claim 5,
The object space setting unit
Based on the input information from the viewer, the information display object arranged and set on the first to Nth curved surfaces is subjected to a rearrangement process for moving to a position where the distance from the virtual camera is different. Program.
前記第1〜第Nの湾曲面に配置設定される情報表示オブジェクトに対して情報表示の優先順位が設定され、
前記オブジェクト空間設定部は、
高い優先順位が設定された情報表示オブジェクトを、前記第1〜第Nの湾曲面のうちの、前記仮想カメラから近い位置にある湾曲面に配置設定することを特徴とするプログラム。 In claim 5 or 6,
Priorities of information display are set for the information display objects arranged and set on the first to Nth curved surfaces,
The object space setting unit
A program characterized in that an information display object set with a high priority is arranged and set on a curved surface at a position close to the virtual camera among the first to Nth curved surfaces.
前記観者であるプレーヤにより操作されるキャラクタの制御を行うキャラクタ制御部として、
コンピュータを機能させ、
前記オブジェクト空間設定部は、
前記仮想カメラから第iの距離にある第iの湾曲面を、前記仮想カメラから見て前記キャラクタよりも手前側に設定し、前記仮想カメラから第jの距離にある第j(1≦i<j≦N)の湾曲面を、前記仮想カメラから見て前記キャラクタよりも奧側に設定することを特徴とするプログラム。 In claim 5 or 6,
As a character control unit that controls a character operated by the player who is the viewer,
Make the computer work,
The object space setting unit
The i-th curved surface at the i-th distance from the virtual camera is set in front of the character when viewed from the virtual camera, and the j-th (1 ≦ i <) at the j-th distance from the virtual camera. The curved surface of j ≦ N) is set on the heel side of the character as viewed from the virtual camera.
前記画像生成部は、
前記仮想カメラから第iの距離にある第iの湾曲面上に配置設定される第iの情報表示オブジェクトと、前記仮想カメラから第jの距離にある第j(1≦i<j≦N)の湾曲面上に配置設定される第jの情報表示オブジェクトとが異なる表示態様になる画像を生成することを特徴とするプログラム。 In any of claims 5 to 8,
The image generation unit
The i-th information display object arranged and set on the i-th curved surface at the i-th distance from the virtual camera, and the j-th (1 ≦ i <j ≦ N) at the j-th distance from the virtual camera A program for generating an image having a display mode different from that of the jth information display object arranged and set on the curved surface of the program.
前記画像生成部は、
前記第jの湾曲面の方が前記第iの湾曲面よりも前記仮想カメラから遠い位置にある場合に、前記第jの湾曲面に配置設定される前記第jの情報表示オブジェクトを、前記第iの湾曲面に配置設定される前記第iの情報表示オブジェクトよりも透明に近づける半透明処理を行うことを特徴とするプログラム。 In claim 9,
The image generation unit
When the j-th curved surface is located farther from the virtual camera than the i-th curved surface, the j-th information display object placed and set on the j-th curved surface is A program for performing a semi-transparency process to make the i-th information display object arranged transparently closer to the transparent surface than the i-th information display object.
前記画像生成部は、
前記第jの湾曲面の方が前記第iの湾曲面よりも前記仮想カメラから遠い位置にある場合に、前記第jの湾曲面に配置設定される前記第jの情報表示オブジェクトよりも、前記第iの湾曲面に配置設定される前記第iの情報表示オブジェクトの方が、表示情報の詳細度が高くなる画像を生成することを特徴とするプログラム。 In claim 9,
The image generation unit
When the j-th curved surface is at a position farther from the virtual camera than the i-th curved surface, the j-th curved display surface is arranged more than the j-th information display object. A program characterized in that the i-th information display object arranged and set on the i-th curved surface generates an image with a higher level of detail of display information.
前記オブジェクト空間設定部は、
所定の情報に基づいて、前記仮想カメラと前記湾曲面との距離を変化させることを特徴とするプログラム。 In any one of Claims 1 thru | or 11,
The object space setting unit
A program for changing a distance between the virtual camera and the curved surface based on predetermined information.
表示部のスクリーンから前記観者までの距離を表すスクリーン距離情報を、前記所定の情報として取得するスクリーン距離情報取得部として、
コンピュータを機能させ、
前記オブジェクト空間設定部は、
取得された前記スクリーン距離情報に基づいて、前記仮想カメラと前記湾曲面との距離を変化させることを特徴とするプログラム。 In claim 12,
Screen distance information representing the distance from the screen of the display unit to the viewer as the screen distance information acquisition unit for acquiring the predetermined information as the predetermined information,
Make the computer work,
The object space setting unit
A program for changing a distance between the virtual camera and the curved surface based on the acquired screen distance information.
前記観者であるプレーヤからの入力情報に基づいて、前記プレーヤのゲーム環境の設定処理を行うゲーム環境設定部として、
コンピュータを機能させ、
前記スクリーン距離情報取得部は、
前記ゲーム環境の設定において前記プレーヤにより入力された入力情報に基づいて、前記スクリーン距離情報を取得することを特徴とするプログラム。 In claim 13,
As a game environment setting unit for performing a game environment setting process for the player based on input information from the player who is the viewer,
Make the computer work,
The screen distance information acquisition unit
A program for obtaining the screen distance information based on input information input by the player in the setting of the game environment.
前記オブジェクト空間設定部は、
前記表示部の前記スクリーンに対応する位置に前記情報表示オブジェクトが立体視表示されるように、前記スクリーン距離情報に基づいて前記仮想カメラと前記湾曲面との距離を変化させることを特徴とするプログラム。 In claim 13,
The object space setting unit
A program for changing a distance between the virtual camera and the curved surface based on the screen distance information so that the information display object is stereoscopically displayed at a position corresponding to the screen of the display unit. .
前記オブジェクト空間設定部は、
前記表示部の前記スクリーンに外接する位置に前記湾曲面を設定することを特徴とするプログラム。 In claim 15,
The object space setting unit
A program characterized in that the curved surface is set at a position circumscribing the screen of the display unit.
前記スクリーン距離情報取得部は、
デプスセンサを用いて、前記表示部側から前記観者側を見た場合のデプス情報を取得し、取得された前記デプス情報に基づいて、前記スクリーン距離情報を取得することを特徴とするプログラム。 In claim 13, 15 or 16,
The screen distance information acquisition unit
A program for acquiring depth information when the viewer side is viewed from the display unit side using a depth sensor, and acquiring the screen distance information based on the acquired depth information.
前記スクリーン距離情報取得部は、
色画像センサを用いて、前記表示部側から前記観者側を見た場合の色画像情報を取得し、取得された前記色画像情報と前記デプス情報に基づいて、前記スクリーン距離情報を取得することを特徴とするプログラム。 In claim 17,
The screen distance information acquisition unit
Using a color image sensor, obtain color image information when the viewer side is viewed from the display unit side, and obtain the screen distance information based on the obtained color image information and depth information. A program characterized by that.
仮想カメラの制御を行う仮想カメラ制御部と、
画像を生成する画像生成部とを含み、
前記オブジェクト空間設定部は、
前記オブジェクト空間において、曲率中心が前記仮想カメラ側にある湾曲面上に、観者に情報を表示するための情報表示オブジェクトを配置設定し、
前記画像生成部は、
前記オブジェクト空間において左目用仮想カメラから見える画像である左目用画像と、前記オブジェクト空間において右目用仮想カメラから見える画像である右目用画像とを生成して、前記情報表示オブジェクトが立体視表示される画像を生成することを特徴とする画像生成システム。 An object space setting unit for setting an object space in which a plurality of objects are arranged;
A virtual camera control unit for controlling the virtual camera;
An image generation unit for generating an image,
The object space setting unit
In the object space, an information display object for displaying information to the viewer is arranged and set on a curved surface having a center of curvature on the virtual camera side,
The image generation unit
A left-eye image that is an image seen from the left-eye virtual camera in the object space and a right-eye image that is an image seen from the right-eye virtual camera in the object space are generated, and the information display object is stereoscopically displayed. An image generation system characterized by generating an image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010083890A JP5649846B2 (en) | 2010-03-31 | 2010-03-31 | Program and image generation system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010083890A JP5649846B2 (en) | 2010-03-31 | 2010-03-31 | Program and image generation system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011212270A true JP2011212270A (en) | 2011-10-27 |
JP5649846B2 JP5649846B2 (en) | 2015-01-07 |
Family
ID=44942651
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010083890A Expired - Fee Related JP5649846B2 (en) | 2010-03-31 | 2010-03-31 | Program and image generation system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5649846B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110304703A1 (en) * | 2010-06-11 | 2011-12-15 | Nintendo Co., Ltd. | Computer-Readable Storage Medium, Image Display Apparatus, Image Display System, and Image Display Method |
JP2014056462A (en) * | 2012-09-13 | 2014-03-27 | Toshiba Alpine Automotive Technology Corp | Operation device |
JP6347375B1 (en) * | 2017-03-07 | 2018-06-27 | 株式会社コナミデジタルエンタテインメント | Display control apparatus and program |
JP2018117658A (en) * | 2017-01-23 | 2018-08-02 | 株式会社カプコン | Game program and game system |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08229237A (en) * | 1995-02-28 | 1996-09-10 | Namco Ltd | Three-dimensional game machine and image composition method |
JPH10113465A (en) * | 1996-08-21 | 1998-05-06 | Namco Ltd | Game device, screen generating method, and information memory medium |
JPH11137842A (en) * | 1997-09-04 | 1999-05-25 | Sega Enterp Ltd | Image processing device |
JP2001149639A (en) * | 1999-11-25 | 2001-06-05 | Sony Computer Entertainment Inc | Picture image processing device, picture image formation method, and storage medium |
JP2002092640A (en) * | 2000-09-20 | 2002-03-29 | Namco Ltd | Game system and information storage medium |
JP2002140718A (en) * | 2000-10-31 | 2002-05-17 | Konami Co Ltd | Computer readable recording medium recorded with virtual object display program, display controller and display control method |
JP2002273029A (en) * | 2001-03-16 | 2002-09-24 | Namco Ltd | Game information, information storage medium, and game apparatus |
JP2003203246A (en) * | 2002-12-25 | 2003-07-18 | Sanyo Product Co Ltd | Image display device |
JP2004221699A (en) * | 2003-01-09 | 2004-08-05 | Sanyo Electric Co Ltd | Stereoscopic image processing method and apparatus |
JP2005319029A (en) * | 2004-05-07 | 2005-11-17 | Namco Ltd | Program, information storage medium, and image generating system |
JP2006314632A (en) * | 2005-05-13 | 2006-11-24 | Nintendo Co Ltd | Game program and game device |
JP2009056181A (en) * | 2007-08-31 | 2009-03-19 | Sega Corp | Game machine |
-
2010
- 2010-03-31 JP JP2010083890A patent/JP5649846B2/en not_active Expired - Fee Related
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08229237A (en) * | 1995-02-28 | 1996-09-10 | Namco Ltd | Three-dimensional game machine and image composition method |
JPH10113465A (en) * | 1996-08-21 | 1998-05-06 | Namco Ltd | Game device, screen generating method, and information memory medium |
JPH11137842A (en) * | 1997-09-04 | 1999-05-25 | Sega Enterp Ltd | Image processing device |
JP2001149639A (en) * | 1999-11-25 | 2001-06-05 | Sony Computer Entertainment Inc | Picture image processing device, picture image formation method, and storage medium |
JP2002092640A (en) * | 2000-09-20 | 2002-03-29 | Namco Ltd | Game system and information storage medium |
JP2002140718A (en) * | 2000-10-31 | 2002-05-17 | Konami Co Ltd | Computer readable recording medium recorded with virtual object display program, display controller and display control method |
JP2002273029A (en) * | 2001-03-16 | 2002-09-24 | Namco Ltd | Game information, information storage medium, and game apparatus |
JP2003203246A (en) * | 2002-12-25 | 2003-07-18 | Sanyo Product Co Ltd | Image display device |
JP2004221699A (en) * | 2003-01-09 | 2004-08-05 | Sanyo Electric Co Ltd | Stereoscopic image processing method and apparatus |
JP2005319029A (en) * | 2004-05-07 | 2005-11-17 | Namco Ltd | Program, information storage medium, and image generating system |
JP2006314632A (en) * | 2005-05-13 | 2006-11-24 | Nintendo Co Ltd | Game program and game device |
JP2009056181A (en) * | 2007-08-31 | 2009-03-19 | Sega Corp | Game machine |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110304703A1 (en) * | 2010-06-11 | 2011-12-15 | Nintendo Co., Ltd. | Computer-Readable Storage Medium, Image Display Apparatus, Image Display System, and Image Display Method |
US10015473B2 (en) * | 2010-06-11 | 2018-07-03 | Nintendo Co., Ltd. | Computer-readable storage medium, image display apparatus, image display system, and image display method |
JP2014056462A (en) * | 2012-09-13 | 2014-03-27 | Toshiba Alpine Automotive Technology Corp | Operation device |
JP2018117658A (en) * | 2017-01-23 | 2018-08-02 | 株式会社カプコン | Game program and game system |
JP6347375B1 (en) * | 2017-03-07 | 2018-06-27 | 株式会社コナミデジタルエンタテインメント | Display control apparatus and program |
JP2018147309A (en) * | 2017-03-07 | 2018-09-20 | 株式会社コナミデジタルエンタテインメント | Display control device and program |
Also Published As
Publication number | Publication date |
---|---|
JP5649846B2 (en) | 2015-01-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11094106B2 (en) | Simulation system, processing method, and information storage medium for changing a display object in response to a movement of a field of view | |
WO2018124280A1 (en) | Simulation system, image processing method, and information storage medium | |
JP5148652B2 (en) | Program, information storage medium, and image generation system | |
JP4917664B1 (en) | Image display device, game program, and game control method | |
US20120306860A1 (en) | Image generation system, image generation method, and information storage medium | |
JP2012058968A (en) | Program, information storage medium and image generation system | |
CN109716397B (en) | Simulation system, processing method, and information storage medium | |
JP2012212237A (en) | Image generation system, server system, program, and information storage medium | |
JP2003107603A (en) | Stereophonic image generating device, stereophonic image generation information and information storage medium | |
JP2012174237A (en) | Display control program, display control device, display control system and display control method | |
WO2019155889A1 (en) | Simulation system, processing method, and information storage medium | |
JP2019175323A (en) | Simulation system and program | |
JP2012079291A (en) | Program, information storage medium and image generation system | |
JP2019152899A (en) | Simulation system and program | |
JPH11161814A (en) | Image generation device, simulation device and information storage medium | |
JP2012123337A (en) | Display control program, display control device, display control method, and display control system | |
JP5649846B2 (en) | Program and image generation system | |
JP5620202B2 (en) | Program, information storage medium, and image generation system | |
JP5698028B2 (en) | Program and stereoscopic image generation apparatus | |
JP2002300611A (en) | Image generating device, program, and information recording medium | |
JP2012106005A (en) | Image display device, game program, and game control method | |
JP2016192029A (en) | Image generation system and program | |
JP2012141820A (en) | Program, information storage medium, image generation system and server system | |
JP2016001476A (en) | Display control program, display control device, display control system and display control method | |
JP2013062731A (en) | Program, information storage medium, and image generation system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130321 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140325 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140521 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140603 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140804 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20141014 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20141112 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5649846 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |